Università degli Studi di Trieste Facoltà di Economia Tesi di Laurea Magistrale in Scienze statistiche ed attuariali Approccio stocastico alla modellizzazione del requisito di capitale in ottica Solvency II Laureando Artur Vittori Manukian Relatore Prof. Ermanno Pitacco Università degli Studi di Trieste Correlatori Prof. Nicola Torelli Università degli Studi di Trieste Dott. Simone Querzoni Assicurazioni Generali S.p.A. Anno accademico 2011/2012 2 A mio nonno Mihail Kutischev Anatolievisch 1937 – 1997 Professore di fisica presso l’Università di Kiev 3 4 Sommario Introduzione ........................................................................................................................................................... 9 1 La direttiva Solvency II ..........................................................................................................................12 1.1 1.2 La struttura ........................................................................................................................................15 I pilastro - “Minimum financial requirement” .....................................................................16 1.2.1 1.2.2 1.2.3 1.2.4 Il Minimum Capital Requirement ....................................................................................18 Il Solvency Capital Requirement .....................................................................................18 Le origini del VaR ...................................................................................................................20 Il modello Delta-Normal di Garbade (1986) .............................................................. 21 1.2.5 I limiti della standard formula: contesti nell’industria assicurativa in cui la 1.2.6 Uno studio su trenta compagnie di assicurazione ................................................... 29 sua applicazione è inadeguata ............................................................................................................25 1.2.7 Il modello interno ..................................................................................................................31 1.3.1 ORSA ............................................................................................................................................33 1.3 II pilastro – “Governance requirements” ...............................................................................33 1.4 III pilastro – “requisiti di disclosure e reporting” .............................................................. 35 1.5 Impatto sulla cultura aziendale e sulle strategie ................................................................ 35 5 2 Modelli alternativi per il calcolo del requisito patrimoniale di solvibilità ....................... 36 2.1 2.2 Una generalizzazione del calcolo del SCR secondo la direttiva .................................... 37 Portafogli replicanti ........................................................................................................................38 2.2.1 2.2.2 Un esempio pratico ...............................................................................................................39 2.2.4 Ambiente di rischio multidimensionale .......................................................................45 2.2.3 2.3 2.4 Strategia statica con payoff complessi e strumenti ................................................. 42 Simulazioni stocastiche annidate..............................................................................................48 Metodi per la riduzione dello sforzo computazionale...................................................... 51 2.4.1 Riduzione dei model point .................................................................................................52 2.4.3 Distribuzione efficiente degli scenari interni tra i model point ......................... 54 2.4.2 3 Portafogli replicanti per il calcolo del requisito patrimoniale di solvibilità.. 38 Riduzione del numero degli scenari risk-neutral ..................................................... 53 2.5 Tecnica del curve fitting ...............................................................................................................56 3.1 Introduzione al modello LSMC ...................................................................................................62 Least-Squares Monte Carlo ..................................................................................................................61 3.1.1 3.1.2 Il LSMC per valutare un’opzione put..............................................................................63 Considerazioni sull’utilizzo del modello in un contesto assicurativo .............. 65 3.1.3 Il LSMC per le politiche di gestione ................................................................................67 3.2.1 Descrizione delle grandezze di interesse .....................................................................69 3.3.1 Il capitale disponibile in t = 0 ...........................................................................................74 3.2 Il modello matematico per le simulazioni fully nested .................................................... 69 3.3 L’impostazione matematica delle simulazioni stocastiche annidate ......................... 73 3.3.2 Il capitale disponibile in t = 1 ...........................................................................................75 6 3.3.3 3.3.4 Qualità dello stimatore e scelta di K 0 , K 1 ed N ........................................................... 78 3.4.1 L’algoritmo dei minimi quadrati .....................................................................................82 3.4 L’impostazione matematica del modello LSMC ..................................................................82 3.4.2 Scelta della funzione di regressione ...............................................................................84 3.4.3 Convergenza.............................................................................................................................85 3.5.1 Calibrazione della funzione di regressione .................................................................87 3.5 Miglioramento del modello .........................................................................................................87 3.5.2 3.5.3 4 Requisito patrimoniale di solvibilità .............................................................................78 Sequenza a bassa discrepanza di Sobol ........................................................................87 Simulazione di due traiettorie risk-neutral per ogni scenario real-world in accordo con le tecniche di riduzione della varianza ..................................................................91 Applicazione del modello ......................................................................................................................92 4.1 Descrizione della polizza ..............................................................................................................92 4.1.1 4.1.2 Caratteristiche di una generica polizza unit-linked................................................. 92 Polizze unit-linked con garanzie finanziarie .............................................................. 93 4.2 Descrizione del portafoglio .........................................................................................................96 4.3 Simulazione stocastica per ρ, r e w ....................................................................................... 100 4.2.1 Flussi monetari a livello di portafoglio .........................................................................97 4.3.1 Modello per la percentuale di riscatti ........................................................................ 100 4.3.3 Modello di Heston per il rendimento dei titoli azionari ..................................... 108 4.4.1 Applicazione dell’algoritmo LSMC ............................................................................... 114 4.3.2 4.4 Modello di Black-Karasinki a due fattori per il tasso di sconto risk free ..... 101 Simulazione del portafoglio ..................................................................................................... 113 7 4.4.2 4.4.3 4.5 Backtesting ............................................................................................................................ 117 Passaggio alla probabilità real world ......................................................................... 120 Calcolo del SCR .............................................................................................................................. 123 4.5.1 Requisiti di solvibilità per singola causa di rischio e beneficio di diversificazione ...................................................................................................................................... 125 4.6 Limiti del modello ........................................................................................................................ 133 4.6.1 Individuazione del problema ......................................................................................... 133 4.6.3 Misture finite di funzioni di regressione ................................................................... 140 4.6.2 5 4.6.4 Aggiunta di un regressore specifico per il portafoglio ........................................ 137 Regressione quantile ......................................................................................................... 149 Conclusioni............................................................................................................................................... 154 Appendice - Generazione di variabili pseudocasuali ........................................................................ 156 Bibliografia ......................................................................................................................................................... 158 Ringraziamenti.................................................................................................................................................. 161 8 Introduzione La direttiva 2009/138/EC denominata Solvency II ha introdotto un nuovo sistema di valutazione del requisito minimo di solvibilità con lo scopo di renderlo più coerente al reale profilo di rischio aziendale. Tale novità sta rivoluzionando l’industria assicurativa europea: le compagnie in questi ultimi anni stanno concentrando tutti gli sforzi per riuscire a ottemperare ai requisiti della direttiva una volta che questa sarà recepita dal relativo stato membro. Ciò nonostante non sarebbe preciso affermare che le compagnie siano in corsa contro il tempo poiché si è assistito più volte a una posticipazione dell’effettiva entrata in vigore della normativa. La direttiva assegna diversi poteri al regolatore, l’ente dello stato membro posto a vigilare sulle compagnie assicurative operanti sul territorio, al fine di assicurare l’effettivo recepimento della stessa da parte delle compagnie; uno di questi, relativo ai requisiti del cosiddetto primo pilastro è il capital add-on: se l’IVASS 1 ritiene che i rischi assunti dalla compagnia non siano correttamente quantificati dalla cifra espressa dal SCR 2, può imporre l’allocazione di una cifra superiore, come margine prudenziale di garanzia. La formula di calcolo del SCR proposta da S. II, la standard formula, è stata costruita con l’intento di fornire risultati ragionevolmente corretti qualunque sia la compagnia ad utilizzarla. Se per le compagnie piccole tale approssimazione può essere sufficiente, per quelle grandi si consta che è il regolatore stesso a chiedere uno sforzo per passare ad un modello proprio, capace di cogliere con precisione le specificità dei rischi assunti. Istituto per la Vigilanza sulle Assicurazioni, il regulator del territorio italiano. Solvency Capital Requirement, il requisito patrimoniale di solvibilità: è la cifra che la compagnia assicurativa deve accantonare per far fronte ai rischi assunti. 1 2 9 Una delle ipotesi più critiche della standard formula è quella della normalità congiunta dei rischi; come si vedrà in seguito quest’approssimazione è limitante per quanto concerne le polizze del settore vita, dove alcuni rischi causati dalle peculiarità delle polizze stesse (a titolo di esempio garanzie di rendimento minimo, opzioni, riscatti) hanno dinamiche che non possono essere colte da un approccio semplificato. Un modello che non cattura appieno il fenomeno oggetto di studio porta a risultati imprecisi. Si precisa che in generale la normalità porta ad una sottostima del SCR in tal contesto, perciò il termine “limitante” è interpretabile. È chiaro il motivo dell’interesse che ha suscitato nel mondo accademico tale problema, se si considera che, nel caso di grandi gruppi assicurativi, tale imprecisione può risultare particolarmente materiale. Questa tesi dà il suo contributo trattando una tecnica di calcolo estremamente attuale, il metodo Least-Squares Monte Carlo (LSMC), di fatto ancora in via di sviluppo. Si precisa che il nome LSMC esiste già da un decennio ed è relativo ad una tecnica inventata nel mondo della finanza per prezzare le opzioni put americane; il modello trattato ha lo stesso nome in quanto condivide la strategia utilizzata. Si forniranno i concetti necessari per comprendere la tecnica: si tratterà quindi in maniera descrittiva di simulazioni stocastiche annidate e di altri modelli dei quali il LSMC è un’evoluzione. Verranno, invece, trattati con un dettaglio superiore alcuni concetti della matematica, statistica e finanza, utilizzati durante l’applicazione; s’introdurranno perciò i numeri a bassa discrepanza, come la successione di Sobol, tecniche di riduzione della varianza negli scenari stocastici, equazioni differenziali stocastiche. Queste ultime sono utilizzate nella generazione degli scenari stocastici del rendimento delle azioni attraverso il modello di Heston e per quelli del tasso di sconto attraverso il modello di BlackKarasinski a due fattori. L’esposizione è articolata in quattro capitoli. Nel primo capitolo è presente un’introduzione alla direttiva Solvency II; viene discusso il processo che sta portando alla concretizzazione di tale normativa nonché la sua struttura a pilastri. Con particolare attenzione al business vita, sarà esposta la metodologia di calcolo del requisito di solvibilità. Si concluderà quindi riportando alcuni risultati che evidenziano l’incapacità della standard formula di catturare al meglio le dinamiche di tale settore, portando ad una sottostima del SCR. Nel secondo capitolo sono introdotti i modelli stocastici per il calcolo del requisito di capitale: si discuterà della necessità di utilizzare le simulazioni stocastiche annidate, del 10 problema derivante dall’eccessivo sforzo computazionale richiesto da tali modelli, nonché di alcune possibili soluzioni. Tra queste, viene descritta la metodologia del curve fitting. Come alternativa alle simulazioni stocastiche sarà trattata la tecnica dei portafogli replicanti, mostrandone anche i limiti. Nel terzo capitolo è introdotta la tecnica Least-Squares Monte Carlo. Si procederà dapprima spiegandone il funzionamento in maniera generale e con ampio ricorso a rappresentazioni grafiche, fornendo un’impostazione matematica poi. Nel quarto ed ultimo capitolo, viene esposta l’applicazione realizzata con il metodo LSMC. Utilizzando valori il più possibile realistici, è stata studiata la dinamica di un piano di accumulo assicurativo unit-linked con garanzia di rendimento minimo e quindi calcolato il relativo requisito di capitale. 11 1 La direttiva Solvency II Solvency II 3 è una direttiva dell’Unione Europea, dalle molteplici finalità, rivolta all’industria assicurativa: il progetto mira ad istituire un adeguato insieme di regole che imponga all’assicuratore di garantire un determinato livello di solvibilità, tenendo in considerazione i vari tipi di rischi assunti. Lo scopo ultimo di questa iniziativa è di tutelare l’impresa stessa, gli assicurati e tutti i terzi coinvolti, come ad esempio gli azionisti. Senza ancora entrare nel dettaglio è possibile affermare che la compagnia assicurativa deve dimostrare di essere solvibile al punto che la possibilità di fallimento sia approssimabile ad una ogni duecento anni. Come conseguenza dello sforzo necessario alla valutazione corretta dei requisiti patrimoniali, sorge la necessità per le compagnie di utilizzare tecniche moderne di risk management: si richiede, quindi, più in generale di adottare una vera e propria cultura del rischio. Un altro obiettivo della direttiva è di creare un unico mercato assicurativo europeo. La direttiva sulla solvibilità vigente, detta Solvency I e introdotta nel 1970, è stato un primo tentativo di raggiungere tale l’ambizioso traguardo: il risultato non è arrivato in quanto questa non è riuscita a catturare adeguatamente i profili di rischio delle diverse compagnie. A titolo di esempio è richiesto un capitale di solvibilità esplicito solamente per i rischi assicurativi, quando invece non è richiesto alcun capitale per i rischi di mercato, di credito oppure quelli operativi. Nel corso degli anni ciascuno Stato Membro, al fine di venire incontro alle esigenze specifiche delle compagnie presenti sul territorio, ha 3 Direttiva 2009/138/EC del Parlamento Europeo e del Consiglio del 25 novembre 2009 12 emanato proprie norme portando ad una profonda frammentazione di ciò che è stata la direttiva originaria. Per quanto concerne S.II, il quadro normativo è stato creato in accordo con il cosiddetto processo di Lamfalussy, suddiviso quest’ultimo in quattro livelli: I. legislazione quadro: su proposta della Commissione, il Parlamento europeo e il Consiglio approvano congiuntamente l’atto legislativo nell’ambito della procedura di co-decisione: tale atto definisce un quadro di principi generali che dovranno II. essere adottati dagli Stati Membri; disposizioni di esecuzione: elaborazione di disposizioni di esecuzione entro il margine di azione definito al livello 1 e relativa adozione sulla base della procedura di comitatologia modificata con il sostegno dei comitati di esperti istituiti appositamente per questo fine. Nel caso di Solvency II tale comitato è l’EIOPA – Autorità Europea per l’Assicurazione e i Fondi Pensione, conosciuto una III. volta come CEIOPS; applicazione delle misure adottate al livello 1 e al livello 2 – l’EIOPA coordina la trasposizione e applicazione coerente e uniforme dei regolamenti al livello 1 e 2 negli Stati membri, sviluppando standard e linee guida in vista dell’obiettivo di armonizzazione della pratica di vigilanza sul mercato europeo per i servizi IV. finanziari; controllo dell’applicazione delle misure al livello 1 e 2: in caso di violazione del diritto comunitario, la Commissione adotta misure atte ad implementare la legislazione. 13 Figura 1.1.1 Schema Lamfalussy (fonte: sito web EIOPA) Lo sviluppo del primo pilastro è stato supportato da un certo numero di cosiddetti Quantitative Impact Studies (QIS) – studi d’impatto quantitativo richiesto dall’UE all’EIOPA e di conseguenza alle compagnie assicurative, al fine di ottenere le informazioni necessarie per calibrare al meglio il modello, attraverso esercizi pratici delle idee proposte. 14 Seppure l’entrata in vigore del quadro normativo, posticipata più volte, è fissata per l’inizio del 2014, non sono da escludersi ulteriori rinvii. In questo periodo transitorio le compagnie sono invitate ad applicare gradualmente quanto richiesto dalla direttiva, al fine di evitare al momento dell’effettiva entrata in vigore qualunque situazione che possa influire negativamente sui mercati o sulla disponibilità dei prodotti assicurativi. 1.1 La struttura Quanto segue, è una descrizione sommaria dei tre pilastri: risulta d’aiuto per comprendere al meglio il prosieguo della tesi, non si pone, però, come obiettivo quello di analizzare nel dettaglio tutta la struttura in quanto esulerebbe dalle finalità di quest’opera. Il quadro normativo, così come quello già realizzato per le banche, Basilea II, può essere scomposto in tre, cosiddetti, pilastri: Figura 1.1.1 Schema a tre pilastri - fonte: sito web di Wolters Kluwer Financial Services 15 1.2 I pilastro - “Minimum financial requirement” Il primo pilastro definisce i requisiti patrimoniali minimi ai quali le compagnie assicurative debbono ottemperare; specifica, inoltre, le metodologie di valutazione degli elementi dello stato patrimoniale. Figura 1.2.1 Elementi ideali dello stato patrimoniale individuati dalla direttiva S. II - fonte EIOPA Di seguito le principali novità introdotte: I. II. le attività a copertura delle riserve tecniche devono essere valutate a valori di mercato, dove in mancanza di questi si può procedere con tecniche mark-to- model 4. Questo nuovo approccio porta un significativo cambiamento nei principi di contabilità tenuti dalla maggior parte delle compagnie assicurative. le riserve tecniche dovranno essere valutate a valori di mercato; non esistendo però un mercato dei passivi, si richiede che il fair value delle riserve rappresenti il valore che la compagnia dovrebbe pagare a terzi per trasferirvi le obbligazioni. Le Quando non è possibile valutare un’attività osservandone il suo valore sul mercato (approccio mark-tomarket) si procede per via analitica o simulativa: concettualmente si ha un modello che accetta valori in input e restituisce il valore ricercato. 4 16 riserve sono suddivise in due parti, la best estimate ed il margine di rischio (risk margin): I. II. la prima rappresenta il valore attuale dei flussi futuri, scontati secondo un tasso privo di rischio, e calcolati in linea con ipotesi best estimate. Questa parte ideale non deve quindi contenere alcun margine prudenziale. Il risk margin viene aggiunto alla b.e. per portare a fair value il valore della riserva. Rappresenta quindi il compenso teorico per il rischio che nel futuro la riserva b.e. non sia adeguata e per il costo del mantenimento del capitale di solvibilità relativo. Il risk margin (RM) è determinato secondo il metodo del “cost of capital”, basato sul costo del mantenimento di capitale a copertura dei rischi non immunizzabili, secondo la formula: 𝑅𝑀 = 𝑟𝑢𝑛−𝑜𝑓𝑓 � 𝑡=1 𝑆𝐶𝑅𝑡 ∙ 𝐶𝑜𝐶 ∙ 𝑣(0, 𝑡 + 1) (1.2.1) Il primo fattore, il SCR t , rappresenta il capitale di solvibilità relativamente al periodo di run-off del portafoglio, da detenere alla fine del t-simo anno; Il SCR t viene moltiplicato per il tasso del costo del capitale 5 (CoC), rappresentante il costo per ottenere il capitale in eccesso al tasso risk-free 𝑣(0, 𝑡 + 1), o in alternativa il costo frizionale per bloccare i capitali in investimenti privi di rischio piuttosto che investirli in rendimenti più vantaggiosi. Il prodotto tra il tasso del costo del capitale ed il requisito di capitale per ogni punto di proiezione futuro è quindi scontato utilizzando il tasso risk free ottenendo il risk margin complessivo. La proiezione dei capitali è potenzialmente complessa, sono quindi consentiti diversi approcci semplificativi. È possibile, ad esempio, considerare un driver, come la riserva o somma sotto rischio, che abbia approssimativamente una relazione lineare con il risk margin o una delle sue componenti. Nella pratica vengono utilizzate metodologie più complesse che coinvolgono più driver e tengono conto delle correlazioni tra di essi. 5 Secondo la direttiva tale tasso ammonta attualmente al 6% 17 III. Il capitale proprio, dato dalla differenza tra il valore degli attivi e quello dei passivi, viene suddiviso in capitale in eccesso (excess capital) e capitale di solvibilità; quest’ultimo è composto da due parti ideali, SCR ed MCR. 1.2.1 Il Minimum Capital Requirement Rappresenta il livello di capitale sotto il quale la compagnia è giudicata essere in grave pericolo di fallimento. Il MCR è calibrato ad un livello di confidenza del 85% con una misura di tipo VaR (Value-at-Risk) ad un anno, con limiti inferiori e superiori rispetto al SCR del 25% e 45% rispettivamente. Viene inoltre fissato un valore minimo assoluto differenziato per tipologia d’impresa (danni, vita, captive o riassicuratore professionale), compreso tra € 2,2 milioni per le compagnie danni e € 5,4 milioni per le multiramo danni e vita. 1.2.2 Il Solvency Capital Requirement Detto anche target capital, è la prima soglia di attenzione per quanto concerne il livello di solvibilità della compagnia. A prescindere dalla metodologia adottata, la direttiva richiede che il SCR rappresenti l’accantonamento di capitale necessario per far fronte agli impegni che possono emergere nell’arco temporale di un anno, con una probabilità minima del 99.5%; deve, perciò, garantire che l’insolvenza della compagnia si possa verificare al più una volta ogni duecento anni. Il requisito così formulato trova la sua traduzione matematica nella misura di rischio VaR al 99.5% della variazione del capitale proprio su un intervallo annuale. Tale variazione deve essere causata dai rischi assunti dall’assicuratore, identificati in accordo con lo standard model da: rischi derivanti dalla sottoscrizione di contratti assicurativi del ramo danni, vita, salute, rischio di mercato, rischi di default delle controparti e rischio operativo; questi sono suddivisi a loro volta in sotto rischi. La mappatura dei rischi proposta dalla direttiva è solitamente rappresentata attraverso lo schema gerarchico modulare: 18 Figura 1.2.2 Schema dei moduli di rischio della standard formula – fonte: Commissione Europea - QIS5 Tecnical Specifications Il SCR per ogni rischio individuale 6 è determinato come differenza tra il capitale netto 7 del bilancio ante-stress e quello in cui lo stress è presente. La calibrazione e applicazione di ogni stress è specificata all’interno della standard formula. Gli stress sono determinati da formule analitiche che descriverebbero l’impatto di un rischio sul bilancio, a titolo di esempio, -25% di stress al valore delle proprietà della compagnia, aumento immediato e permanente del 15% nel tasso di mortalità. I rischi individuali sono quindi combinati assieme all’interno del relativo modulo utilizzando una specifica matrice di correlazioni. I caricamenti di capitale per ogni modulo vengono quindi aggregati assieme attraverso un’altra matrice di correlazioni che fornisce il Basic SCR (BSCR): 𝐵𝑆𝐶𝑅 = �� 𝐶𝑜𝑟𝑟𝑖𝑗 × 𝑆𝐶𝑅𝑖 × 𝑆𝐶𝑅𝑗 + 𝑆𝐶𝑅𝑖𝑛𝑡𝑎𝑛𝑔𝑖𝑏𝑙𝑒𝑠 𝑖𝑗 (1.2.2) dove: 6 Il contributo al SCR di ciascun rischio è detto anche caricamento di capitale per il rischio x oppure capital charge. 7 Detto anche net asset value - NAV. 19 SCR i , SCR j = {SCR mkt ; SCR def ; SCR life ; SCR nl ; SCR health } corrispondono rispettivamente ai moduli per il rischio di mercato, di default della controparte, di sottoscrizione contratti vita, di sottoscrizione contratti danni, di sottoscrizione contratti sulla salute; dai beni immateriali. SCR intangibles è il requisito patrimoniale per il modulo relativo al rischio derivante Corr ij = indice di correlazione tra l’i-simo ed il j-simo modulo; tale valore è presente nella matrice di correlazioni Corr: Mercato Default Vita Salute Danni Mercato Default 1 0.25 0.25 0.25 0.25 1 0.25 0.25 0.5 Vita 1 0.25 0 Salute Danni 1 0 1 Al BSCR si sommano due aggiustamenti: il primo – SCR op – per tenere conto del rischio operativo e il secondo – Adj – per la capacità di assorbimento delle perdite delle riserve tecniche 8 e delle tasse differite 9. Da notare che il caricamento di capitale per il rischio operativo è aggiunto al BSCR senza tenere in considerazione eventuali correlazioni ed effetti di diversificazione con gli altri rischi. SCR = BSCR + Adj + SCR op (1.2.3) I due requisiti patrimoniali di solvibilità sono necessari anche per decretare il livello d’intervento da parte dell’istituto di vigilanza: diverse azioni vengono intraprese al non soddisfacimento del requisito posto dal SCR, quando invece la mancanza di capitali per raggiungere il livello fissato dal MCR comporta azioni che portano anche alla revoca dell’esercizio di assicurazione. 1.2.3 Le origini del VaR Il VaR trova le sue origini attorno alla seconda metà degli anni ’80. L’evento scatenante la letteratura a riguardo è stato il crollo del mercato del 1987 (conosciuto anche come Black Monday). I modelli statistici dell’epoca non contemplavano il verificarsi di un evento simile, diventando così molto discutibili in relazione alla loro affidabilità. Gli analisti, riconsiderando le serie storiche, hanno deciso che esistevano delle crisi ricorrenti che non Ad esempio riducendo i benefits discrezionali sotto condizioni di stress. In condizioni sfavorevoli le tasse differite potrebbero diminuire in quanto relative a profitti che non si sono realizzati 8 9 20 venivano colte dai modelli statistici dell’epoca. Tali modelli sono riferiti soprattutto a quelli sottostanti il mercato azionario, investment management e tariffazione dei derivati. Queste crisi hanno colpito allo stesso tempo più mercati, includendo anche quelli che usualmente non sono correlati; inoltre, non erano causate da dinamiche economiche prevedibili (sebbene la spiegazioni post-crisi risultassero copiose). Più tardi, tali eventi vennero chiamati Black Swans da Nassim Taleb ed il concetto esteso ben oltre il settore finanziario. Il VaR fu sviluppato come strumento per studiare ed ambire a prevedere tali eventi estremi. Si sperava che i cigni neri sarebbero stati preceduti da un aumento della stima del VaR: la dimostrazione di tale dinamica resta controversa. Si procede ora definendo il VaR nel suo contesto finanziario ed adattandolo poi agli scopi della direttiva. Fissata una probabilità α, il Value-at-Risk a livello α è definito come l’importo VaR α tale che: �(Δt, Δ𝑥�) > −𝑉𝑎𝑅𝛼 � = 1 − 𝛼 𝑃𝑟𝑜𝑏�ΔP (1.2.4) �(Δt, Δ𝑥�) è la variazione nel valore di mercato di un portafoglio finanziario, dove ΔP espressa come funzione dell’orizzonte di previsione Δt e del vettore dei cambiamenti nelle variabili di stato (aleatorie) Δ𝑥�. L’interpretazione da dare è quindi che, dato un intervallo temporale, il valore del portafoglio finanziario non diminuirà più di VaR α . L’orizzonte temporale Δt nel contesto della direttiva diventa uguale ad un anno. � = ΔP �(Δt, Δ𝑥�) è un operazione che risulta complessa oggi, si Stimare la distribuzione di ΔP pensi quindi a quanto lo era negli anni ’80, considerando la potenza computazionale a disposizione. Grazie a questo fatto furono sviluppati diversi modelli di approssimazione del VaR. Uno di questi, il modello “Delta-Normal” di Garbade (1986), è stato accolto dalla direttiva costituendo così le basi dello standard model. Quest’ultimo ha ereditato anche i limiti del modello D-N, i quali, come si vedrà in seguito, si trovano soprattutto nelle assunzioni. 1.2.4 Il modello Delta-Normal di Garbade (1986) In questo modello, la funzione che rappresenta le variazioni del portafoglio è approssimata dal delta 10 dello stesso mentre le variazioni delle variabili di stato sono Il delta di un titolo azionario è la derivata prima rispetto alla variabile di stato. Nel contesto di un portafoglio finanziario, dove ci possono essere più variabili di stato, il delta è riferito al vettore delle derivate prime del valore del portafoglio rispetto al vettore delle variabili di stato. Sempre nel contesto del portafoglio finanziario, 10 21 � viene modellate attraverso una distribuzione normale multivariata. Sotto tali ipotesi, ΔP approssimato da una distribuzione normale univariata ed il VaR esplicitato ed approssimato grazie ad alcune proprietà della normale. Quest’assunzione è la più pesante in assoluto quando il modello viene applicato per calcolare il requisito di capitale nelle assicurazioni vita: si vedrà che le dinamiche di un portafoglio di polizze sulla vita, a causa della presenza di opzioni, non sono lineari e quindi non rappresentabili da un modello sottostante alla legge normale. Inoltre, in tal contesto, le code della distribuzione della variazione del valore del portafoglio, sono più pesanti di quelle della normale, causando così una sottostima del VaR e quindi del requisito di solvibilità. Viene ora introdotto il modello di Garbade: Ipotesi (a) sulle variabili di stato: la sequenza dei rendimenti considerati dal vettore delle � sull’orizzonte temporale Δt, definita con r, ha distribuzione congiunta variabili di stato 𝒙 normale di media zero 11 e matrice di varianze-covarianze costante Σ : dove: 𝒓 ~ 𝑁𝑁 (𝟎, Σ) (1.2.5) 𝒓 = (𝒓1 , … , 𝒓𝑖 , … , 𝒓𝑁 )′ (1.2.6) 𝒓𝑖 = (𝑟𝑖1 , 𝑟𝑖2 , … , 𝑟𝑖𝑡 , … , 𝑟𝑖𝑇 ), 𝑖 = 1, … , 𝑁 𝑟𝑖𝑡 = (1.2.7) 𝑥𝑖,𝑡+Δ𝑡 − 𝑥𝑖𝑡 𝑥𝑖𝑡 (1.2.8) �): essa è una volta derivabile rispetto a ciascun argomento. Ipotesi (b) sulla funzione 𝑃(𝑡, 𝒙 Le sue derivate prime saranno lo scalare 𝑃𝑡 = � �) 𝜕𝑃(𝑡,𝒙 �) 𝜕𝑃(𝑡,𝒙 𝜕𝑥1 , 𝜕𝑥2 ,…, �) ′ 𝜕𝑃(𝑡,𝒙 𝜕𝑥𝑛 𝜕𝑃(𝑡,𝑥�) 𝜕𝑡 ed il gradiente n x 1 𝒈 = � . Derivate superiori al primo ordine sono ipotizzate nulle. Via polinomio di Taylor, 𝑃(𝑡, 𝑥�) può essere approssimato in un intorno di (t 0 ,x 0 ) come: �) = 𝑃(𝑡0 , 𝒙 �𝟎 ) + 𝑃𝑡 (𝑡 − 𝑡0 ) + 𝒈′ [𝒙 � − 𝒙𝟎 ] + 𝑅2 𝑃(𝑡, 𝒙 ′ �𝟎 ) + 𝑃𝑡 (Δ𝑡) + 𝒈 𝚫𝒙 � + 𝑅2 = 𝑃(𝑡0 , 𝒙 (1.2.9) � = (𝒙 � − 𝒙𝟎 ) è il vettore dove 𝑃(𝑡0 , 𝑥�0 ) è il valore di mercato del portafoglio finanziario, 𝚫𝒙 delle variazioni delle variabili di stato (aleatorie), Δ𝑡 = 𝑡 − 𝑡0 è l’orizzonte di previsione, ed 𝑅2 è l’errore di approssimazione nel non tener conto delle derivate di ordine superiore il gamma di un portafoglio è la matrice di derivate seconde rispetto al vettore delle variabili di stato, detta anche Hessiano. 11 Ipotesi che accoglie l’assenza di opportunità di arbitraggio. 22 a due; per l’ipotesi (b) 𝑅2 = 0. Le variazioni nel valore del portafoglio possono essere quindi approssimate via: �) = 𝑃(𝑡, 𝑥�) − 𝑃(𝑡0 , 𝒙 �𝟎 ) = 𝑃𝑡 (Δ𝑡) + 𝒈′ 𝚫𝒙 � Δ𝑃�1 = Δ𝑃(Δ𝑡, 𝚫𝒙 (1.2.10) Proposizione 0 sulle combinazioni e trasformazioni lineari di variabili aleatorie aventi distribuzione normale. Se 𝑊~ 𝑁𝑛 (𝝁, Σ) e 𝑌 = 𝐶𝑊 + 𝒃, dove C è una qualunque matrice reale m x n e b è un qualunque vettore reale m x 1, allora (1.2.11) Y ~ 𝑁𝑚 (𝐶𝜇 + 𝒃, 𝐶Σ𝐶′) Proposizione 1 Δ𝑃�1 ~𝑁(𝑃𝑡 Δ𝑡, 𝒈′ ∑𝒈) � si ha per (a): Dimostrazione dato Δ𝑃�1 = 𝑃𝑡 (Δ𝑡) + 𝒈′ 𝚫𝒙 �] = 𝑃𝑡 (Δ𝑡) E[𝑃𝑡 (Δ𝑡) + 𝒈′ 𝚫𝒙 �] = 𝒈′ Σ𝒈 𝑉𝑎𝑟[𝑃𝑡 (Δ𝑡) + 𝒈′ 𝚫𝒙 (1.2.12) La varianza non include termini in Δt in quanto il tempo non è stocastico. Δ𝑃�1 ha allora distribuzione normale per la proposizione 0. Sostituendo alla definizione del VaR l’approssimazione del primo ordine ed i risultati ottenuti dalla proposizione 1 si ha: �(Δt, Δ𝑥�) > −𝑉𝑎𝑅𝛼 � = 1 − 𝛼 𝑃𝑟𝑜𝑏�ΔP 𝑃𝑟𝑜𝑏 � Δ𝑃�1 − 𝑃𝑡 (Δ𝑡) �𝒈′𝛴𝒈 𝑃𝑟𝑜𝑏 �𝑍� > > −𝑉𝑎𝑅𝛼 − 𝑃𝑡 (Δ𝑡) �𝒈′𝛴𝒈 −𝑉𝑎𝑅𝛼 − 𝑃𝑡 (Δ𝑡) �𝒈′𝛴𝒈 Dove 𝑍� è una v.a. normale standard. Allora: 𝑍(𝛼) = �= 1−𝛼 (1.2.13) �= 1−𝛼 −𝑉𝑎𝑅𝛼 − 𝑃𝑡 (Δ𝑡) �𝒈′ 𝑃𝑡 (Δ𝑡)𝒈 (1.2.14) 𝑉𝑎𝑅(𝛼) = −𝑃𝑡 (Δ𝑡) − 𝑍(𝛼) �𝒈′𝛴𝒈 Dove Z (α) è il 100(α)-simo percentile di una distribuzione normale standard. 23 È facile vedere che la standard formula ha origine proprio da questo modello. Siano i �. Allora 𝑃(𝑡, 𝒙 �) può rappresentare il valore del fattori di rischio le variabili di stato 𝒙 capitale netto in funzione dei rischi mappati. Per definizione di SCR, si ricerca il VaR al 99.5% su un orizzonte temporale di un anno, allora la variabile t assume valore costante e �)12 rispetto a t, 𝑃𝑡 (Δ𝑡), è quindi uguale a 0 ed il gradiente n pari a 1. La derivata prima 𝑃(𝑡, 𝒙 P x 1 𝒈=� 𝜕𝑃(𝑡,𝑥�) 𝜕𝑃(𝑡,𝑥�) 𝜕𝑥1 , 𝜕𝑥2 ,…, 𝜕𝑃(𝑡,𝑥�) ′ 𝜕𝑥𝑛 � rappresenta le variazioni del capitale netto su un intervallo annuale dovute ai diversi fattori di rischio. Tenendo a mente che il SCR totale rappresenta un valore negativo per la compagnia, si ottiene: (1.2.15) 𝑆𝐶𝑅 = 𝑍(99.5) �𝒈′𝛴𝒈 La matrice Σ può essere ottenuta come prodotto tra R ed S che sono, rispettivamente, la matrice delle correlazioni e la matrice diagonale delle deviazioni standard: 1 𝑅= � ⋮ 𝜌𝑛1 ⋯ ⋱ ⋯ 𝜌1𝑛 𝜎1 ⋮ � 𝑒 𝑆=�⋮ 1 0 ⋯ ⋱ ⋯ 0 ⋮� 𝜎2 Allora Σ = SRS. Si osservi che S = S’ in quanto diagonale. Si ottiene quindi: 𝑆𝐶𝑅𝑇𝑂𝑇 = 𝑍(99.5) �𝒈′𝑆𝑅𝑆𝒈 𝑆𝐶𝑅𝑇𝑂𝑇 = �𝒈′𝑆𝑍(99.5) 𝑅𝑍(99.5) 𝑆𝒈 = �𝒗′𝑅𝒗 (1.2.16) (1.2.17) Dove 𝒗 = 𝒈′𝑆𝑍(99.5) rappresenta proprio i caricamenti di capitale per ciascun rischio ad un intervallo di confidenza del 99.5%. Infatti in ipotesi di normalità per �) 𝜕𝑃(𝒙 𝜕𝑥𝑖 ,la variazione del capitale netto dovuta al rischio i-simo, il suo valore al 99.5-simo percentile può essere approssimato da 𝑍(99.5) ∙ 𝜎𝑖 . Utilizzando la codifica della direttiva, dove 𝒗 = 𝑺𝑪𝑹, inteso come vettore dei caricamenti di capitale per ciascun rischio e R = Corr, passando dalla notazione matriciale a quella attraverso sommatorie: 𝑆𝐶𝑅𝑇𝑂𝑇 = �� 𝐶𝑜𝑟𝑟𝑖𝑗 × 𝑆𝐶𝑅𝑖 × 𝑆𝐶𝑅𝑗 𝑖𝑗 (1.2.18) si ritorna proprio alla standard formula. Ricapitolando, le ipotesi forti sottostanti al modello sono: 12 �) Da ora in poi identificata con 𝑃(𝒙 24 1. il valore del capitale netto in funzione dei rischi mappati è una funzione lineare, in quanto s’ipotizzano nulle le derivate di ordine maggiore a uno; 2. i rischi hanno distribuzione congiunta normale; 3. accogliendo l’approssimazione della variazione del capitale netto dovuta al rischio i-simo al 99.5-simo percentile attraverso 𝑍(99.5) ∙ 𝜎𝑖 , si accoglie l’ipotesi di normalità marginale dei rischi. La standard formula fornisce un valore plausibile del SCR solamente se: a) l’apporto, in termini di caricamento di capitale, delle dinamiche non lineari dei fattori di rischio sulla variazione del capitale netto è minimo 13; b) l’errore accolto nell’approssimare alla normale la distribuzione della variazione del capitale netto in funzione dei rischi, anche in termini marginali, è minima 14. 1.2.5 I limiti della standard formula: contesti nell’industria assicurativa in cui la sua applicazione è inadeguata Si è dimostrato nel capitolo precedente che il modello statistico sottostante alla standard formula ha alla base ipotesi che potrebbero risultare forti. È opportuno verificare se queste limitazioni siano effettive nel contesto assicurativo: seguono considerazioni a riguardo. Relativamente alle attività di una compagnia assicurativa è lecito affermare che, tra i rischi cui queste sono soggette, quello di mercato ha un peso rilevante. In (Kousaris, Calculating the Solvency Capital Requirement, 2011) si riporta un’analisi del comportamento congiunto di due titoli azionari. L’analisi consiste nel simulare i rendimenti congiunti secondo: a) ipotesi di normalità marginale e dipendenza di tipo lineare (di Pearson), in linea con la standard formula; b) assenza d’ipotesi distributive e dipendenza di tipo non-lineare. Bisognerebbe comunque essere capaci di misurare il fenomeno per decretare se il suo apporto è effettivamente minimo. 14 Stesse osservazioni del punto precedente. 13 25 Entrambi gli esperimenti sono stati calibrati in maniera tale da avere lo stesso coefficiente di correlazione e la stessa deviazione standard. Si riportano le determinazioni simulate delle distribuzioni congiunte degli eccessi di log-rendimento 15. Figura 1.2.3 Determinazioni simulate delle distribuzioni congiunte degli eccessi di log-rendimento. Fonte: (Kousaris, Calculating the Solvency Capital Requirement, 2011) La nuvola di punti a destra, che riporta l’esperimento secondo le ipotesi (b), descrive una distribuzione con una coda molto più pesante rispetto al grafico di sinistra (ipotesi (a)). È evidente che quando si calcola il VaR relativo al rischio di mercato attraverso la standard formula e quindi accogliendo le ipotesi (a), si rischia di produrre una stima distante dalla realtà. Si potrebbe asserire che una possibile soluzione consisterebbe nel migliorare il modello normale multivariato sfruttando i risultati ottenuti dal modello più complesso: si aggiusta ad esempio la deviazione standard e la correlazione. È evidente, però, che questa metodologia possa risultare poco affidabile in contesti di mercato variabili, che richiederebbero (di volta in volta) un aggiustamento variabile anch’esso. Relativamente alle passività di una compagnia assicurativa, quindi delle riserve tecniche, si costata che queste hanno un forte comportamento non lineare in alcune situazioni. Le opzioni presenti in alcune polizze sulla vita, come ad esempio il rendimento minimo garantito, seguono dinamiche associabili a quella di un’opzione put. Per semplicità di esposizione si analizzerà il comportamento di tale opzione, rispecchiando comunque in modo fedele la potenziale analisi di una polizza e quindi della riserva associata. Per eccesso di log-rendimento si intende il log-rendimento in eccesso rispetto ad un titolo di riferimento, solitamente risk-free. 15 26 Figura 1.2.4 Valore di un’opzione put al variare del valore del titolo sottostante e del tasso risk-free – fonte (Kousaris, Calculating the Solvency Capital Requirement, 2011) Si osserva quindi che il valore dell’opzione put presente tra le passività della compagnia non segue un andamento lineare al variare del valore del sottostante e dei tassi d’interesse. Le passività presentano quindi una non-linearità congiunta. Il grafico sottostante mostra il comportamento dell’opzione put al variare di entrambe le variabili: Figura 1.2.5 Valore di un’opzione put al variare congiunto del valore del titolo e del tasso risk-free – fonte (Kousaris, Calculating the Solvency Capital Requirement, 2011) Se si volesse rientrare nelle ipotesi della standard formula, si dovrebbe approssimare tale funzione attraverso una lineare. In tal caso, si preferirebbe approssimare al meglio i valori al 99.5-simo percentile di ciascuno dei due fattori di rischio, piuttosto che i valori medi. Si ottiene un piano per il quale la vera funzione è tangente. 27 Figura 1.2.6 Approssimazione della 1.2.4 attraverso una funzione lineare – fonte (Kousaris, Calculating the Solvency Capital Requirement, 2011) Per costruzione, tale approssimazione risulta corretta solo in alcuni punti e, in generale, tende a sottostimare i valori quando le passività vengono generate da dinamiche non lineari. Figura 1.2.7 Errore commesso nell'approssimare il valore dell'opzione put , al variare dei due fattori di rischio, attraverso una funzione lineare, espresso in termini percentuali – fonte (Kousaris, Calculating the Solvency Capital Requirement, 2011) Nella figura sopra, si può vedere come l’errore dell’approssimazione è potenzialmente maggiore del valore inziale dell’opzione put stessa. Il metodo risulta corretto per un’area che si trova nel centro ma – a parte fortunate coincidenze – tale area non corrisponde a quella in cui richiediamo alla funzione di essere corretta. 28 1.2.6 Uno studio su trenta compagnie di assicurazione Si conclude questa serie di considerazioni citando i risultati di uno studio ottenuti da (Cardi G. & Rusnak, 2007). Grazie alla collaborazione di diverse compagnie vita e danni è stato calcolato il requisito di solvibilità attraverso un modello delta-normal e uno delta- gamma. Il modello delta-gamma è del tutto simile al delta-normal di Garbade, ad esclusione dell’ipotesi (a). Qui, infatti, sono considerate nulle le derivate di ordine superiore a due. La ricerca ha portato a concludere che l’approccio delta-normal sottostima in maniera significativa il capitale di solvibilità per le compagnia operanti nel ramo vita, fornisce però delle stime adeguate per altri tipi di business. Figura 1.2.8 Simulazione della variazione del valore di un portafoglio contenente polizze vita secondo il modello delta-normal (in giallo) e delta-gamma (in blu) – fonte (Cardi G. & Rusnak, 2007) Il grafico in alto mostra la distribuzione empirica della variazione del valore in un portafoglio assicurativo ottenuta con simulazioni MC: la distribuzione gialla proviene da un modello in cui la variazione è funzione lineare dei rischi (modello delta-normal), 29 mentre la distribuzione blu è il risultato del modello delta-gamma. Si può notare la presenza di una coda sinistra molto più pesante per la distribuzione blu (rappresentata nel dettaglio dal secondo grafico). Figura 1.2.9 – Dettaglio della coda sinistra della distribuzione empirica della variazione del portafoglio per quattro compagnie vita (prima riga) e quattro compagnie danni (seconda riga) - fonte (Cardi G. & Rusnak, 2007) Dal grafico sopra riportato si evince che un modello che non cattura gli effetti di non linearità può comunque andare bene per business di tipo danni o malattia, diventa invece molto impreciso, soprattutto sulle code, per quanto concerne il business vita. I risultati riportati in (Cardi G. & Rusnak, 2007) sono da considerarsi preoccupanti considerando che il 30% 16 delle compagnie potrebbe potenzialmente utilizzare lo standard model per il calcolo del requisito patrimoniale. La supervisione da parte degli istituti di vigilanza sarà sempre più stringente con l’entrata in vigore effettiva di Solvency II e certamente questi daranno un importante rilievo su come la compagnia ha gestito il problema delle code e della non linearità. In conclusione, sebbene lo standard model è la soluzione proposta da Solvency II, questo contiene diversi problemi e potrebbe portare a risultati distanti dalla realtà, soprattutto quando le passività sottostanno a fenomeni non lineari come nel caso delle assicurazioni vita. 16Fonte (KPMG, 2010). Visto che si riferisce a studi di mercato del 2010, tale percentuale potrebbe cambiare prima dell’entrata in vigore della direttiva. 30 1.2.7 Il modello interno La soluzione alternativa alla standard formula che può essere adottata da una compagnia di assicurazioni è il modello interno di tipo: 1. totale, se si discosta completamente dalla metodologia di calcolo proposta dalla direttiva; 2. parziale, se sono sostituite singole parti o moduli della standard formula. Il modello interno è una scelta appropria se il profilo di rischio differisce sostanzialmente da quanto individuato dallo standard model e/o si utilizza tale modello per processi decisionali e di gestione del rischio (ad es. tariffazione, strategie d’investimento). La decisione di non utilizzare lo standard model può non solo essere presa dall’assicuratore, ma anche dall’istituto di vigilanza che, se ritiene opportuno, può invitare la compagnia a realizzare un modello interno. Il modello interno deve essere approvato dall’istituto di vigilanza posto a controllo della compagnia, a tal fine deve superare una serie di test: • standard di qualità statistica: il modello deve soddisfare ad un certo numero di standard di qualità minimi relativi ai dati ed alle ipotesi statistiche, incluso la • • previsione della distribuzione probabilistica, l’uso dell’expert judgement, metodologie di aggregazione; standard di calibrazione: riguardano standard che comprovano il fatto che il SCR ottenuto dal modello sia proprio il VaR al 99.5%; assegnazione di profitti e perdite: si richiede di spiegare come la categorizzazione dei rischi del modello sarà utilizzata per spiegare le cause dei profitti e delle • perdite nell’anno di bilancio precedente; standard di validazione: il modello interno deve essere completamente validato dalla compagnia assicurativa e deve essere soggetto ad un regolare ciclo di controllo, compreso la valutazione dei risultati comparata con l’esperienza • • emergente dal passare del tempo; standard di documentazione: il modello interno deve possedere una documentazione dettagliata; use test: la compagnia deve dimostrare che il modello interno è largamente utilizzato in qualsiasi processo rilevante della compagnia e che rivesta un ruolo 31 fondamentale nella governance aziendale, risk management, processi di decisione e processi di allocazione del capitale; Lo use test è l’aspetto considerato più impegnativo al fine di ottenere l’approvazione. La compagnia deve essere capace di dare evidenza di aver accolto la cultura del rischio e di utilizzare ampiamente il modello nei processi aziendali. Anche la qualità dei dati e le ipotesi statistiche possono essere un problema, in alcuni casi i dati storici sono troppo pochi per asserire che i risultati ottenuti da questi siano robusti. Nella pratica è possibile che per la calibrazione del modello si utilizzino anche indici ottenuti da benchmark presenti sul mercato: in tal caso è importante che tali indici siano modellati sulla realtà aziendale, nel senso delle peculiarità presenti nel proprio portafoglio, come ad esempio un eventuale scostamento della volatilità dell’indice con quella presente nel portafoglio aziendale. Vale la pena fare presente che nei test descritti non si fa alcun riferimento ad una struttura da rispettare: non è quindi richiesto che il modello interno segua la logica dello standard model. La direttiva conferisce il potere all’istituto di vigilanza di decidere se approvare o no il modello interno, una volta presentata la domanda, entro un periodo massimo di sei mesi. Considerata la complessità del lavoro e dalla possibile contingenza di personale dell’istituto, tale periodo di tempo può risultare effettivamente molto stretto. Diversi istituti hanno quindi preferito adottare un approccio più informale chiamato pre- application, nel quale s’invitano le compagnie a rendere partecipe l’istituto stesso alla fase di sviluppo del modello. È utile ricordare che l’approvazione finale comunque non potrà essere data prima dell’effettivo recepimento ed entrata in vigore della normativa sulla solvibilità. 32 1.3 II pilastro – “Governance requirements” Il secondo pilastro stabilisce i requisiti riguardanti ruoli e responsabilità all’interno della compagnia, con il consiglio di amministrazione che ha comunque la responsabilità finale sulla Solvency II. Tutte le compagnie di assicurazione devono possedere un reparto di risk management, attuariale, internal audit e di compliance. La struttura aziendale deve essere chiaramente definita nel senso che deve permettere di poter capire i ruoli e le responsabilità all’interno della compagnia: in tal senso, dei livelli minimi sono definiti nel secondo pilastro. 1.3.1 ORSA Oltre al calcolo del MCR e del SCR, il secondo pilastro richiede alle compagnie assicurative di condurre una valutazione denominata ORSA “Own Risk and Solvency Assessment”. L’ORSA è stata definita dall’EIOPA come: “L’insieme di processi e procedure assunte per identificare, valutare, monitorare, gestire e fare il resoconto per quanto concerne i rischi di medio e lungo termine cui l’assicurazione è esposta o lo sarà nel futuro e per determinare i capitali propri necessari ad assicurare di rispettare sempre i requisiti patrimoniali richiesti dalla legge”. Come conseguenza di quanto osservato, le compagnie devono identificare tutti i rischi ai quali saranno soggette e tutti i processi e controlli di gestione del rischio. Questo insieme di rischi può considerarsi nuovo rispetto a quelli contemplati nel primo pilastro in quanto ora si considereranno anche quelli di ‘tipo qualitativo’ come ad esempio il rischio di reputazione. La compagnia deve anche valutare la sua capacità di rispondere ai requisiti patrimoniali di solvibilità durante l’orizzonte temporale considerato nella pianificazione aziendale (solitamente tre o cinque anni), essendo allo stesso tempo capace di gestire nuovi contratti assicurativi. Queste richieste non vengono ottemperate soddisfacendo ad una qualche misura di rischio, bensì valutando qualitativamente o attraverso opportune analisi il risk appetite aziendale e possibili specifiche esigenze quali ad esempio quelle legate ad obiettivi di credit rating. 33 L’ORSA è uno degli elementi considerati dal supervisore al momento di decidere se la compagnia deve allocare ulteriore capitale oltre a quello richiesto ai fini di solvibilità. Le compagnie di assicurazione, inoltre, devono dimostrare all’istituto di vigilanza che l’ORSA è utilizzato dal senior management e che le decisioni strategiche tengono conto degli impatti sull’ORSA stesso. 34 1.4 III pilastro – “requisiti di disclosure e reporting” I requisiti di disclosure sono stati posti con l’obiettivo di migliorare la trasparenza aziendale nei confronti degli stakeholder. I risultati derivanti dai requisiti del primo e secondo pilastro, così come i processi di risk management, ad esempio, devono essere comunicati in via privata all’istituto di vigilanza attraverso il RSR (Regular Supervisory Report), il quale, deve includere sia informazioni qualitative sia i QRT (Quantitative Reporting Templates). La presentazione di questa documentazione ha cadenza annuale. Le informazioni comunicate, inoltre, devono essere basate su solidi princìpi economici al fine di garantire confrontabilità e coerenza nel tempo. Escludendo alcuni elementi che possono essere di natura confidenziale, estratti del QRT e alcune informazioni qualitative devono essere comunicati pubblicamente con il SFCR (Solvency and Financial Condition Report), quest’ultimo prodotto annualmente. 1.5 Impatto sulla cultura aziendale e sulle strategie L’impatto di Solvency II deve permeare ogni livello aziendale includendo il senior management e il consiglio di amministrazione: ciò deve valere non solo per quelle compagnie che hanno adottato il modello interno. Il quadro normativo non è focalizzato esclusivamente su questioni di reporting, ma anche sulla gestione del rischio, sull’allocazione del capitale, sulle attività di mitigazione del rischio e sulle performance del management. La nuova direttiva potrebbe inoltre avere un impatto sul product mix ottimale così come sul product design. Altri impatti sono da considerarsi sulla composizione degli investimenti, alcuni tipi di attivo potrebbero ora risultare più attraenti. La presente o mancata disponibilità dei benefici derivanti dalla diversificazione del rischio può avere effetti sulle strutture societarie inducendo fusioni e acquisizioni. Le informazioni del management probabilmente cambieranno per allinearsi con le nuove metriche e con i nuovi processi decisionali. Infine, le comunicazioni con l’esterno cambieranno: verrà fornita una mole d’informazioni maggiore con un potenzialmente impatto sui mercati. 35 2 Modelli alternativi per il calcolo del requisito patrimoniale di solvibilità Come si è appurato nel capitolo precedente ci sono casi in cui il passaggio ad un modello interno è quasi d’obbligo. In tal contesto l’industria assicurativa, assieme a società di consulenza e al mondo accademico hanno prodotto diverse soluzioni per il calcolo del SCR. Nel § 2.1 si propone l’impostazione fornita da (Bauer, Bergmann, & Reuss, 2010) per il calcolo del SCR in via analitica. Si procede quindi al § 2~, dove sarà descritta brevemente la tecnica dei portafogli replicanti, come valida alternativa analitica per il calcolo del requisito di capitale. Concluso lo spazio dedicato agli approcci analitici, dal § 2.3 saranno forniti i concetti fondamentali sottostanti al metodo delle simulazioni stocastiche per il calcolo del SCR. Si è preferito mantenere un profilo discorsivo nell’esposizione di questo capitolo, nell’intento di fornire un quadro espositivo per il modello stocastico oggetto di studio della tesi, il Least-Squares Monte Carlo, trattato nel dettaglio nel capitolo successivo. Si descriverà quindi il modello delle simulazioni stocastiche annidate e dei problemi di carattere computazionale di cui questo soffre. Si accennerà alle possibili tecniche di riduzione dello sforzo computazionale, descrivendo quindi quelle più raffinate come il curve-fitting, di cui il LSMC è un evoluzione. 36 2.1 Una generalizzazione del calcolo del SCR secondo la direttiva In (Bauer, Bergmann, & Reuss, 2010) si propone un’impostazione dalle ipotesi più deboli, per il calcolo del SCR. Prima del passaggio a tecniche più complesse, sarebbe opportuno considerare questa proposta. Sia OF t il capitale disponibile in t, 𝒾 un tasso d’interesse risk-free, ℒ ∶= 𝑂𝐹0 − 𝑂𝐹1 1+𝒾 , la perdita aggregata aleatoria (one-year loss function). Il 99.5-simo percentile di ℒ è il VaR richiesto dalla direttiva. Si supponga ora che la ℒ possa essere rappresentata come una funzione ℊ continua, strettamente monotona e non decrescente sui sottostanti d fattori di rischio (Y 1 , … , Y d ): ℒ = ℊ(Y 1 , … , Y d ). Si assuma di conoscere la distribuzione congiunta F di (Y 1 , … , Y d ), la quale può essere anche rappresentata, secondo il teorema di Sklar 17, attraverso le marginali 𝐹𝑌𝑖 (∙), 1 ≤ i ≤ d , e la corrispondente funziona copula C: [0,1]d → [0,1]. Quindi: 𝑆𝐶𝑅 = 𝑖𝑛𝑓�𝑥|𝑃�𝑔(𝑌1,…, 𝑌𝑑 ) ≤ 𝑥� ≥ 𝛼� (2.1.1) 𝑚𝑖𝑛�ℊ(𝑦1,…, 𝑦𝑑 ) �𝐹(𝑦1,…, 𝑦𝑑 ) ≥ 𝛼� ≥ 𝑆𝐶𝑅 (2.1.2) Di conseguenza si ottiene la relazione: Infatti se (Y 1 , … , Y d ) ≤ (y 1 , …, y d ) allora ℊ (Y 1 , … , Y d ) ≤ ℊ(y 1 , …, y d ) in quanto ℊ non decrescente per ipotesi. Allora da 𝐹�𝑦1,…, 𝑦𝑑 � = 𝑃� 𝑌1 ≤ 𝑦1,…, 𝑌𝑑 ≤ 𝑦𝑑 � ≤ 𝑃 �𝑔 �𝑌1,…, 𝑌𝑑 � ≤ 𝑔�𝑦1,…, 𝑦𝑑 �� segue che miny1 ,…,yd :F�y1,…, yd �≥α P �g �Y1,..., Yd � ≤ g�y1,…, yd �� ≥ α . Considerato che P{g(Y1 , … , Yd ) ≤ ∙ } è crescente, min �g�y1,…, yd �� ≥ inf�x�𝒫�g�Y1,…, Yd � ≤ x� ≥ α� = SCR. y1 ,…,yd :F(y1 ,…,yd )≥α Da notare che nel caso in cui le componenti sono tutte strettamente crescenti, la distribuzione è continua per la monotonicità di ℊ, e quindi risulta: 𝑚𝑖𝑛�𝑔(𝑦1,…, 𝑦𝑑 ) �𝐹(𝑦1,…, 𝑦𝑑 ) = 𝛼� ≥ 𝑆𝐶𝑅 (2.1.3) Alternativamente, date le marginali, il risk manager può definire una struttura di dipendenza scegliendo la funzione copula appropriata. 17 37 Se l’insieme {(y 1 ,…,y d )|F(y 1 ,…,y d ) = α} è facilmente identificabile – ad esempio se i fattori di rischio sono normalmente distribuiti – la disuguaglianza (2.1.3) può portare ad un’approssimazione pragmatica e conservativa del SCR; è da tenere in considerazione che l’approssimazione potrebbe non essere così buona. 2.2 Portafogli replicanti Per completezza di esposizione, si propone una valida alternativa all’approccio delle simulazioni stocastiche per la valutazione del SCR. Saranno forniti sinteticamente i concetti sottostanti a tale tecnica, senza avere la pretesa di fornire un punto di riferimento metodologico. Si mostrerà che per quanto riguarda il business vita, questa tecnica risulta limitata. 2.2.1 Portafogli replicanti per il calcolo del requisito patrimoniale di solvibilità L’ipotesi fondamentale di questo modello risiede nell’assenza di opportunità di arbitraggio nel mercato. In forza di questa ipotesi, attività che producono lo stesso cash flow devono avere lo stesso prezzo, la cosiddetta legge del prezzo unico. Se si trovasse un portafoglio di titoli che replichi i flussi prodotti dalle passività della compagnia in maniera sufficientemente precisa, in ogni stato del mondo, allora si potrebbe utilizzare il suo prezzo per stimare il valore delle passività. In questo contesto, il calcolo del requisito patrimoniale di solvibilità diventerebbe una semplice operazione di valutazione di un portafoglio di titoli, sotto diversi scenari che descrivono realisticamente lo stato dell’economia: si eviterebbe il problema delle simulazioni fully nested. Per fissare le idee è utile rifarsi all’albero binomiale. Tale strumento è spesso utilizzato nelle operazioni di pricing dei derivati. È simile alla valutazione basata su metodi Monte Carlo ma al posto di proiettare un numero casuale di traiettorie, queste sono fissate. 38 Figura 2.2.1 Comparazione tra le traiettorie generate da una simulazione MC e l'albero binomiale, entrambi descriventi il prezzo di un titolo al variare del tempo 18 2.2.2 Un esempio pratico Si supponga di vendere un’opzione put a 4 anni su un titolo sottostante S con strike 1,1. Il payoff può essere rappresentato come: Figura 2.2.2 Payoff di un'opzione put All’epoca 4 si può tracciare un grafico del valore del sottostante contro il valore dell’opzione. Tutte le rappresentazioni grafiche di questo capitolo, relative ai portafogli replicanti, sono tratte dal (Koursaris, 2011) 18 39 Figura 2.2.3 - Payoff dell'opzione put contro il prezzo del titolo La connessione col problema di valutazione del SCR sta proprio in questo grafico: l’opzione put è il valore della passività quando gli scenari real world sono identificati dal valore del sottostante. Ogni nodo all’epoca 3 può produrre due stati all’epoca 4. Si può seguire una semplice formula per calcolare l’ammontare dei titoli e denaro necessari ad ogni stato dell’epoca 3 per replicare esattamente i possibili payoff all’epoca 4. Il problema, per un segmento dell’albero è mostrato sotto: Figura 2.2.4 - Processo di replicazione dinamica Si segue quindi un procedimento backward per ottenere il risultato all’epoca 0. La quantità di titoli e denaro posseduti all’epoca 0 è quindi il valore del portafoglio replicante. Sotto opportune ipotesi è possibile replicare in questa maniera molti tipi di cash flow. Tale 40 metodo è chiamato strategia dinamica perché le quantità detenute nel portafoglio variano basandosi sullo stato del mondo. Contestualizzando il modello al problema della valutazione delle riserve tecniche, non è possibile cambiare le quantità detenute in funzione dello stato del mondo, è più plausibile che queste siano detenute sino alla scadenza delle singole polizze. In questo caso si considera la strategia statica, che non è altro che quella di mantenere i titoli nel portafoglio fino a quando questi non maturano un payoff positivo oppure vengono venduti a date predeterminate. Utilizzando lo stesso esempio di prima, si assuma che si deve detenere il portafoglio per tutti e quattro gli anni senza apportare variazioni. È ancora possibile trovare il portafoglio replicante ma non sarà più possibile replicare esattamente i cash flow. Se s’identifica il migliore portafoglio come quello che minimizza le differenze al quadrato dei cash flow questo è individuando detenendo 0.83 unità di denaro e -0.65 di titoli. I payoffs nei cinque possibile nodi sono mostrati nel grafico sottostante: Figura 2.2.5 - Replicazione statica con il titolo sottostante Ci sono alcune osservazioni interessanti da fare sul grafico. Anche se l’indice di correlazione R2 è pari al 90% il portafoglio replicante non fornisce una buona approssimazione nei casi estremi – quindi può sottostimare il rischio. Inoltre, il costo per acquistare la strategia statica è 0.18 contro 0.14 di quella dinamica (differenza del 25%). 41 Si può provare a cercare di ottenere la migliore approssimazione solo in alcuni scenari, ad esempio in quelli dove il payoff è positivo, questo però potrebbe pesare sulla qualità dell’approssimazione in generale. Con questo esempio si riescono a dimostrare diversi punti importanti: - utilizzare un insieme ristretto di titoli può non essere sufficiente a replicare alcune passività staticamente; il modo in cui si decide di fare l’approssimazione è importante differenze nei cash flow possono portare a importanti differenze nel valore della passività e del portafoglio replicante. Si procederà ora allentando le ipotesi restrittive sui titoli e il tipo dei cash flow che si vuole replicare. 2.2.3 Strategia statica con payoff complessi e strumenti Si supponga di voler replicare in maniera statica un payoff particolarmente complesso, ad esempio come quello rappresentato dal grafico sotto: Figura 2.2.6 - Profilo di un flusso di passività particolarmente complesso 42 È possibile farlo utilizzando un insieme di opzioni put / call con strike differenti. Utilizzando un opzione call con strike 1.2 e put con strike 1.1 nelle corrette proporzioni si ottiene quanto segue: Figura 2.2.7 - Approssimazione con due opzioni All’aumentare del numero di opzioni si riesce a catturare in maniera più precisa il flusso originale. Il profilo del portafoglio replicante finale è mostrato di seguito: Figura 2.2.8 - Approssimazione attraverso sei opzioni Utilizzando il giusto numero di opzioni è possibile replicare qualunque cash flow: quanto detto è intuitivamente ragionevole – si afferma infatti che si può replicare una qualunque 43 funzione con una lineare discontinua. È certamente possibile utilizzare opzioni più complesse delle put e call ma queste hanno l’indubbio vantaggio di essere facilmente valutabili. Se si costruisce il portafoglio replicante con questi titoli ed opzioni è possibile valutarlo utilizzando i dati di mercato; se invece utilizzassimo opzioni più complesse si potrebbe avere difficoltà a trovare un riscontro immediato. Da quest’analisi emergono alcune importanti considerazioni: - Per quanto riguarda le passività dipendenti dagli stati dell’economia, con un singolo rischio sottostante, è possibile replicarle esattamente utilizzando - appropriate funzioni e titoli; una soluzione più elegante utilizza funzioni che hanno un andamento simile ai - flussi della passività da replicare; - migliore; - replicare; - altre opzioni o tipi di flussi; all’aumentare dei nodi da approssimare si ottiene una portafoglio replicante non è necessario trovare analogie tra le funzioni utilizzate e le passività da un’approssimazione perfetta non è unica, essa può essere replicata con diverse fintantoché si replicano i flussi per ogni nodo dell’albero si ottiene lo stesso prezzo per la passività e per il portafoglio replicante (se si prezza utilizzando lo stesso albero); L’ultimo punto è particolarmente rilevante. Quando si effettua la valutazione del requisito patrimoniale non si utilizza lo stesso albero. Quando si utilizza la tecnica dei portafogli replicanti per il calcolo del capitale, siamo interessati nei valori prodotti dal mercato sotto ‘stress’; unendo i nodi ‘stressati’ a quelli normali si ottiene: 44 Figura 2.2.9 - Albero base e sotto 'stress' Per prezzare correttamente l’albero sotto ‘stress’ (blu) è necessario replicare i suoi cash flow in maniera accurata; estrapolare l’approssimazione dall’albero base (rosso) non porterà a risultati corretti eccetto casi fortunati. Verranno ora considerate alcune peculiarità appartenenti alle passività realmente presenti in una compagnia assicurativa rendendo il compito nel complesso più difficile: dimensioni di rischio maggiori di uno e dipendenza dalla traiettoria. 2.2.4 Ambiente di rischio multidimensionale In un portafoglio assicurativo sono presenti più fattori di rischio, il grafico sottostante mostra l’evoluzione dell’albero in presenza di due rischi. Figura 2.2.10 - Ambiente di rischio bidimensionale 45 Un albero come questo sarebbe potuto essere utilizzato se avessimo voluto replicare una passività basata su due rischi sottostanti: Figura 2.2.11 - Payoff di un'opzione basket Se si estende l’opzione put a quella basket, che genera flussi basandosi sul valore medio di due titoli – si ottiene un profilo di flussi che assomiglia a quello mostrato nel diagramma. Figura 2.2.12 - Portafoglio replicante per un'opzione basket Se si crea un portafoglio replicante combinando assieme due opzioni put sui titoli sottostanti, si ottiene un profilo di flussi diverso. In alcune parti i due profili combaciano in altre sono molto diversi. Si potrebbe provare ad aggiustare il peso dei titoli del portafoglio replicante o aggiungere più opzioni o altri titoli ma non si sarà mai in grado di replicare un pay-off di un’opzione basket. Quando si ha una passività che ha un’interazione tra i fattori di rischio non è possibile replicarla in maniera statica con un portafoglio di titoli a cui 46 sottostanno ciascuno un rischio. Al fine di replicare staticamente un pay-off basato sui valori di due titoli, si necessita che il portafoglio replicante includa derivati che dipendano da entrambi i titoli considerati. Con le funzioni lineari su put e call e piani su opzioni basket è possibile replicare qualunque superficie bidimensionale: - se si volesse replicare in maniera statica un insieme di passività complesse a cui sottostanno diversi fattori di rischio, si dovrebbe utilizzare strumenti replicanti che dipendano da tutti i fattori di rischio presi individualmente e anche su tutte le possibili combinazioni tra di loro. Per raggiungere tale obiettivo si dovrebbe - utilizzare un vasto insieme di strike. Non è possibile replicare una passività che dipende da più attività o fattori di rischio assieme alle interazioni tra di loro utilizzando titoli replicanti che dipendono da singoli rischi Tali considerazioni hanno particolare rilievo per tre ragioni: 1. decretano il tipo di titoli che si dovrebbe disporre nel portafoglio replicante; 2. portano ad affermare che è impossibile creare un portafoglio replicante accurato utilizzando solamente i titoli i cui prezzi sono osservabili sul mercato; 3. anche i semplici derivati che dipendono da più fattori di rischio sono difficili da prezzare analiticamente, infatti, a tale scopo vengono utilizzate valutazioni Monte Carlo. Se si hanno molti fattori di rischio bisogna quindi accettare un certo grado di errore nei portafogli replicanti oppure aumentare la complessità dei titoli che lo compongono, a rischio di una loro più difficile valutazione a mercato. 47 2.3 Simulazioni stocastiche annidate L'esigenza normativa di definire una misura di assorbimento di capitale coerente con un VaR al 99.5% su un orizzonte temporale di un anno, nel caso di passaggio ad un modello interno, comporta per la compagnia la necessità di valorizzare il proprio bilancio ad un anno dalla data di valutazione. I valori del bilancio, come si è già visto, devono essere funzione di una moltitudine di rischi, e a causa di ciò e del fatto che in generale, le relazioni tra rischi possono essere molto complesse, risulta naturale adottare un approccio simulativo al fine di ottenere la distribuzione empirica congiunta dei rischi prima, il requisito patrimoniale di solvibilità, poi. L’approccio simulativo consiste nel generare un numero elevato di scenari che descrivano in maniera realistica 19 come sarà lo stato del mondo tra un anno: ogni possibile scenario descrive quindi una realizzazione della distribuzione empirica congiunta dei fattori di rischio. Per ognuno di questi scenari, quindi, si valutano le grandezze necessarie al fine di poter calcolare il capitale disponibile relativo. Si procede quindi ottenendo una distribuzione empirica del capitale netto, il 99.5-simo percentile corrisponderà allora allo scenario peggiore al 99.5%. Nelle assicurazioni vita i valori di bilancio ad un anno dipendono anche da ipotesi fatte su flussi successivi allo stesso: si devono, perciò, non solo formulare ipotesi sulla situazione economica / attuariale nell’anno a venire ma anche su quelli successivi. 20 Il problema si complica ulteriormente se si osserva, com’è ragionevole, che le valutazioni per gli anni successivi al primo dipendono dalle ipotesi fatte sulla situazione economica / attuariale dello stesso: si tratta quindi, in un certo senso, di valutazioni condizionate. Il modello stocastico che più si adatta a trattare questo tipo di problema è individuato nella tecnica della simulazione stocastica annidata 21. Come suggerisce il nome, tale modello può essere schematizzato attraverso una rappresentazione annidata delle simulazioni stocastiche: l’annidamento, presente in t 1 (con t 0 l’epoca corrente), divide il modello in due parti: Detti real-world scenario. Considerando che un valore plausibile di run-off di un portafoglio vita è di 30 anni, si dovranno fare ipotesi economiche e attuariali per tutto questo periodo. 21 In inglese: stochastic-on-stochastic. 19 20 48 la prima concerne le possibili realizzazioni delle variabili di interesse nell’arco del primo anno secondo una distribuzione di probabilità realistica (detta anche fisica); condizionatamente alla situazione economica descritta da ciascuna realizzazione della prima fase, secondo una metrica risk-neutral ed in accordo con un modello di simulazione stocastica 22, vengono simulate le variabili aleatorie di interesse 23 relative agli anni successivi al primo. Si passa ad una misura risk neutral per sottostare ad un approccio di valutazione market consistent, ottemperando così ai requisiti della direttiva. Figura 2.3.1- Una possibile rappresentazione grafica delle simulazioni stocastiche annidate È chiaro che l’approssimazione della vera distribuzione delle grandezze aleatorie migliora al divergere del numero di simulazioni. Si è visto 24 che per ottenere risultati attendibili sono necessarie almeno 1.000 proiezioni real-world e, per ognuna di queste, 1.000 scenari risk-neutral; si devono effettuare quindi almeno un milione di simulazioni differenti per il calcolo del SCR (1.000 scenari risk-neutral per ognuno dei 1.000 scenari real-world). Con un tale numero di scenari, ipotizzando circa 5 secondi di elaborazione per ogni scenario, sarebbero necessarie circa trenta elaborazioni in parallelo per terminare la simulazione in 48 ore. Le compagnie assicurative utilizzano tipicamente da 1.000 a 10.000 scenari 25 interni per ogni scenario del mondo reale, il quale a sua volta viene simulato indicativamente lo stesso numero di volte. È utile precisare che secondo la compagnia di 22 Ad esempio il modello di Lee-Carter per il trend di mortalità, di Black-Karasinski per quello del tasso riskfree o quello di Heston per i titoli azionari. 23 Per variabili di interesse si intendono tutte quelle necessarie per il calcolo del SCR, ad esempio il trend di mortalità, del tasso risk free, del valore delle azioni, del numero di riscatti. 24 Fonte dei numeri citati in questo paragrafo: (KPMG, 2010). 25 Fonte barrie+hibbert in (Morrison, 2009) 49 consulenza barrie+hibbert in (Morrison, 2009), la dimensione dell’errore statistico potrebbe risultare sorprendentemente elevata anche utilizzando diecimila scenari (per un totale di 100.000.000 scenari complessivi). Si consideri, inoltre, che per simulare un portafoglio di polizze si dovrebbe tener conto delle caratteristiche di ciascuna di esse. Detto altrimenti, per ogni polizza devono essere calcolati i relativi cash-flow in funzione delle grandezze di interesse simulate. In conclusione deve essere eseguito il seguente numero di calcoli: # 𝑝𝑜𝑙𝑖𝑧𝑧𝑒 ∙ # 𝑠𝑖𝑚 𝑟. 𝑤.∙ # 𝑠𝑖𝑚 𝑟. 𝑛. (2.3.1) Nella pratica si procede accorpando le polizze in entità – dette model point – rappresentanti secondo il dettaglio desiderato, un insieme di polizze con caratteristiche simili. Il numero medio di model point utilizzato da una compagnia è compreso tra 10.000 e 100.000 26. Considerando questi numeri risulta quindi che un approccio stochastic-on- stochastic per la valutazione del 1-year VaR può richiedere il calcolo di 100.000 model point su 100 milioni di scenari. Uno sforzo computazionale del genere non è sopportabile nemmeno dagli attuali sistemi di calcolo distribuito. I problemi sin qui esposti rendono di fatto inutilizzabile questa tecnica nel contesto assicurativo, di conseguenza al fine di ottenere maggior accuratezza possibile, la ricerca ha prodotto modelli più efficienti che si basano su una semplificazione più, o meno, sofisticata di quanto detto. 26 Fonte barrie+hibbert in (Morrison, 2009) 50 2.4 Metodi per la riduzione dello sforzo computazionale Figura 2.4.1 Sforzo computazionale per singola valutazione in funzione del numero degli scenari interni (risk-neutral) e dei model points – fonte (Morrison, 2009) Lo sforzo computazionale per una singola valutazione può essere rappresentato da una griglia risultante del prodotto tra i model point e gli scenari risk-neutral, come indicato dai quadratini rossi presenti nel grafico sopra. Se si avesse a disposizione il dato sul tempo necessario per calcolare un’unità computazionale (vale a dire, un quadratino rosso), si potrebbe stimare il tempo necessario per calcolare il VaR. Intuitivamente, lo sforzo computazionale varia al variare del numero dei quadratini rossi della griglia e dal numero totale degli scenari real world (quelli rappresentati lo stato del mondo ad un anno). Ci sono diverse tecniche per ridurre lo sforzo computazionale; avendo a mente il grafico sopra: 1. riduzione del numero delle unità computazionali all’interno della griglia di valutazione - si raggiunge tale obiettivo attraverso: i. ii. iii. riduzione dei model point; riduzione del numero degli scenari risk-neutral; distribuzione efficiente degli scenari interni tra i model point; 51 2. riduzione del numero degli scenari real world: si valuta un numero limitato di scenari esterni posti in maniera da coprire mediamente tutti i possibili stati del mondo; si cerca quindi una funzione polinomiale passante per i punti. Tale metodo è chiamato curve fitting. 3. Tecnica Least-Squares Monte Carlo: si riduce drasticamente il numero degli scenari risk-neutral portando il loro numero a poche unità per ogni realizzazione real world; le valutazioni diventano quindi molto imprecise. Si utilizza una funzione di regressione sulla “nuvola di punti di valori imprecisi” per ottenere la stima del vero valore. Si discuterà nel dettaglio di questo metodo nel prossimo capitolo. 2.4.1 Riduzione dei model point Figura 2.4.2- Diminuzione dello sforzo computazionale per singola valutazione attraverso la riduzione dei model points – fonte (Morrison, 2009) I model point vengono costruiti con l’intento di descrivere nella maniera migliore possibile le passività della compagnia assicurativa, perseguendo questo obiettivo si ottiene una rappresentazione estremamente granulare delle passività. Ci si chiede quindi se questo approccio, che può condurre a cento mila model point, sia veramente indispensabile. Nella pratica è più che plausibile che due model point siano talmente simili – nel senso dei cash flow generati – che non solo si raddoppia inutilmente lo sforzo computazionale, ma non si ottiene nemmeno alcun vantaggio effettivo. Considerando l’apporto marginale che un model point porta nella valutazione delle passività, bisogna chiedersi sino a che punto l’aggiunta di uno nuovo è ritenuto giustificabile. La risposta a tale quesito porta 52 all’individuazione di un sottoinsieme di model point che produce un risultato ‘simile’ al modello completo. Questo procedimento porta ad una riduzione in larghezza della griglia di valutazione. 2.4.2 Riduzione del numero degli scenari riskneutral Figura 2.4.3 Diminuzione dello sforzo computazionale per singola valutazione attraverso la riduzione degli scenari risk-neutral – fonte (Morrison, 2009) Piuttosto di (o in aggiunta a) ridurre il numero totale dei model point, si può ridurre il numero degli scenari interni. Tale metodologia deriva dal semplice quesito se simulare dieci mila scenari interni sia veramente necessario per ottenere una valutazione accurata. La risposta, in realtà, è già stata data in precedenza, si asseriva, infatti, che l’errore statistico presente nel valore ottenuto dalla simulazione di dieci mila scenari può essere sorprendentemente elevato. Risultati del mondo accademico hanno però dimostrato che esistono tecniche per ridurre il numero degli scenari interni senza aumentare l’errore statistico. Una di queste è la tecnica di riduzione della varianza attraverso simulazione di scenari “antitetici”. In sintesi, si generano scenari che sono ortogonali tra loro. Nell’ipotesi di generare solamente due scenari risk-neutral, dato lo scenario real world i-simo all’epoca t, la coppia di valori generati è ortogonale: (𝑖,1) 𝑋𝑡 (𝑖,2) ⊥ 𝑋𝑡 ∀ 𝑡 = 1, … , 𝑛 , 𝑖 = 1, … , 𝑁 (2.4.1) 53 Allora stimato il valore della grandezza d’interesse come speranza matematica della coppia delle v.a. simulate (in questo caso si tratterà di una semplice media aritmetica dei due valori ∀𝑡 = 1, … , 𝑛, 𝑖 = 1, … , 𝑁: (𝑖) 𝑉𝑎𝑟 �𝑋𝑡 � = osservati), (𝑖,1) 𝑉𝑎𝑟 �𝑋𝑡 la sua (𝑖,2) � + 𝑉𝑎𝑟 �𝑋𝑡 4 varianza (𝑖,1) � + 2𝐶𝑜𝑣 �𝑋𝑡 (𝑖,2) , 𝑋𝑡 risulterà � (2.4.2) (𝑖,2) Il procedimento di riduzione della varianza, consisterà quindi nel costruire la v.c. 𝑋𝑡 (𝑖,1) maniera tale che 2𝐶𝑜𝑣(𝑋𝑡 (𝑖,2) 𝑉𝑎𝑟 �𝑋𝑡 ��. (𝑖,1) Si può dimostrare che se 𝑋𝑡 (𝑖,1) aleatoria 𝑋𝑡 (𝑖,2) , 𝑋𝑡 ) (𝑖,1) sia il più possibile vicina a – �𝑉𝑎𝑟 �𝑋𝑡 in �+ = 𝑓(𝑈(0,1)), cioè se la determinazione della grandezza è funzione 𝑓(∙) di una variabile pseudocasuale𝑈uniformemente distribuita (𝑖,2) nell’intervallo [0,1], allora costruendo 𝑋𝑡 = 𝑓(1 − 𝑈(0,1)), si producono due variabili (𝑖) aleatorie antitetiche che porteranno alla più piccola varianza possibile di 𝑋𝑡 . 2.4.3 Distribuzione efficiente degli scenari interni tra i model point Figura 2.4.4 - Rappresentazione grafica della distribuzione efficiente degli scenari interni tra i model point – fonte (Morrison, 2009) 54 Piuttosto che ridurre la dimensione della griglia, si può procedere limitando il calcolo ad alcuni punti chiave. Considerati due model point simili – sempre nel senso dei flussi generati – potrebbe essere inefficiente calcolarli sullo stesso scenario: come detto in precedenza si raddoppierebbe lo sforzo computazionale senza ottenere un significativo miglioramento nelle valutazioni; sarebbe più efficiente calcolare diversi model point su scenari diversi. Nella pratica, l’applicabilità di questa tecnica dipenderà dalla tipologia delle passività oggetto di valutazione. Per alcuni tipi di passività assicurative, i flussi di alcuni model point possono dipendere dai flussi di altri, come ad esempio nelle polizze with-profit con una politica del bonus dipendente dal livello complessivo dei titoli nel fondo. Tale tecnica è compatibile con passività non soggette a questi problemi. 55 2.5 Tecnica del curve fitting Figura 2.5.1– Simulazione stocastica annidata - il grafico mostra il processo applicato al problema del calcolo del valore di una opzione put – fonte (Kousaris, Improving capital approximation using the curvefitting approach, 2011) Per fissare le idee si ripresenta la simulazione annidata contestualizzandola al problema della valutazione di un’opzione put. Come detto in precedenza i flussi derivanti da quest’opzione equivalgono a opzioni implicite/garanzie presenti nelle polizze vita, risulta quindi una valida rappresentante di una passività della compagnia assicurativa. Si adotta, inoltre, un’ulteriore semplificazione: l’unico rischio che influisce sul valore dell’opzione è il valore del sottostante. Il grafico sopra descrive quindi il problema di questa simulazione annidata: lo scenario real-world rappresenta una possibile realizzazione del valore del sottostante, per ognuno di questi scenari ne vengono simulati diversi altri che individuano il possibile valore dell’opzione put e se ne considera il valore medio (rappresentato dai quadratini blu). 56 Figura 2.5.2 Applicazione della tecnica del curve fitting per la valutazione dell’opzione put in funzione del valore del sottostante – fonte (Kousaris, Improving capital approximation using the curve-fitting approach, 2011) Se due scenari real-world producono un valore del sottostante simile allora lo è anche il valore associato della put: l’approccio delle simulazioni annidate non tiene conto di questo, eseguendo i calcoli due volte. Questa ridondanza di calcolo rende il metodo inefficiente. Una semplificazione che velocizza i calcoli consiste nel simulare gli scenari real-world in pochi punti strategici e quindi individuare quelli mancanti attraverso interpolazione (vedi figura sopra). I punti scelti devono occupare in maniera efficiente il campo di variazione del rischio, che in questo caso coincide con il valore del sottostante. Si adatta, quindi, una formula multidimensionale ai punti ottenuti. Tale formula può essere lineare, polinomiale o anche più complessa. 57 Figura 2.5.3 - Tecnica del curve fitting - rappresentazione grafica – fonte (Kousaris, Improving capital approximation using the curve-fitting approach, 2011) Nei portafogli assicurativi sono presenti diversi tipi di rischi, quindi la curva ottenuta da tale processo sarà di tipo multidimensionale. Si può pensare, ad esempio, che una passività L sia rappresentata da una polinomiale standard di ordine N per i fattori di rischio R 1 , …, R k ; nel caso di due fattori di rischio e di una polinomiale di ordine tre la funzione è data da: 2 𝐿(𝑅1 , 𝑅2 ) = � 𝑎1 + �� 𝑎2 𝑅�1�� +�𝑎 𝑅13 + �� 𝑎4 𝑅�2�� +���� 𝑎5 𝑅22�+ 𝑅23 + � 𝑎7�𝑅 �1�𝑅�2 ��� ��𝑎�3�� ��𝑎�6�� 2 𝑅1�+ 𝑐𝑜𝑠𝑡. 𝑡𝑒𝑟𝑚𝑖𝑛𝑖 𝑝𝑒𝑟 𝑖𝑙 𝑟𝑖𝑠𝑐ℎ𝑖𝑜 1 + �� 𝑎8 𝑅�12�𝑅 𝑅�1�� 𝑅22 ���� 2 + 𝑎� 9� 𝐼𝐼𝐼 𝑔𝑟𝑎𝑑𝑜 𝑡𝑒𝑟𝑚𝑖𝑛𝑖 𝑝𝑒𝑟 𝑖𝑙 𝑟𝑖𝑠𝑐ℎ𝑖𝑜 2 𝐼𝐼 𝑔𝑟𝑎𝑑𝑜 (2.5.1) Si hanno in totale nove coefficienti per la funzione di passività così definita. Per risolvere tale funzione serve simulare un numero di punti pari almeno al numero di incognite. È facile intuire che all’aumentare del numero dei fattori di rischio e dell’ordine polinomiale si aumenta l’accuratezza della funzione; aumentano altresì i coefficienti da stimare e quindi le simulazioni. Al divergere dei punti simulati si ritorna alla simulazione full- nested. 58 Figura 2.5.4 Approssimazione via curve fitting per un opzione put – fonte (Kousaris, Improving capital approximation using the curve-fitting approach, 2011) Ritornando all’esempio dell’opzione put, si vuole valutare l’errore di approssimazione considerando due fattori di rischio: il valore del sottostante ed il tasso risk-free. Il grafico sopra mostra la funzione reale, ottenuta con l’approccio simulativo full-nested, mentre di sotto sono rappresentati gli errori di approssimazione. Figura 2.5.5 Errore di approssimazione calibrando la polinomiale su dieci punti – fonte (Kousaris, Improving capital approximation using the curve-fitting approach, 2011) 59 2.5.6 Errore di approssimazione calibrando la polinomiale su dieci punti – fonte (Kousaris, Improving capital approximation using the curve-fitting approach, 2011) I grafici mostrano che per ottenere una buona approssimazione, anche in questo semplice esempio, si necessita di un numero elevato di punti. In un contesto reale, dove i valori dei rischi da simulare sono molteplici è possibile che il beneficio della tecnica si vanifichi. La tecnica soffre inoltre di errore di campionamento: se venti punti scelti non rappresentano bene la vera curva, quella ottenuta sarà distorta. Il problema in questione va ben oltre quanto concerne le qualità desiderabili della polinomiale. Essendo questi punti scelti in maniera soggettiva da chi calibra il modello si potrebbe giungere facilmente ad una stima diversa del capitale; il risultato quindi finale potrebbe essere criticato dal regolatore. Si dovrebbe quindi dimostrare attraverso analisi di sensitività, che le scelte effettuate hanno comunque prodotto un risultato robusto. Il modello, inoltre, da requisito di Solvency II, deve restare il più possibile costante nel tempo; considerando che la composizione delle passività, delle garanzie, delle polizze e del nuovo business può variare, risulta molto difficile creare delle regole di scelta di questi punti che si mantengano costanti nel tempo. Nella funzione approssimante è insito lo stesso problema: non è detto che al variare di questa il requisito di capitale non subisca variazioni significative. Considerando i problemi esposti, risulta molto difficile dare una misura all’errore potenziale nel calcolo del capitale. In conclusione, nonostante la tecnica del curve fitting è un notevole miglioramento rispetto alle simulazioni full-nested, a causa dei problemi sopra citati non può essere considerata come una soluzione definitiva. 60 3 Least-Squares Monte Carlo In questo capitolo sarà proposto il modello di approssimazione delle simulazioni fullnested denominato LSMC. Il capitolo è composto da quattro parti: i. ii. iii. iv. introduzione per concetti al modello; il modello matematico delle simulazioni full-nested; il modello LSMC; migliorie al modello. Nella prima parte si introduce il modello con il supporto di rappresentazioni grafiche. Vi saranno presenti diversi confronti con i modelli introdotti in precedenza. A seguire il modello matematico delle simulazioni full-nested ed infine il metodo LSMC. Si conclude il capitolo con alcune proposte di miglioramento della tecnica: utilizzo della successione di Sobol per la calibrazione della funzione di regressione e generazione degli scenari riskneutral attraverso il metodo di riduzione della varianza. 61 3.1 Introduzione al modello LSMC Figura 3.1.1 - Rappresentazione grafica del modello delle simulazioni stocastiche annidate Si consideri nuovamente il modello delle simulazioni stocastiche annidate rappresentato nella figura sopra. Avendo come obiettivo quello di ridurre lo sforzo computazionale, si procede riducendo drasticamente il numero degli scenari risk-neutral a poche unità per ogni scenario real world. La conseguenza diretta è che la valutazione dei flussi diventa molto approssimativa. Non avrebbe più senso considerare la distribuzione empirica di queste determinazioni, in quanto molto imprecise: in un contesto full-nested, il valore della grandezza di interesse (ad esempio il PVFP), al variare di un singolo rischio, disegnava una curva ben definita; ora, la simulazione produce una nuvola di punti. Si è costatato che applicando una funzione di regressione alla nuvola così ottenuta, si ritorna alla curva ottenibile dal modello full-nested. Il problema si trasferisce quindi sulla scelta della funzione di regressione. È chiaro che nella realtà si avrà a che fare con modelli multidimensionali: la bontà della tecnica resta però invariata. 62 Figura 3.1.2 - Approssimazione del modello full-nested attraverso la tecnica LSMC 3.1.1 Il LSMC per valutare un’opzione put Nel (Kousaris, Research & insights - The advantages of Least Squares Monte Carlo, 2011) si riportano i risultati di un’applicazione semplificata del modello: valutazione di un’opzione put al variare del valore del sottostante. L’esempio non è casuale, infatti il metodo LSMC è stato “inventato” da (Longstaff & Schwartz, 2001) proprio come soluzione al problema della tariffazione delle opzioni put americane. Figura 3.1.3 – Modello LSMC per la valutazione di un'opzione put al variare del valore del sottostante. Il grafico mostra il valore di 2.000 simulazioni dell’opzione put al variare del valore del valore del sottostante. Si può osservare che la nuvola di punti è molto dispersa, le valutazioni quindi sono molto imprecise. Il valore iniziale del titolo è 1, si può quindi 63 osservare che molti punti sono concentrati attorno a 1.1 (aumento del 10%) e pochi sotto lo 0.7 (diminuzione del 30%). La linea verde rappresenta una regressione polinomiale attraverso i punti. I veri valori dell’opzione put, indicati con quadratini blu, sono calcolati analiticamente, osservando quindi che la curva di regressione passa per tali punti si può affermare che questa approssimi molto bene i veri valori. Facendo ulteriori simulazioni, è stato osservato che, in alcuni casi, l’esiguo numero di scenari sulle code ha prodotto curve di regressione che catturano male eventi estremi. I grafici sotto riportano gli esperimenti: in quello di sinistra si osserva una sottostima del valore, viceversa per quello di destra. Si conclude che questo problema potrebbe provocare una sovra o sotto stima del requisito patrimoniale di solvibilità. Figura 3.1.4 – Casi in cui la curva interpolante cattura male il valore della put per valori estremi del sottostante. Per superare questo problema si avrebbe la necessità di avere un numero maggiore di scenari sulle code: tale obiettivo è stato raggiunto utilizzando simulazioni del valore del sottostante che non sottostanno ad una metrica real world bensì ad una più semplice distribuzione uniforme, sullo stesso dominio. Una volta calibrata la funzione di regressione su questi scenari, questa viene poi utilizzata in un contesto real world, seguendo cioè la cosiddetta misura di probabilità fisica. La sequenza del processo è: I. Calibrazione della funzione di regressione: 1. simulazione del valore del sottostante accogliendo una probabilità uniforme su tutti i valori possibili e conseguente simulazione del relativo prezzo della put secondo una probabilità risk-neutral (le due simulazioni individuano un punto verde dei grafico sotto); 2. regressione sui valori della put, con il valore del sottostante come variabile II. esplicativa (linea verde del grafico sotto). Costruzione della distribuzione di probabilità empirica del valore della put: 64 3. simulazione del valore del sottostante accogliendo una probabilità real world; 4. calcolo del valore della put per ogni punto simulato al passo (3), attraverso la funzione interpolante ottenuta al passo (2); 5. la distribuzione di frequenza dei valori ottenuti al passo (4) è la stima della distribuzione di probabilità del valore della put. Questo processo di calibrazione si traduce in una descrizione più precisa del comportamento delle code della distribuzione del prezzo della put. Figura 3.1.5 – Simulando il valore del sottostante secondo una distribuzione uniforme, i relativi valori simulati coprono un’area molto maggiore di prima, riducendo così l’errore di campionamento. 3.1.2 Considerazioni sull’utilizzo del modello in un contesto assicurativo L’utilizzo del metodo in un contesto finanziario è stato già ampiamente sperimentato e documentato nel corso dell’ultimo decennio. Si è già dimostrato che risulta una valida soluzione alle simulazioni fully-nested. L’impiego nel settore assicurativo, nello specifico, per il calcolo del requisito patrimoniale di solvibilità, risulta del tutto nuovo; è quindi lecito affermare che potrebbero sorgere delle criticità. I modelli attuariali sono più 65 complessi della semplice opzione put considerata, in particolare quando i valori delle passività dipendono non solo dagli ultimi eventi economici ma anche da quelli passati, in altre parole dalle traiettorie seguite nel tempo. In questi casi potrebbe essere veramente ostico trovare una funzione che si adatti bene e che consideri pure la storia delle variabili economiche. A vantaggio del LSMC è il fatto che porta con sé tutti gli strumenti della statistica associati alla funzione di regressione. È quindi possibile ottenere facilmente l’errore di valutazione, ad esempio, considerando lo standard error. L’approvazione del modello da parte del regolatore sarebbe senz’altro più facile, in presenza di queste informazioni. È possibile calcolare lo standard error anche nel modello del curve fitting in un ambiente univariato, l’operazione diventa più difficile se non impossibile in quello multivariato. Un altro potenziale vantaggio del modello è di poter considerare i rischi non di mercato congiuntamente agli altri. L’impatto dell’aggiunta di un qualunque rischio sul modello si tradurrà semplicemente nell’aggiunta di ulteriori variabili esplicative. Una compagnia assicurativa potrebbe avere la necessità di ricalcolare il requisito di solvibilità a distanze ravvicinate. In seguito ad una variazione forte ed inaspettata del valore del portafoglio d’investimento, si potrebbe voler ricalcolare il SCR. Con il modello LSMC basterebbe ri-simulare gli scenari real world, aggiornati con le ultime informazioni del mercato, quindi sfruttare la funzione di regressione ottenuta al calcolo del SCR precedente. In ottemperanza alla direttiva, si manterrebbero costanti nel tempo i criteri di valutazioni e confrontabili i risultati. Si osservi che quest’ultima funzionalità è resa possibile grazie al fatto che la funzione di regressione è stata calibrata su un intervallo ragionevolmente ampio del dominio (solitamente μ ±5σ) dei fattori rischio ed è indipendente dalla misura market-consistent associata, che invece varia nel tempo. Nell’approccio del curve fitting questo non sarebbe possibile, in quanto si dovrebbe aggiungere un numero sproporzionato di fitting points. Rifacendosi ai requisiti imposti dall’ORSA, in ottemperanza ai quali bisogna calcolare il valore del SCR anche per gli anni successivi, l’applicazione del modello LSMC risulta immediata. Si giungerebbe a calcolare una funzione di regressione per ogni anno di valutazione. Il grafico sotto mostra la rappresentazione del LSMC, ora “multi-annuale”, restando nel semplice contesto dell’opzione put. 66 Figura 3.1.6 Utilizzo del modello LSMC in un'ottica multi-annuale – fonte (Kousaris, Research & insights The advantages of Least Squares Monte Carlo, 2011) Il fitting multi-annuale fornito dai modelli LSMC può essere utilizzato in diversi settori assicurativi, non solo in quello del calcolo del capitale di solvibilità. Si potrebbero utilizzare le informazioni così ottenute per strategie di hedging, o di pricing, definizione di scelte di management, piuttosto che l’ottimizzazione dell’asset allocation. 3.1.3 Il LSMC per le politiche di gestione Finora si è analizzato il problema della valutazione del PVFP considerandolo dipendente dai rischi cui la compagnia deve far fronte; gli utili futuri non dipendono solamente da questo tipo di fattori ma, tra gli altri, anche dalle politiche di gestione. Si fornirà di seguito un esempio su come possa risultare utile il metodo LSMC anche per affrontare tale problema. Si considerino, a titolo di esempio, le politiche d’investimento in titoli, in misura della quantità rispetto al totale delle attività. A tale scopo si considera l’indice Equity Backing Ratio – ovvero la percentuale delle attività investite in titoli azionari e sul totale degli investimenti correnti. 67 Si procede espandendo la lista dei rischi utilizzati dal modello LSMC includendo anche quelli che influenzano l’EBR e si inserisce come parametro addizionale la percentuale EBR. In questa maniera, al variare del parametro EBR si possono ottenere diverse distribuzioni del PVFP che variano tra di loro, tenendo fissati i restanti parametri, solo a causa di politiche di gestione diverse. Figura 3.1.7 Distribuzione del PVFP in t = 1 al variare dell'EBR (da “Solvency II Proxy Modeling via Least Squares Monte Carlo – Milliman”) Equity Backing Ratio 1% 3% 5% 7% 9% 99,5% VaR -143 -222 -294 -391 -482 Esempio tratto da: “Solvency II Proxy Modelling via Least Squares Monte Carlo” – Milliman SCR 258 337 409 506 597 I risultati dell’esempio appena citato possono essere interpretati con la seguente logica: all’aumentare dell’EBR si pone maggiore stress sugli azionisti e sugli assicurati in quanto approssimativamente il 90% dei profitti è assegnato a questi ultimi per le ipotesi sottostanti l’esempio, a fronte di un rendimento medio di portafoglio crescente. 68 3.2 Il modello matematico per le simulazioni fully nested 3.2.1 Descrizione delle grandezze di interesse La valutazione quantitativa della posizione di solvibilità di un assicuratore operante nel ramo vita può essere separata in due componenti, l’Own Fund (OF) ed il Solvency Capital Requirement (SCR). Il capitale disponibile – chiamato dalla direttiva Solvency II own funds – corrisponde all’ammontare delle risorse finanziarie disponibili in t = 0 che può servire come buffer contro i rischi e assorbire perdite finanziarie. Tale valore è ottenuto dalla differenza tra le attività e le passività valutate entrambe a valori di mercato. La valutazione delle attività a valori di mercato è un’operazione piuttosto facile se si considera un tipico portafoglio d’investimenti di una compagnia assicurativa: i valori sono o direttamente osservabili (mark-to-market) oppure possono essere derivati da modelli standardizzati che ammettono in input valori osservabili sul mercato (mark-to-model). Lo stesso ragionamento non può essere fatto per le passività. Infatti, a causa della struttura relativamente complessa dei contratti assicurativi - si considerino ad esempio contratti contenenti opzioni e garanzie - nonché all’assenza di un ‘mercato delle passività’, si è portati ad una valutazione non in forma chiusa ma ottenuta attraverso un approccio mark-to-model basato su simulazioni stocastiche. Nello specifico, se una compagnia utilizza un modello interno, la valutazione delle passività a valori di mercato è solitamente calcolata attraverso simulazioni Monte Carlo; in alcuni paesi sono disponibili dei modelli standardizzati che forniscono una stima market-consistent delle passività attraverso formule in forma chiusa, fornendo comunque risultati molto approssimativi, accettabili per contratti relativamente semplici. Al fine di ridurre l’arbitrarietà nella scelta del modello sottostante alle valutazioni, e quindi per assicurare la comparabilità dei risultati con altre compagnie, nell’ultimo decennio, l’industria delle assicurazioni vita ha sviluppato dei principi per la valutazione del valore delle attività e passività secondo l’approccio market-consistent e secondo una visione dell’impresa dalla prospettiva degli azionisti: si è giunti così alla formulazione del Market- 69 Consistent Embedded Value (MCEV) 27 corrispondente al valore attuale degli utili provenienti dagli investimenti a supporto del business assicurativo, al netto del valore da accantonare per far fronte ai rischi aggregati presenti nel portafoglio. Di conseguenza, il valore market-consistent delle passività può essere ottenuto indirettamente come differenza tra le attività a valori di mercato e il MCEV. Inoltre i OF presenti nella direttiva Solvency II sono molto simili al MCEV, quindi da ora in poi – risultando tali differenze superflue ai fini di questa tesi - le due quantità verranno considerate equivalenti. 28 Si ha quindi all’epoca t = 0: 𝑂𝐹0 ∶= 𝑀𝐶𝐸𝑉0 (3.2.1) Al fine di valutare il SCR, la quantità d’interesse è il capitale disponibile (AC) in t = 1. Nell’ipotesi di avere un profitto nel primo anno (identificato con X 1 ) e che questo non sia stato ancora distribuito agli azionisti, l’AC 1 è dato da: 𝐴𝐶1 ∶= 𝑀𝐶𝐸𝑉1 + 𝑋1 (3.2.2) Secondo la direttiva Solvency II, una compagnia assicurativa è ritenuta essere in una posizione di solvibilità se il suo capitale disponibile (OF) in t = 1 valutato all’epoca 0 è non negativo con una probabilità di almeno 99.5%: 𝑃(𝑂𝐹1 ≥ 0 | 𝑂𝐹0 = 𝑥) ≥ 99.5% (3.2.3) Il SCR è quindi la più piccola quantità x che soddisfa tale condizione. Questa è una definizione implicita del requisito di solvibilità: si garantisce che se i OF in t = 0 sono maggiori o uguali al SCR, allora la probabilità che i OF in t = 1 sia positiva è di almeno del 99.5%. Nella pratica ci si affida ad una definizione approssimativamente equivalente ma più semplice dell’SCR, la quale evita di definire tale quantità implicitamente 29. A tal proposito viene definita la funzione one-year loss function, calcolata in t = 0 come ℒ ∶= 𝑂𝐹0 − 𝑂𝐹1 1+𝒾 (3.2.4) Per ulteriori informazioni si rimanda al sito del CFO Forum: www.cfoforum.eu Nello specifico, le differenze tra cost-of-capital dell’MCEV - somma dei costi frizionali per il ottenere il requisito patrimoniale e il costo dei rischi residui non mitigabili - ed il risk margin sotto Solvency II vengono ignorate, inoltre verranno ignorate alcune componenti del capitale (come ad esempio i prestiti subordinati) 29 Tale formula è utilizzata nello Swiss Solvency Test 27 28 70 Dove 𝒾 è un tasso di interesse privo di rischio annuo privo di rischio in t = 0. Il SCR è quindi definito come l’α-quantile di ℒ, con α pari a 99.5%: 𝑆𝐶𝑅 ∶= 𝑎𝑟𝑔𝑚𝑖𝑛𝑥 �𝑃 �𝑂𝐹0 − = 𝑎𝑟𝑔𝑚𝑖𝑛𝑥 �𝑃 �𝑀𝐶𝐸𝑉0 − 𝑂𝐹1 > 𝑥� ≤ 1−∝� 1+𝒾 𝑀𝐶𝐸𝑉1 + 𝑋1 > 𝑥� ≤ 1−∝� 1+𝒾 (3.2.5) (3.2.6) Il passaggio dalla (4) alla (5) è immediato considerando la (1) e la (2). Il capitale in eccesso (Excess Capital) in t = 0, d’altro canto, è definito come OF 0 – SCR e soddisfa alla 𝑂𝐹1 𝑃� ≥ 𝑂𝐹0 − 𝑆𝐶𝑅� ≥ ∝ 1+𝒾 (3.2.7) Allora la probabilità in t = 0 che i OF in t = 1 siano maggiori o uguali all’Excess Capital è almeno α (ad esempio 99.5%). Basandosi su questa definizione, il tasso di solvibilità (solvency ratio) è individuato in SCR/OF 0 . Viene ora ripresa la standard formula. Sotto l’ipotesi che la funzione di perdita ℒ sia combinazione lineare di variabili aleatorie ℒ i , 1 ≤ i ≤ d ∈ ℕ descriventi le perdite riportate nei d moduli di rischio, ℒ = ∑𝑑𝑖=1 ℒ𝑖 e che le ℒ i sono congiuntamente normalmente distribuite, otteniamo per l’SCR la cosiddetta square root formula: 𝑑 𝑑 𝑖=1 𝑖=1 𝑆𝐶𝑅 = � 𝜇𝑖 + ��(𝑆𝐶𝑅𝑖 − 𝜇𝑖 )2 + 2 � 1≤𝑖<𝑗≤𝑑 𝜌𝑖𝑗 (𝑆𝐶𝑅𝑖 − 𝜇𝑖 ) �𝑆𝐶𝑅𝑗 − 𝜇𝑗 � (3.2.8) Dove μ i = E[ℒ i ], SCR i è il caricamento per il rischio i-simo (ad esempio il 99.5% quantile della funzione di perdita ℒ i ) e 𝜌 ij è la correlazione lineare tra le variabili di rischio ℒ i e ℒ j , 1 ≤ i ≠ j < d. I singoli caricamenti per il rischio vengono, come già analizzato in precedenza, calcolati utilizzando modelli scenario-based e factor-based 30. 30 A. Sandstraom. Solvency II: Calibration for skewness. Scandinavian Actuarial Journal, 2007 71 Si può subito osservare che possono nascere problemi se i rischi non seguono una distribuzione normale. Da un lato, asimmetria o eccesso di curtosi nelle distribuzioni marginali può portare a risultati lontani da quelli reali, dall’altro, situazioni di dipendenza non colte da un modello lineare possono portare alla sottostima dei risultati 31. Al fine di ottenere risultati il più accurati possibile riguardanti la posizione di solvibilità della compagnia, in generale è necessario affidarsi a metodi numerici al fine di poter valutare, seguendo un approccio multivariato, i rischi cui la compagnia deve far fronte. In linea con l’equazione (3.2.8), il MCEV può essere usato come base per la determinazione dei requisiti monetari per far fronte ai rischi. Il MCEV è definito come somma di Adjusted Net Asset Value (ANAV) e di Present Value of Future Profits (PVFP) meno il Cost-of-Capital (CoC): 𝑀𝐶𝐸𝑉 ∶= ANAV + PVFP − CoC (3.2.9) L’ANAV è ricavato dal Net Asset Value 32, ed include gli aggiustamenti per beni immateriali, plus/minusvalenze latenti. È composto da due parti: il free surplus - ovvero il valore delle attività libere a disposizione dell’azienda una volta soddisfatti gli obblighi relativi all’accantonamento delle riserve matematiche e del margine di solvibilità e ad eventuali altri accantonamenti di legge - ed il required capital. Nella maggior parte dei casi, l’ANAV può essere ottenuto dai numeri presenti a bilancio e dai valori di mercato delle attività, quindi il calcolo non richiede alcuna simulazione. Il PVFP corrisponde al valore attuale atteso degli utili futuri a valori di mercato derivanti dall’in-force business - valore attuale dei profitti futuri attesi dallo sviluppo del portafoglio run-off alla data di valutazione. La determinazione del PVFP è abbastanza impegnativa visto che dipende dallo sviluppo del mercato finanziario, e quindi dall’evoluzione della curva dei tassi, credit spread, ritorno sul capitale investito, etc. Il PVFP viene quindi determinato attraverso modelli stocastici, per i quali, in generale, vengono applicate valutazioni neutrali al rischio. Il CoC – Cost of Capital - è la somma dei costi frizionali del capitale richiesto e il costo dei rischi residui non mitigabili. Il calcolo del CoC può essere eseguito attraverso approcci deterministici o stocastici. Per ulteriori approfondimenti vedere: D. Pfeifer and D. Strassburger. Solvency II: stability problems with the SCR aggregation formula. Scandinavian Actuarial Journal, 2008/1:61 32 Per una compagnia di assicurazioni, il NAV è definito come valore delle attività meno il valore delle passività così come definite nel bilancio, e quindi può essere approssimativamente identificato nel capitale azionario. 31 72 È da sottolineare che al fine di poter valutare la posizione di solvibilità di una compagnia assicurativa è necessario valutare l’MCEV non solo all’epoca t = 0 ma anche disporre di una distribuzione probabilistica in t = 1. A tal proposito sono introdotte misure di rischio come il VaR (Value-at-Risk) o il TVaR (Tail-Value-at-Risk) che considerando la distribuzione dell’MCEV in t = 1 offrono una valutazione del capitale di rischio richiesto. 3.3 L’impostazione matematica delle simulazioni stocastiche annidate Si accolgano le seguenti ipotesi sul mercato: i. ii. le transazioni sul mercato siano prive di frizionalità; i titoli possono essere scambiati in ogni istante tra 0 e T, dove T 33 è la scadenza più lontana tra le polizze presenti nel portafoglio dell’assicuratore. Sia allora �Ω, ℱ, 𝒫, 𝔽 = (ℱt )t∈[0,T] � uno spazio di probabilità filtrato nel quale esistano tutte le quantità rilevanti: (3.3.1) Ω denota lo spazio di tutti i possibili stati del mercato finanziario; 𝒫 è una misura di probabilità basata su valutazioni realistiche. ℱ t rappresenta l’informazione del mercato disponibile fino all’epoca t. L’incertezza negli utili futuri è dovuta all’incertezza presente in diversi fattori che ne influenzano lo sviluppo, come i rendimenti sui titoli, tassi d’interesse o credit spread. Sotto tale modello si consideri un processo markoviano d-dimensionale, sufficientemente regolare 𝐘 = (𝐘t )t ∈[0,T] = (Yt,1 , . . . , Yt,d )t∈[0,T] (3.3.2) il quale verrà chiamato processo di stato, esso servirà a modellare l’incertezza del mercato finanziario, vale a dire, tutte le attività del mercato possono essere espresse in termini di 33 Visto che i contratti assicurativi vita sono investimenti a lungo termine, T assumerà un valore compreso tra i 30 e 40 anni. 73 Y. Dato il tasso istantaneo di interesse privo di rischio 𝑟𝑡 = 𝑟(𝐘𝑡 ) si supponga l’esistenza di un processo risk-free detto bank account: 𝑡 (𝐵𝑡 )𝑡∈[0,𝑇] 𝑐𝑜𝑛 𝐵𝑡 = 𝑒𝑥𝑝 �� 𝑟𝑢 𝑑𝑢�, 0 (3.3.3) Sia quindi 𝒬 una probabilità neutrale al rischio equivalente 34 alla 𝒫 dove i pagamenti futuri possono però essere quantificati come flussi futuri scontati rispetto al numerario (B t ) t∈[0,T] . Infine, si assume che esiste un modello di proiezione dei flussi della compagnia assicurativa, esistono cioè T funzionali f 1 ,…,f T tali che con il generico f t è possibile ottenere il risultato economico del periodo t-simo considerando lo sviluppo del mercato finanziario sino all’epoca relativa. Tale modello deve tenere in considerazione anche i requisiti legali e regolatori così come le politiche di gestione. Detto ciò, si modellano i risultati economici futuri relativi al business in-force come successione di variabili aleatorie: 𝑿 = (𝑋1 , … , 𝑋𝑇 ) 𝑐𝑜𝑛 𝑋𝑡 = 𝑓𝑡 (𝒀𝑠 , 𝑠 ∈ [0, 𝑡]) (3.3.4) Per mantenere semplice l’esposizione, questa tesi si limiterà a prendere in considerazione il rischio di mercato, quindi i rischi non immunizzabili così come il rischio di aumento del costo del capitale non saranno considerati. I fattori di rischio non di mercato come la mortalità possono essere incorporati nel processo di stato, così come i caricamenti del costo del capitale e altri costi frizionali potrebbero essere presi in considerazione modellando in maniera opportuna 𝒬 e f i , 1 ≤ i ≤ T. 3.3.1 Il capitale disponibile in t = 0 Per quantificare i OF in t = 0, si procede determinando il PVFP in t = 0, PVFP 0 , come il valore atteso della somma degli utili futuri X t , t = 1, …, T , scontati sotto la misura neutrale al rischio 𝒬: 𝑇 𝑡 𝑃𝑉𝐹𝑃0 ≔ 𝐸 �� 𝑋𝑡 ∙ 𝑒 − ∫0 𝑟𝑢 𝑑𝑢 � 𝑄 𝑡=1 (3.3.5) Dato lo spazio misurabile (Ω,ℱ,𝒫,𝔽), 𝒬 è assolutamente continua rispetto a 𝒫 , se ogni insieme E ∈ 𝔽 che ha misura nulla rispetto a 𝒫 ha misura nulla anche rispetto a 𝒬. Due misure assolutamente continue l’una rispetto all’altra si dicono equivalenti. 34 74 Viene immediato quindi definire la relativa deviazione standard, che tornerà utile negli sviluppi futuri: 𝜎(𝑃𝑉𝐹𝑃0 ) ≔ �𝑉𝑎𝑟 𝑄 𝑇 𝑡 �� 𝑋𝑡 ∙ 𝑒 − ∫0 𝑟𝑢 𝑑𝑢 � 𝑡=1 (3.3.6) Il PVFP 0 non è calcolabile analiticamente in quanto le interazioni tra le variabili del mercato finanziario Y t e gli utili futuri X t , sono molto complesse: si prosegue attraverso il metodo MC, simulando il valore del processo di stato ad ogni epoca di valutazione. Si ottengono quindi K 0 traiettorie simulate indipendenti. Il valore ottenuto dalla k-sima traiettoria simulata, sotto la misura neutrale al rischio 𝒬 è indicata con: (𝒀𝑡 (𝑘) )𝑡∈[0,𝑇] , 𝑘 = 1, … , 𝐾0 Basandosi sugli scenari ottenuti, si stimano i flussi 𝑋𝑡 (𝑘) (𝑡 = 1, … , 𝑇; 𝑘 = 1, … , 𝐾0 ) (3.3.7) (3.3.8) Si scontano i cash-flow così ottenuti con un fattore di sconto appropriato; si ottiene infine il valore atteso degli utili futuri in 0, come media dei PVFP ottenuti dalle K 0 simulazioni: 𝐾0 𝑇 𝑡 (𝑘) 1 � 0 (𝐾0 ) ≔ 𝑃𝑉𝐹𝑃 � � 𝑋𝑡 (𝑘) ∙ 𝑒 − ∫0 𝑟𝑢 𝑑𝑢 𝐾0 (3.3.9) 𝑘=1 𝑡=1 Dove r u (k) è il tasso istantaneo di interesse in t secondo la k-sima traiettoria. Considerando l’equazione (12) ed il fatto che l’ANAV può essere ricavato dal bilancio, uno stimatore per OF 0 (considerando precedentemente) è dato da: sempre le � 0 ∶= ANAV0 + 𝑃𝑉𝐹𝑃 �0 𝑂𝐹 ipotesi 3.3.2 Il capitale disponibile in t = 1 matematiche descritte (3.3.10) Per il calcolo del SCR, oltre al capitale disponibile in t = 0 è necessario valutare la distribuzione del capitale disponibile in t = 1. Supponendo che l’utile del primo anno, X 1 , 75 non sia stato ancora spartito tra gli azionisti, bisogna determinare la 𝒫-distribuzione della variabile aleatoria ℱ 1 -misurabile 𝑇 𝑡 𝑂𝐹1 ∶= ANAV1 + 𝐸 �� 𝑋𝑡 ∙ 𝑒 − ∫1 𝑟𝑢 𝑑𝑢 � 𝑌𝑠 , 𝑠 ∈ [0,1]� + 𝑋1 ����������������������� 𝑡=2 𝑄 (3.3.11) =:𝑃𝑉𝐹𝑃1 La complessità risiede soprattutto nella struttura di PVFP 1 ; è da tenere però in considerazione che nelle applicazioni pratiche tale valore non dipende dall’”intera” storia del mercato finanziario sino all’epoca 1. I modelli di proiezione delle attività e passività a livello aggregato sono basati sull’estrapolazione di un numero finito di fattori rappresentanti sia il mercato sia le passività; se, invece, la situazione finanziaria della compagnia viene proiettata su base contrattuale, ogni contratto sarà a sua volta rappresentato da un numero finito di elementi all’interno del sistema contabile dell’assicuratore. In altre parole è possibile asserire che tutta l’informazione necessaria per la proiezione dei flussi è contenuta in un insieme finito di variabili di stato markoviane (Y 1 ,D 1 ), dove D 1 = (D 1 (1), …, D 1 (m)), ottenendo 𝑇 𝑡 𝑃𝑉𝐹𝑃1 ∶= 𝐸 �� 𝑋𝑡 ∙ 𝑒 − ∫1 𝑟𝑢 𝑑𝑢 � (𝑌1 , 𝑫1 )�. 𝑄 𝑡=2 (3.3.12) È possibile ora stimare la distribuzione di OF 1 attraverso la corrispondente distribuzione empirica: date N ∈ ℕ traiettorie simulate (Y s (i)) s∈[0,1 ] , riguardanti lo sviluppo del mercato finanziario sotto una misura di probabilità coerente col mondo reale 𝒫 con le corrispondenti variabili di (𝑖) (𝑖) stato �𝑌1 , 𝑫1 � , 𝑖 ∈ {1, … , 𝑁} il PVFP in t = 1 condizionatamente allo stato del mercato dato dall’i-simo scenario può essere descritto da 𝑃𝑉𝐹𝑃1 (𝑖) ⎡ 𝑇 ⎤ 𝑡 ⎢ ⎥ ∶= 𝐸 𝑄 ⎢� 𝑋𝑡 ∙ 𝑒 − ∫1 𝑟𝑢 𝑑𝑢 � (𝑌1 , 𝑫1 ) = �𝑌1 (𝑖) , 𝑫1 (𝑖) �⎥. 𝑡=2 ⎢��������������������������� ⎥ ⎣ ⎦ =:𝑃𝑉1 (𝑖) (3.3.13) Possiamo quindi definire la relativa deviazione standard: � ⃓ ⎡ 𝑇 ⎤ ⃓ ⃓ 𝑡 ⃓ ⎢ ⎥ (𝑖) (𝑖) (𝑖) − 𝑟 𝑑𝑢 ∫ ⃓ 𝜎�𝑃𝑉𝐹𝑃1 � ∶= ⃓𝑉𝑎𝑟 𝑄 ⎢� 𝑋𝑡 ∙ 𝑒 1 𝑢 � (𝑌1 , 𝐷1 ) = �𝑌1 , 𝐷1 �⎥ ⃓ ⃓ 𝑡=2 ⎢��������������������������� ⎥ ⃓ (𝑖) ⎣ ⎦ =:𝑃𝑉 ⎷ 1 (3.3.14) 76 Si osserva che 𝜎�𝑃𝑉𝐹𝑃1 (𝑖) � può variare significativamente tra i diversi scenari, quindi al variare delle variabili di stato (Y 1 (i),D 1 (i)), i flussi scontati solitamente non sono identicamente distribuiti. Inoltre, possono essere calcolate le realizzazioni delle restanti componenti di OF 1 , in altre parole X 1 e ANAV 1 per ognuna delle N traiettorie relative al primo anno. Otterremo quindi come risultato, N realizzazioni di OF 1 date da 𝑂𝐹1 (𝑖) = 𝐴𝑁𝐴𝑉1 (𝑖) + 𝑃𝑉𝐹𝑃1 (𝑖) + 𝑋1 (𝑖) (3.3.15) È da notare che queste variabili aleatorie ℱ 1 -misurabili OF 1 (i), 1 ≤ i ≤ N, sono indipendenti e identicamente distribuite in quanto realizzazioni ottenute attraverso il metodo delle simulazioni di Monte Carlo. Figura 3.3.1 - Illustrazione dell'approccio delle simulazioni stocastiche annidate – fonte (Bauer, Bergmann, & Reuss, 2010) Come illustrato nella Figura 3.3.1, dall’i-sima traiettoria – dalla quale si ottiene lo stato (Y 1 (i),D 1 (i)) – vengono simulati K 1 (i) ∈ ℕ scenari sotto una misura di probabilità neutrale al rischio, identificati con (Y s (i,k)) s∈(1,T ] . Determinando, quindi, i risultati economici futuri (𝑋𝑡 (𝑖,𝑘) ; 𝑡 = 2, … , 𝑇; 𝑘 = 1, … , 𝐾1 (𝑖) ; 𝑖 = 1, … , 𝑁) (3.3.16) e facendo la media di tutte le K 1 (i) traiettorie simulate per ciascuna relativa al primo anno, si ottiene una stima di PVFP 1 (i) basata sulle simulazioni MC: 77 (𝑖) � 1 �𝐾1 (𝑖) � ≔ 𝑃𝑉𝐹𝑃 1 𝐾1 (𝑖) 𝐾1 (𝑖) 𝑇 𝑡 (𝑖,𝑘) � � 𝑋𝑡 (𝑖,𝑘) ∙ 𝑒 − ∫1 𝑟𝑢 𝑑𝑢 𝑘=1 ��������������� 𝑡=2 =:𝑃𝑉1 (𝑖,𝑘) 𝑖 ∈ {1, … , 𝑁} (3.3.17) Il numero di simulazioni nell’i-simo scenario descritto da (Y 1 (i),D 1 (i)) potrebbe dipendere da i stesso, in quanto al variare delle deviazioni standard σ(PVFP 1 (i)), è plausibile ritenere necessario utilizzare un numero differente di simulazioni. Si ottiene quindi la seguente deviazione standard per PV 1 (i): 𝜎 �1 (𝑖) (𝐾1 (𝑖) ) ∶= � 1 𝐾1 (𝑖) − 1 𝐾1 (𝑖) (𝑖) � �𝑃𝑉1 (𝑖,𝑘) − 𝑉�1 (𝐾1 (𝑖) )� 𝑡=1 2 Ora, è possibile stimare N realizzazioni di OF 1 da � 1 (𝑖) �𝐾1 (𝑖) � ≔ 𝐴𝑁𝐴𝑉1 (𝑖) + 𝑃𝑉𝐹𝑃 � 1 (𝑖) �𝐾1 (𝑖) � + 𝑋1 (𝑖) , 𝑖 = 1, … , 𝑁. 𝑂𝐹 3.3.3 Requisito patrimoniale di solvibilità (3.3.18) (3.3.19) Dall’equazione (3.2.8) si evince che il SCR è l’α-quantile della variabile aleatoria ℒ = 𝑂𝐹0 − 𝑂𝐹1 1+𝒾 . Si è costatato che OF è approssimato attraverso lo stimatore non distorto � 0 e 𝒾 è noto in t = 0, l’aleatorietà rimane quindi in OF 1 , il passo successivo sarà quello di 𝑂𝐹 individuare l’α-quantile di –OF 1 . Tale problema verrà di nuovo risolto attraverso l’approccio delle simulazioni annidate descritte nella sezione precedente, ottenendo N ∈ ℕ realizzazioni della variabile aleatoria Z = -OF 1 , indicate con 𝑧̃1 , … , 𝑧̃𝑁 . La corrispondente statistica d’ordine è denotata con 𝑍�(1) , … , 𝑍�(𝑁) con le relative realizzazioni 𝑧̃(1) , … , 𝑧̃(𝑁) . Un metodo semplice per stimare l’α-quantile z α è di basarsi sul corrispondente empirico 𝑧̃α = 𝑧̃(𝑚) con m = [N ∙ α + 0.5]. Una stima del SCR è quindi � = 𝑂𝐹 �0 + 𝑆𝐶𝑅 𝑧̃(𝑚) 1+𝒾 (3.3.20) 3.3.4 Qualità dello stimatore e scelta di K 0 , K 1 ed N All’interno del processo di stima sono presenti tre fonti di errore: 78 1. il capitale disponibile in t = 0 viene stimato con il supporto di – ‘sole’ - K 0 traiettorie simulate; 2. vengono utilizzati – ‘solamente’ - N scenari per la stima della distribuzione; 3. il capitale disponibile in t = 1 è stimato con il supporto di – solo – K 1 traiettorie simulate per ogni scenario 35. Di conseguenza l’equazione (3.3.20) non necessariamente rappresenta una stima per il quantile della distribuzione della “vera” perdita (ℱ 1 -misurabile): ℒ = ℒ(𝑌1 , 𝐷1 ) = 𝑂𝐹0 − 𝑂𝐹1 𝐴𝑁𝐴𝑉1 + 𝑉1 + 𝑋1 = 𝑂𝐹0 − 1+𝒾 1+𝒾 (3.3.21) Si consideri allora la distribuzione della funzione di perdita: �0 − ℒ̃ (𝑌1 , 𝐷1 ) = 𝑂𝐹 𝐴𝑁𝐴𝑉1 + � 𝑡 (𝑘) 1 𝐾1 𝑇 ∑𝑘=1 ∑𝑡=2 𝑒 − ∫1 𝑟𝑢 𝑑𝑢 𝑋𝑡 (𝑘) � (𝑌1 , 𝐷1 )� + 𝑋1 𝐾1 1+𝒾 (3.3.22) In particolare, 𝐿�(𝑌1 , 𝐷1 ) non è ℱ 1 -misurabile a causa dell’errore di campionamento derivante dalla stima di OF 0 e dalla simulazione interna. Sotto opportune condizioni, però, per la legge dei grandi numeri 𝑞.𝑐. ℒ̃ (𝑌1 , 𝐷1 ) �� ℒ(𝑌1 , 𝐷1 ) 𝐾0 , 𝐾1 → ∞ (3.3.23) Ciononostante, la stima del SCR è basata su un campione distorto. Al fine di analizzare � , si scompone lo scarto quadratico medio l’influenza di questa distorsione sulla stima 𝑆𝐶𝑅 (MSE) in varianza e distorsione in linea con (Gordy & Juneja, 2008): � − 𝑆𝐶𝑅)2 ] = 𝑉𝑎𝑟�𝑆𝐶𝑅 � � + �𝐸�𝑆𝐶𝑅 𝑀𝑆𝐸 = 𝐸�(𝑆𝐶𝑅 � −�� 𝑆𝐶𝑅 ��� ����� �� � 𝑏𝑖𝑎𝑠 2 (3.3.24) �0 è stimatore non distorto di OF 0 ed è indipendente da 𝑧̃(𝑚) , considerando che 𝐴𝐶 l’equazione può essere riscritta in �0 � + 𝑉𝑎𝑟 � 𝑀𝑆𝐸 = 𝑉𝑎𝑟�𝑂𝐹 35 𝑧̃(𝑚) 𝑧̃(𝑚) 𝑧𝛼 2 � + 𝐸 �� �− � 1+𝒾 1+𝒾 1+𝒾 (3.3.25) Per semplicità, da ora in poi si denota K1(i) = K1 per ogni i ∈ {1, …, N} 79 �0 � = Si osservi che 𝑉𝑎𝑟�𝐴𝐶 𝜎0 2 𝐾0 , mentre per l’analisi degli altri due addendi si introduce 𝑍𝐾1 (𝑌1 , 𝐷1 ), valore che rappresenta la differenza tra la perdita stimata ed il suo “vero” �0 sia corretto: valore, nell’ipotesi che 𝐴𝐶 𝑡 (𝑘) 1 𝐾1 𝑇 ∑𝑘=1 ∑𝑡=2 𝑒 − ∫1 𝑟𝑢 𝑑𝑢 𝑋𝑡(𝑘) � �𝑌1, 𝐷1 � � + 𝑋1 𝐾1 𝑍𝐾1 (𝑌1 , 𝐷1 ) = 1+𝒾 𝐴𝑁𝐴𝑉1 + 𝑃𝑉𝐹𝑃1 + 𝑋1 − 1+𝒾 𝐴𝑁𝐴𝑉1 + � (3.3.26) 𝐾1 ≔ 𝑍𝐾1 ∙ �𝐾 , indicata Viene ora introdotta la distribuzione empirica congiunta di ℒ e 𝑍� 1 con 𝑔𝐾1 (∙,∙). In linea con la proposition 2 di (Gordy & Juneja, 2008), e sotto opportune condizioni di regolarità si ottiene: 𝐸� = 𝑉𝑎𝑟 � 𝑧̃(𝑚) 𝑧𝛼 �− 1+𝒾 1+𝒾 𝜃𝛼 + 𝑜𝐾1 (1⁄ 𝐾1 ) + 𝑂𝑁 (1⁄𝑁) + 𝑜𝐾1 (1)𝑂𝑁 (1⁄𝑁) 𝐾1 ∙ 𝑓(𝑆𝐶𝑅) 𝑧̃(𝑚) 𝛼(1 − 𝛼) �= + 𝑂𝑁 (1⁄𝑁 2 ) + 𝑜𝐾1 (1)𝑂𝑁 (1⁄𝑁) (𝑁 + 2)𝑓 2 (𝑆𝐶𝑅) 1+𝑖 (3.3.27) (3.3.28) Dove f(∙) è la funzione di densità della distribuzione ℒ, e θ α è: 𝜃𝛼 = − 1 𝜕 �𝑓(𝑢)𝐸�𝑉𝑎𝑟�𝑍�𝐾1 | 𝑌1, 𝐷1 � |ℒ = 𝑢� �� 2 𝜕𝑢 𝑢=𝑆𝐶𝑅 (3.3.29) 1 +∞ 2 𝜕 =− � 𝑧 𝑔 (𝑢, 𝑧)𝑑𝑧� 2 −∞ 𝜕𝑢 𝐾1 𝑢=𝑆𝐶𝑅 Il segno di θ α – e, quindi, la direzione della distorsione – verrà determinata dal segno di 𝜗 𝜗𝑢 𝑔𝐾1 (𝑢, 𝑧). Considerando che l’SCR è posizionato sulla coda destra della distribuzione e che 𝑔𝐾1 (𝑢,𝑧) +∞ ∫−∞ 𝑔𝐾1 (𝑢,𝑧)𝑑𝑙 è la funzione di densità condizionata, 𝜗 𝜗𝑢 𝑔𝐾1 (𝑢, 𝑧)� 𝑢=𝑆𝐶𝑅 sarà in generale negativa e quindi ci aspetteremo una sovrastima dell’SCR, allora la probabilità che la compagnia sia in condizione di solvibilità dopo un anno sarà in media più alta di α=99.5%. Al fine di poter ottimizzare la stima, sarebbe conveniente scegliere K 0 , K 1 , N in maniera tale che l’MSE sia il più piccolo possibile. Senza considerare i termini di ordine infinitesimo si giunge ad un problema di ottimizzazione di K 0 , K 1 , N: 80 𝜎02 𝜃𝛼2 𝛼(1 − 𝛼) + 2 2 + → 𝑚𝑖𝑛 (𝑁 𝐾0 𝐾1 ∙ 𝑓 (𝑆𝐶𝑅) + 2)𝑓 2 (𝑆𝐶𝑅) (3.3.30) soggetta al vincolo K 0 + N∙K 1 = Γ, ovvero il numero massimo di scenari che si è in grado di simulare. Via moltiplicatori di Lagrange si ottiene, per ogni scelta di Γ, 𝑁≈ 𝐾0 ≈ 𝛼(1 − 𝛼) ∙ 𝐾 12 , 2𝜃𝛼2 𝜎0 ∙ 𝐾1 ∙ 𝑓(𝑆𝐶𝑅) 𝑁 ∙ 𝐾 1 � 𝜃𝛼 2 (3.3.31) (3.3.32) Allora per ogni scelta di K 1 , si determina θ α e di conseguenza si scelgono i valori ottimali di N e K 0 . Nelle applicazioni pratiche, f, σ 0 e θ α sono ignoti, ma possono essere stimati attraverso un numero limitato di simulazioni pilota. Da notare, inoltre, che nonostante ci siano molti paralleli tra la stima del VaR di un portafoglio di derivati, settore dal quale è stata presa questa impostazione matematica via (Gordy & Juneja, 2008), ed il VaR di un portafoglio assicurativo, c’è almeno un’importante differenza: in un portafoglio di derivati, i singoli strumenti possono essere valutati indipendentemente e quindi gli errori di tariffazione si compensano all’aumentare della dimensione del portafoglio. Questo non è in generale il caso di un portafoglio assicurativo; a causa di politiche di gestione adottate a livello di compagnia – come ad esempio stategic asset allocation e partecipazione agli utili - i flussi di diversi contratti assicurativi possono essere comunque dipendenti. Non ci si può quindi basare sulla dimensione del portafoglio per trarre conclusioni sugli errori di stima delle grandezze di interesse oppure per fare scelte appropriate dei valori K 0, K 1 ed N. 81 3.4 L’impostazione matematica del modello LSMC Per valutare il SCR dobbiamo determinare la distribuzione di: 𝑂𝐹1 = 𝐴𝑁𝐴𝑉1 + 𝑃𝑉𝐹𝑃1 + 𝑋1 𝒬 𝑇 𝑡 = 𝐴𝑁𝐴𝑉1 + 𝐸 �� 𝑒𝑥𝑝 �− � 𝑟𝑢 𝑑𝑢� 𝑋𝑡 � (𝑌1 , 𝐷1 )� + 𝑋1 𝑡=2 1 (3.4.1) In questa equazione la speranza matematica condizionata è quella che crea più problemi quando si cerca di trovare la tecnica Monte Carlo più adatta. Ci si trova di fronte ad un problema analogo a quello della tariffazione delle opzioni Bermuda 36 dove “le speranze matematiche condizionate nelle iterazioni della programmazione dinamica causano la difficoltà principale allo sviluppo di tecniche Monte Carlo (Kling, Richter, & J., 2007)”. Una via percorribile è stata affrontata da (Longstaff & Schwartz, 2001), dove è stata utilizzata la funzione di regressione con il metodo dei minimi quadrati al fine di approssimare la speranza matematica condizionata. Come descritto da (Kling, Richter, & J., 2007), l’algoritmo consiste di due approssimazioni: I. la speranza matematica condizionata è sostituita da una combinazione lineare II. si approssima la combinazione lineare ottenuta dal passo precedente attraverso finita di funzioni base; simulazioni MC e la regressione lineare. Verrà inoltre dimostrato che sotto opportune condizioni sulle funzioni base l’algoritmo converge, rappresenta quindi un’alternativa valida e più efficiente per la tariffazione rispetto alle simulazioni annidate. Di seguito verrà mostrato come vengono sfruttate le analogie per ‘trasportare’ questa tecnica al problema della valutazione dell’SCR. 3.4.1 L’algoritmo dei minimi quadrati 36 Opzioni con la caratteristica che sono un misto di opzioni europee e opzioni americane. Di solito hanno una durata piuttosto lunga e l’esercizio, con prezzo d’esercizio spesso variabile, è previsto con continuità solo in certi sotto periodi durante la vita dell’opzione. La valutazione delle opzioni Bermuda presenta tutte le difficoltà tipiche delle opzioni americane. 82 Per la prima approssimazione si sostituisce la speranza matematica condizionata PVFP 1 da un numero finito di funzioni base (𝑒𝑘 (𝑌1 , 𝐷1 ))𝑘∈{1,…,𝑀} , 𝑃𝑉𝐹𝑃1 ≈ � 1(𝑀) (𝑌1 , 𝐷1 ) 𝑃𝑉𝐹𝑃 𝑀 (3.4.2) = � 𝛼𝑘 ∙ 𝑒𝑘 (𝑌1 , 𝐷1 ) 𝑘=1 Ipotizzando che la sequenza (𝑒𝑘 (𝑌1 , 𝐷1 ))𝑘≥1 sia linearmente indipendente e completa in uno spazio di Hilbert L2(Ω, σ(Y 1 ,D 1 ), 𝒫). Successivamente si approssimano le 𝒫- realizzazioni di PVFP 1 usando simulazioni di Monte Carlo. Si generano N traiettorie indipendenti (Y t (1),D t (1)),(Y t (2),D t (2)),…(Y t (N),D t (N)) per t ∈ (0,T], sotto un misura di probabilità real world per il primo anno e risk neutral per i periodi restanti. Si effettua quindi una sola simulazione per ogni scenario real world. Il parametro K 1 è quindi pari a 1. Di conseguenza, si calcolano i flussi scontati cumulati: (𝑖) 𝑃𝑉𝐹𝑃1 𝑇 (𝑖) 𝑡 (𝑖) = � 𝑋𝑡 ∙ 𝑒 − ∫1 𝑟𝑢 𝑡=2 𝑑𝑢 (3.4.3) ,1 ≤ 𝑖 ≤ 𝑁 Qui r t (i) e X t (i) denotano il tasso di interesse ed il flusso all’epoca t sotto la traiettoria (Y t (i),D t (i)) t∈(0,T] , rispettivamente per i = 1, …, N. Di seguito, tali realizzazioni sono utilizzate per determinare i coefficienti α = (α 1 ,…, α M ) � 1 (𝑀) ottenuta dalla regressione ai minimi quadrati: per l’approssimazione 𝑃𝑉𝐹𝑃 𝛼� (𝑁) = 𝑎𝑟𝑔𝑚𝑖𝑛𝛼∈ℝ 𝑀 � 𝑁 (𝑖) � �𝑃𝑉𝐹𝑃1 𝑖=1 𝑀 − � 𝛼𝑘 ∙ 𝑒𝑘 � 𝑘=1 2 (𝑖 ) (𝑖) 𝑌1 , 𝐷1 �� � (3.4.4) Sostituendo α con 𝛼� (𝑁) , si ottiene la seconda approssimazione 𝑀 � 1(𝑀) (𝑌1 , 𝐷1 ) ≈ 𝑃𝑉𝐹𝑃 � 1(𝑀,𝑁) (𝑌1 , 𝐷1 ) = � 𝛼� (𝑁) ∙ 𝑒𝑘 (𝑌1 , 𝐷1 ) 𝑃𝑉𝐹𝑃1 ≈ 𝑃𝑉𝐹𝑃 𝑘 𝑘=1 (3.4.5) Attraverso tale approssimazione è possibile calcolare le realizzazioni di OF 1 ricorrendo alle traiettorie generate in precedenza (Y t (i),D t (i)), i = 1,…,N, o più precisamente alle subtraiettorie per il primo anno, calcolando �1(𝑖) = 𝐴𝑁𝐴𝑉1(𝑖) + 𝑃𝑉𝐹𝑃 � 1(𝑀,𝑁) (𝑌1(𝑖) , 𝐷1(𝑖) ) + 𝑋1(𝑖) 𝑂𝐹 (3.4.6) 83 Dove ANAV 1 (i) e X 1 (i) denotano l’ANAV 1 e l’X 1 per le traiettorie i ∈ {1, …, N}. Basandosi su queste realizzazioni, si può ora determinare la corrispondente distribuzione empirica e di conseguenza, il SCR. � . Il SCR risultante dall’approccio Least-Squares Monte Carlo (LSM) verrà indicato con 𝑆𝐶𝑅 3.4.2 Scelta della funzione di regressione In letteratura sono disponibili diverse semplici metodologie per affrontare il problema di selezione delle variabili in modelli di regressione, come ad esempio, il Mallows’ complexity parameter (C p ), il criterio d’informazione di Akaike (AIC), criterio d’informazione di Schwartz (SIC) : tali criteri si basano su ipotesi piuttosto restrittive di omoschedasticità ed errori normalmente distribuiti (Fahrmeir, Kneib, & S., 2007). Nel problema oggetto di tesi, tali restrizioni vengono violate; ad esempio per molti asset model la varianza condizionata dei residui nella regressione per PVFP 1 dipenderà sulla traiettoria delle attività nel primo anno. Al fine di ottenere un criterio generalizzato si può osservare che: 𝑁 (𝑖) 𝐸1 �� �𝑃𝑉1 𝑖=1 ( 1) = 𝑡𝑟 �𝐶𝑜𝑣1 � �𝑃𝑉1 (𝑀,𝑁) − 𝑉�1 (𝑁) , … , 𝑃𝑉1 (𝑖) (𝑖) 2 �𝑌1 , 𝐷1 �� � � ′ ′ (𝑀,𝑁) (1) (1) (𝑀,𝑁) (𝑁) (𝑁) �𝑌1 , 𝐷1 � , … , 𝑉�1 �𝑌1 , 𝐷1 �� �� − �𝑉�1 𝑁 (𝑖) (𝑀,𝑁) + � �𝐸1 �𝑃𝑉1 � − 𝐸1 �𝑉�1 𝑖=1 (𝑖) (𝑖) �𝑌1 , 𝐷1 ��� 2 = 𝑡𝑟 �(𝐼 − 𝜀(𝜀 ′ 𝜀)−1 𝜀 ′ )𝐶𝑜𝑣1 ��𝑋 (1) , … , 𝑋 (𝑁) �′�� 𝑁 (𝑖) = � � 𝑉1 = 𝑖=1 𝑁 (𝑖) (𝑀,𝑁) (𝑖) �𝑌 1 , 𝐷1 ��� − 𝐸1 �𝑉�1 2 𝑁 (𝑖) (𝑖) 2 (𝑖) (𝑀,𝑁) (𝑖) � �𝑌 1 , 𝐷1 �� + � 𝜎1 � 𝐸1 �𝑉1 − 𝑉1 ����������������������������� 𝑖=1 𝑖=1 =𝑆𝑀𝑆𝐸 (𝑖) dove (3.4.7) (𝑁) − 2𝑡𝑟 �𝜀 (𝜀′𝜀)1 𝜀′𝑑𝑖𝑎𝑔 �𝜎1 , … , 𝜎1 �� 84 E 1 e Cov 1 denotano la speranza matematica condizionata e la covarianza in t = 1, rispettivamente; delle variabili esplicative; ′ 𝑒𝑖 = �𝑒𝑖 (𝑌1 (1) , 𝐷1 (1) ), … , 𝑒𝑖 (𝑌1 (𝑁) , 𝐷1 (𝑁) )� , 1 ≤ 𝑖 ≤ 𝑀 e ε = (e 1 ,…,e M ) è la matrice I è la matrice identità e diag(σ 1 (1), …, σ 1 (N)) è la matrice diagonale contenente le deviazioni standard per ogni simulazione Un parametro di complessità generalizzato può essere ora definito attraverso una versione empirica della somma degli errori al quadrato (SMSE), 𝑁 � = �� 𝑆𝑀𝑆𝐸 𝑖=1 (𝑖) 𝑃𝑉1 − 2 (𝑀,𝑁) (𝑖) (𝑖) �𝑌1 , 𝐷1 � � 𝑉�1 (1) + 2𝑡𝑟 �𝜀(𝜀′𝜀 ) −1 𝜀′𝑑𝑖𝑎𝑔 �𝜎�1 , … , 𝜎�1𝑁 �� 𝑁 (𝑖) − � �𝜎1 (𝑖)=1 (3.4.8) sotto l’ipotesi che i PVFP 1 (i) sono indipendenti in quanto realizzazioni ottenute attraverso il metodo MC. Il problema principale con questo criterio è che esso richiede la conoscenza della stima della varianza condizionale, dove alla fine si avrebbe la necessità di compiere simulazioni annidate. Una possibile soluzione è data da (Beak, Kraman, & Ahn, 2005), viene proposta una versione generalizzata del Mallow’s C p per dati in presenza di eteroschedasticità: i dati vengono divisi in tanti sottogruppi tali che ci sia omoschedasticità in ogni sottogruppo. Quini vengono stimate le varianze per ogni sottogruppo e la versione generalizzata di Mallow’s C p (GC p ) è ottenuta dai derivanti stimatori ai minimi quadrati pesati. Viene quindi dimostrato attraverso uno studio che il GC p seleziona il modello corretto più spesso del C p per dati con eteroschedasticità significativa. Si conclude che C p fornisce risultati migliori per dati approssimativamente omoschedastici; la scelta del criterio sarà quindi dettata dal grado di eteroschedasticità. 3.4.3 Convergenza Dalle ipotesi della sequenza delle funzioni base, si ottiene automaticamente la convergenza in media quadratica di: ∞ � 1(𝑀) → � 𝛼𝑘 ∙ 𝑒𝑘 (𝑌1 , 𝐷1 ) = 𝑃𝑉𝐹𝑃1 (𝑀 → ∞) 𝑃𝑉𝐹𝑃 𝑘=1 (3.4.9) e quindi la convergenza in distribuzione. È sufficiente, quindi, mostrare che: 85 � 1(𝑀,𝑁) →𝑑 𝑃𝑉𝐹𝑃 � 1(𝑀) (𝑁 → ∞) 𝑃𝑉𝐹𝑃 L’unico problema che impone cautela nell’applicazione dei risultati ottenuti dalla (3.4.10) letteratura econometrica è il cambio di misura all’epoca t = 1 e le implicazioni strutturali per lo spazio di probabilità. Un possibile accorgimento potrebbe essere quello di costruire una misura di probabilità alternativa, ad esempio 𝒫� , su una copia identica dello spazio di � , ℱ� , 𝔽 �) che soddisfi alla probabilità filtrato, ad esempio (Ω � 𝐸 𝒬 [𝑌(𝜔)|ℱ1 ] = 𝐸 𝒫 [𝑌(𝜔 �) |ℱ�1 ] (3.4.11) 𝒫(𝑍(𝜔) ≤ 𝓏) = 𝒫� (𝑍(𝜔 �) ≤ 𝓏) ∀𝓏 ∈ ℝ (3.4.12) per tutte le variabili aleatorie Y, e per tutte le variabili aleatorie ℱ t -misurabili Z, 0 ≤ t ≤ 1. Considerando, quindi, che le realizzazioni delle funzioni base sono i.i.d. tra le varie traiettorie, si può procedere in maniera analoga a quella di (Longstaff & Schwartz, 2001) (Sezione 2.2) e considerare il Teorema 3.5 di (Zaglauer & Bauer, 2008) il quale dichiara che sotto deboli condizioni di regolarità risulta: e quindi in distribuzione. (𝑀,𝑁) (𝑀) � , ℱ� , 𝔽 �) 𝑉�1 → 𝑉�1 , 𝑁 → ∞, 𝑖𝑛 𝐿2 (Ω (3.4.13) Ad esempio se si utilizza un modello di Black-Scholes per simulare il valore del tasso di interesse, la misura 𝒫� può essere facilmente costruita manipolando appropriatamente i termini drift. Nel modello Black-Scholes classico, il titolo S si sviluppa secondo le equazioni differenziali 𝑑𝑆𝑡 = 𝑆𝑡 (𝜇𝑑𝑡 + 𝜎 𝑑𝑊𝑡 ), 𝑆0 > 0 𝑑𝑆𝑡 = 𝑆𝑡 (𝑟 𝑑𝑡 + 𝜎 𝑑𝑍𝑡 ), 𝑆0 > 0 (3.4.14) dove μ ∈ ℝ è il drift del titolo, r ∈ ℝ il tasso di interesse, σ > 0 la volatilità, e W e Z sono � il moto browniano su moti browniani sotto 𝒫 e 𝒬, rispettivamente. Ora, se definiamo 𝑊 � , ℱ� , 𝒫� ), ed S si evolve in funzione di (Ω � 𝑡 �, 𝑆0 > 0, 𝑑𝑆𝑡 = 𝑆𝑡 �𝜇�𝑡 𝑑𝑡 + 𝜎 𝑑𝑊 (3.4.15) 86 dove 𝜇�𝑡 = 𝜇 ∙ 1{0≤𝑡≤1} + 𝑟 ∙ 1{1<𝑡<∞} , allora 𝒫� soddisfa alle proprietà richieste e, quindi, la convergenza è mostrata in questo caso particolare. 3.5 Miglioramento del modello 3.5.1 Calibrazione della funzione di regressione Si è già accennato nel § 3.1.1 che, a causa dell’errore di campionamento, uno dei maggiori problemi del modello risiede nella non corretta calibrazione della funzione di regressione. Quest’ultima è calibrata utilizzando un insieme di determinazioni simulate della grandezza d’interesse, vale a dire il PVFP 1 37, in funzione di una o più realizzazioni delle grandezze economiche all’epoca t = 1, (𝑌1 , 𝑫1 ), a loro volta simulate secondo una misura di probabilità 𝒫, real world. Senza perdita di generalità, è lecito aspettarsi che questa misura non sia uniforme sul dominio e assegni probabilità basse ai valori estremi della grandezza economica simulata. Una funzione di regressione calibrata accogliendo 𝒫, non coglierebbe bene comportamenti estremi: a valori estremi delle grandezze di interesse, il PVFP 1 previsto potrebbe essere sovra o sotto stimato. Avendo come obiettivo quello di calibrare la funzione di regressione nella maniera più precisa possibile, su tutto il dominio dei fattori di rischio, si sostituisce 𝒫 con una misura di probabilità uniforme 𝒰. La probabilità di osservare una determinazione del PVFP 1 su scenari estremi sarà ora la stessa di quelli centrali. 3.5.2 Sequenza a bassa discrepanza di Sobol La soluzione proposta non è ancora quella più efficiente. Affidandocisi a N simulazioni delle grandezze economiche in t = 1, sarebbe desiderabile che queste si distribuiscano, non solo uniformemente sul dominio, ma che occupino in maniera efficiente lo “spazio a disposizione”. Per ottenere questo risultato ci si rifà a metodi di Quasi-Monte Carlo, nello specifico alla sequenza a bassa discrepanza di Sobol. Questa sequenza di numeri pseudocasuali, sottostante alla legge uniforme, ha il vantaggio di occupare lo spazio a disposizione in maniera più ordinata ed efficiente, se confrontata con realizzazioni 37 Si osserva che il PVFP1, per ogni simulazione, come da equazione (3.4.3), è funzione delle determinazioni dei fattori di rischio relativi a tutto il periodo di run-off del portafoglio, cioè fino all’epoca t = T. La funzione di regressione spiega il valor medio del PVFP1 solamente attraverso il valore assunto dalle grandezze economiche in t = 1. 87 provenienti da una distribuzione uniforme. Si sottolinea che questa sequenza non supera molti test di randomizzazione, avendo, però, come obiettivo quello di calibrare una funzione di regressione, tale caratteristica non è ritenuta fondamentale. Il concetto di campione casuale in questo contesto non è di primaria importanza, in quanto si vuole calibrare la funzione ipotizzando di osservare l’intera popolazione, in maniera tale da fornire una funzione che descriva mediamente bene, qualunque campione casuale estratto dalla popolazione. In breve, il metodo Quasi-Monte Carlo assume che sequenze numeriche del tutto deterministiche siano in un certo senso osservazioni provenienti da una variabile aleatoria con distribuzione uniforme. Questa idea può essere resa più chiara definendo la discrepanza di una sequenza numerica. Si ipotizzi di voler costruire una sequenza di N vettori m-dimensionali all’interno dell’ipercubo Im = [0,1]m. Se questi vettori sono ben distribuiti, è ragionevole aspettarsi che il numero di punti inclusi in un sottoinsieme A di Im sia proporzionale al volume vol(A). Dato un vettore 𝑿 = (𝑥1 , … , 𝑥𝑚 ) si consideri l’iperettangolo 𝐺𝑿 = [0, 𝑥1 ) × [0, 𝑥2 ) × … × [0, 𝑥𝑚 ) (3.5.1) per il quale si definisce il volume come il prodotto 𝑥1 𝑥2 𝑥3 … 𝑥𝑚 . Definita con S N (A) la funzione che conta il numero di punti nella sequenza contenuti nel sottoinsieme A ⊂ I m , allora è possibile definire la discrepanza come: 𝐷(𝑿1 , 𝑿2 , … , 𝑿𝑁 ) = sup |𝑆𝑁 (𝐺𝑋 ) − 𝑁𝑥1 ∙ 𝑥2 ∙ … ∙ 𝑥𝑚 | 𝑿∈𝐼 𝑚 (3.5.2) Le sequenze a bassa discrepanza sono sequenze nell’intervallo (0,1) e ciò è esattamente tutto quello che occorre per la generazione di variabili casuali con distribuzione che si desidera. Una nota sequenza a bassa discrepanza è la sequenza di Sobol. Per ottenere l’n- simo numero di una sequenza di Sobol si considera dapprima la rappresentazione binaria di un numero intero n, ovvero n = (…b 3 b 2 b 1 ) 2 . Il risultato si ottiene quindi eseguendo l’operatore bitwise exclusive or - XOR (simbolo ⊕) 38 : 𝑥 𝑛 = 𝑏1 𝑣1 ⊕ 𝑏2 𝑣2 ⊕ … ⊕ bn 𝑣𝑛 (3.5.3) L’operatore bitwise exclusive or, o XOR, applicato ad una coppia di numeri binari, restituisce 1 se e solo se solamente uno dei due valori è uguale ad 1, e 0 in tutti gli altri casi. 38 88 Dove 𝑣𝑖 rappresentano i numeri direttori. Il problema si trasferisce quindi sulla ricerca degli opportuni numeri direttori per generare una sequenza quasi-casuale. Tali numeri possono essere pensati come una frazione binaria, 𝑣𝑖 = (0. 𝑣1 𝑣2 𝑣3 … )2 oppure come 𝑣𝑖 = 𝑚𝑖 2𝑖 dove 𝑚𝑖 < 2𝑖 è un intero dispari. Per la generazione di numeri direttori si sfruttano i polinomi primi appartenenti all’insieme 𝑍2 , ovvero a polinomi aventi coefficienti binari, della forma: 𝑃(𝑥) = 𝑥 𝛼 + 𝑎1 𝑥 𝛼−1 + ⋯ + 𝑎𝛼−1 𝑥 + 1 con 𝑎𝑗 ∈ {0,1}. (3.5.4) Dato un polinomio primo di grado α, la procedura per la generazione di numeri direttori si basa sulla seguente formula ricorsiva: 𝑣𝑖 = 𝑎1 𝑣𝑖−1 ⊕ 𝑎2 𝑣𝑖−2 ⊕ 𝑎3 𝑣𝑖−3 ⊕ … ⊕ 𝑎𝛼−1 𝑣𝑖−𝛼+1 ⊕ 𝑣𝑖−𝛼 ⊕ � Per ulteriori approfondimenti, consultare (Glasserman, 2004). 𝑣𝑖−𝛼 2𝛼 � con 𝑖 > 𝛼 (3.5.5) 89 Di seguito un confronto grafico tra realizzazioni provenienti da una distribuzione real world (nell’ipotesi che questa sia normale) 𝒫, uniforme 𝒰 e di Sobol 𝒮, per un numero di simulazioni pari a 100, 1.000 e 10.000. Le realizzazioni sono tutte calibrate su un dominio [-1,1] 39. N = 100 N = 1.000 N = 10.000 Il dominio non è casuale: nel prossimo capitolo, questo intervallo rappresenterà lo shock casuale applicato alla grandezza economica simulata. Ciascun fattore di rischio, quindi, viene simulato in funzione di uno shock che varia tra il -100% ed il +100%. 39 90 È possibile apprezzare come, a parità del numero di simulazioni, le determinazioni della sequenza di Sobol occupino in maniera più efficiente lo spazio a disposizione rispetto a quelle della generazione di un numero casuale proveniente dalla distribuzione uniforme. 3.5.3 Simulazione di due traiettorie risk-neutral per ogni scenario real-world in accordo con le tecniche di riduzione della varianza Nel § 3.4.1 come proposto da (Bauer, Bergmann, & Reuss, 2010), il modello LSMC opera utilizzando un singolo scenario risk neutral. Si cita quanto detto in precedenza: Si generano N traiettorie indipendenti (Y t (1),D t (1)),(Y t (2),D t (2)),…(Y t (N),D t (N)) per t ∈ (0,T], sotto un misura di probabilità real-world per il primo anno e risk neutral per i periodi restanti. Si effettua quindi una sola simulazione per ogni scenario real world. Il parametro K 1 è quindi pari a 1. Per il modello originale, descritto da (Longstaff & Schwartz, 2001), è stato proposto un miglioramento da (Rasmussen, 2002) consistente nel generare un numero di scenari risk neutral maggiore di 1, per ogni scenario real world. Si è dimostrato che generando due o tre scenari in accordo con metodi di riduzione della varianza, si migliora drasticamente la qualità della regressione. Il beneficio apportato dal modello LSMC, per quanto concerne lo sforzo computazionale, non viene peraltro compromesso. Di seguito un esempio del numero di simulazioni impiegato per ogni modello, in linea con i numeri utilizzati da Assicurazioni Generali S.p.A. MODELLO Fully nested LSMC SIMS REAL WORLD (N) SIMS RISK NEUTRAL (K 1 ) 1.000 25.000.000 25.000 2 50.000 LSMC con più scenari risk neutral 25.000 25.000 1 TOTALE 25.000 Tabella 3.5.1 La tecnica di riduzione della varianza proposta in questa tesi, ed utilizzata in fase di applicazione del modello, consiste nella simulazione di variabili antitetiche, in linea con quanto già esposto nel § 2.4.2. 91 4 Applicazione del modello Il modello LSMC verrà applicato ad un portafoglio di piani di accumulo di capitale unit- linked con garanzia di minimo. Si ipotizza che la compagnia assicurativa detiene solamente questo portafoglio. L’applicazione trae spunto da un portafoglio reale del gruppo Assicurazioni Generali S.p.A. 4.1 Descrizione della polizza È stato scelto un piano assicurativo di accumulo di capitale unit-linked con rendimento minimo garantito del 2,50%. La scelta è ricaduta su questo particolare prodotto in quanto il rendimento di tale fondo ha una forte dipendenza dall’andamento del mercato e dai riscatti, che, assieme al minimo garantito producono dinamiche non lineari sul PVFP. Se l’esercizio risulterà in linea con le attese, la distribuzione della one-year loss function ottenuta via LSMC avrà una coda più pesante di quella della distribuzione normale e quindi, il requisito di capitale sarà maggiore e più coerente con le peculiarità tecniche del portafoglio oggetto di studio. 4.1.1 Caratteristiche di una generica polizza unitlinked La caratteristica principale delle polizze unit-linked è che il rischio finanziario è retrocesso interamente o quasi al contraente. La copertura assicurativa sottostante è solitamente una mista; il premio è investito in un fondo di riferimento, selezionato dal contraente tra un insieme di fondi offerti dall’assicuratore. Infatti, i portafogli d’investimento disponibili hanno profili di rischio variegati, al fine di garantire un’offerta in grado di coprire esigenze 92 diverse. Il contraente può avere facoltà di cambiare il profilo dell’investimento dietro pagamento di una quota (switching fee) oppure gratuitamente, in determinate epoche, se nel contratto è prevista tale opzione (switching option). L’asset management ha un ruolo fondamentale in questo tipo di business. Il fondo accumulato con l’incasso dei premi è detto policy fund o policy account. I benefici vengono definiti in termini di valore del fondo disponibile all’epoca di pagamento. Nello specifico: - - - il survival benefit / maturity benefit 40 è il valore corrente del fondo collegato con la polizza, all’epoca della scadenza; il death benefit 41 è il valore corrente del fondo collegato alla polizza nell’istante di morte dell’assicurato: tale valore è incrementato da un valore non negativo rappresentante la somma sotto rischio; il surrender value 42 è il valore corrente del fondo collegato con la polizza all’epoca del riscatto, al netto della penale per il riscatto. I benefici dipendono quindi dal valore corrente del fondo collegato alla polizza, buona parte del rischio è quindi a carico dell’assicurato, in quanto tale valore gli è sconosciuto sino all’epoca del pagamento. Il nome unit-linked deriva dal fatto che il fondo di riferimento è diviso in un numero nozionale di unità. I benefici quindi possono essere visti come il valore corrente del numero di unità associate alla polizza. 4.1.2 Polizze unit-linked con garanzie finanziarie Le garanzie finanziarie in una polizza unit-linked trasferiscono parte del rischio finanziario dall’assicurato all’assicuratore. Tali garanzie si traducono in una qualunque forma di prestazione minima garantita: se, a causa di trend finanziari avversi, il fondo, all’epoca del pagamento, ha valore inferiore al minimo garantito, scatta la garanzia e viene pagato il minimo. Per semplicità si consideri ora una situazione in cui tutte le prestazioni siano soggette allo stesso tipo di garanzia. Sia B t la generica prestazione erogata in t; se t = 1,2,…,m-1 allora è un beneficio caso morte o per riscatto, mentre se t = m allora si tratta della prestazione a scadenza (sia essa corrisposta in caso morte o sopravvivenza). Beneficio a scadenza Beneficio caso morte 42 Valore di riscatto 40 41 93 Nel caso in cui l’ammontare garantito sia costante, il beneficio in t+1 risulta: 𝐵𝑡+1 = max{𝐹𝑡+1 , 𝐺} (4.1.1) Dove G è l’ammontare garantito e F t il valore del fondo in t. La quantità: 𝐾𝑡+1 = 𝐵𝑡+1 − 𝐹𝑡+1 = max{𝐺 − 𝐹𝑡+1 , 0} (4.1.2) rappresenta la somma sotto rischio, e corrisponde al pay-off di un’opzione put. Definizioni alternative dell’ammontare garantito portano all’identificazione di altri tipi di opzioni finanziarie. Nel caso oggetto di studio, la garanzia caso morte in t o a scadenza è uguale all’ammontare iniziale del fondo più i premi al netto delle spese di acquisizione versati sino a quell’epoca, capitalizzati secondo la legge esponenziale ad un tasso garantito e tolte le spese di gestione del fondo. La garanzia non opera nel caso di riscatto. Il pagamento del premio è posticipato, inizia quindi in t = 2; la peculiarità è dovuta al fatto che l’assicurato per entrare nel fondo deve versare 250.000 € prima dell’inizio del periodo di copertura (ovvero in t = 0). La durata della polizza è di 20 anni. Risulta: t 𝑡 𝑖 Gt = p0 ∙ �1 + rg � + � p ∙ (1 − s a ) ∙ (1 − 𝑠 𝑔 ) ∙ �1 + 𝑟𝑔 � dove: simbolo 𝐫𝐠 𝐬𝐚 sm 𝒔𝒈 𝐏 𝐩𝟎 𝑖=1 descrizione tasso minimo garantito spese di acquisizione (caricamento sul premio) spese di amministrazione spese di gestione del fondo premio annuo versamento iniziale Tabella 4.1.1 (4.1.3) valore 2,5% 15% 0,02% 0,2% 25.000 € 250.000 € Il fondo collegato alla polizza è invece composto per il 20% da titoli azionari e per l’80% da obbligazioni. Il valore del fondo è quindi collegato al rendimento di tale asset mix. Di seguito un possibile schema di flussi legati ad una polizza. I valori monetari sono espressi in migliaia di euro. 94 NM t 108 p 0 1 2 25 3 25 4 25 5 25 6 25 7 25 8 25 9 25 10 25 11 25 12 25 13 25 14 25 15 25 16 25 17 25 18 25 19 25 20 25 21 25 ρt Gt G t+1- Ft F t+1- BtM BtR 1,5% 1,6% 1,9% 2,3% 2,7% 3,0% 3,3% 3,5% 3,6% 3,7% 3,7% 3,7% 3,6% 3,5% 3,4% 3,3% 3,2% 3,2% 3,1% 3,0% 2,9% 250 277 305 333 362 391 422 452 484 516 550 583 618 653 690 727 765 804 843 884 925 250 256 283 312 340 370 400 431 463 495 528 562 597 632 668 706 743 782 822 863 904 947 250 275 300 327 356 387 420 455 492 531 572 614 658 703 749 796 844 893 942 993 1.044 250 254 279 306 335 366 399 434 471 510 551 593 637 682 728 775 823 872 921 971 1.022 1.074 253 280 308 337 366 396 427 463 501 541 582 626 670 716 762 810 858 907 957 1.007 1.059 252 277 303 331 361 393 427 463 501 541 582 626 670 716 762 810 858 907 957 1.007 1.059 Tabella 4.1.2 dove: t p Gt G t+1ρt Ft F t+1Bm BtM BtR epoca, la copertura inizia in t = 1 e finisce in t = 20 Premio valore della garanzia in t valore della garanzia alla fine dell’anno t rendimento del fondo in t 43 valore del fondo valore del fondo alla fine dell’anno t valore della prestazione a scadenza valore della prestazione caso morte in t 44 valore della prestazione caso riscatto in t 45 Il valore dei rendimenti in tabella rappresenta uno scenario reale, fornito su gentile concessione di A.G. S.p.A. 44 Il valore mostrato è calcolato nell’ipotesi che tale prestazione sia erogata a metà dell’anno t. Si ipotizza implicitamente, quindi, che la mortalità sia costante durante l’anno. 45 Stessa ipotesi del punto precedente. 43 95 4.2 Descrizione del portafoglio Di seguito le ipotesi assunte: - - si ipotizza che l’età di ingresso sia di 40 anni; al fine di valutare la probabilità di morire entro l’anno per un soggetto in vita all’età 40+t , cioè la probabilità condizionata q x+t , è stata utilizzata la tavola di mortalità SIM 92; ogni anno, il 5% degli assicurati riscatta la polizza; il portafoglio è composto da 1.000 polizze la durata del periodo di copertura è m = 20. Tali ipotesi hanno il seguente riflesso sul portafoglio: Tabella 4.2.1 simbolo p x+t wt NtD NtR Nt NM t q x+t wt NtD NtR Nt 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 0,00% 0,19% 0,21% 0,23% 0,25% 0,27% 0,30% 0,35% 0,38% 0,42% 0,46% 0,50% 0,55% 0,62% 0,69% 0,78% 0,87% 0,97% 1,08% 1,21% 1,34% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 5% 0 2 2 2 2 2 2 3 3 3 3 3 3 3 3 4 4 4 4 4 5 0 50 47 45 42 40 38 36 34 32 31 29 27 26 24 23 22 20 19 18 17 1000 948 899 852 807 765 725 686 649 614 581 549 519 490 462 435 410 386 363 340 319 - - - descrizione probabilità di morte in [t,t+1) per un soggetto di età x+t percentuale di polizze riscattate in t numero di decessi in t numero di riscatti in t numero di polizze presenti nel portafoglio in t numero di polizze alla scadenza NM 319 formula 𝑁𝑡−1 ∙ 𝑞𝑥+𝑡 (𝑁𝑡−1 − 𝐷𝑡 ) ∙ 𝑤𝑡 𝑁𝑡−1 − 𝑁𝑡𝐷 − 𝑁𝑡𝑅 𝑁𝑚 96 È chiaro che l’elemento più incerto a questo livello è proprio il rendimento del portafoglio. 4.2.1 Flussi monetari a livello di portafoglio I valori monetari sono espressi in migliaia di euro. t 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 99% 97% 95% 93% 91% 88% 85% 82% 79% 77% 74% 71% 69% 66% 64% 62% 60% 58% 57% 55% 53% Tabella 4.2.2 dove: simbolo rt Lt fee t Pt It Vt rt Entrata Lorda t Lt 3.371 3.195 3.028 2.869 2.717 2.572 2.434 2.303 2.178 2.059 1.945 1.836 1.732 1.633 1.538 1.447 1.360 1.276 - fee t 482 503 523 542 560 579 596 612 627 641 652 662 669 674 676 676 674 669 662 654 Pt - descrizione tasso di sconto r.f. da ta0 caricamento sui premi spese di gestione in t montepremi in t provento da investimenti in t riserva all’inizio dell’anno t 23.705 22.473 21.302 20.186 19.125 18.114 17.149 16.229 15.352 14.518 13.723 12.966 12.241 11.549 10.886 10.252 9.645 9.064 8.507 - Vt 250.000 240.568 251.020 260.782 270.277 279.648 288.756 297.424 305.536 313.004 319.730 325.579 330.380 333.987 336.371 337.517 337.470 336.267 333.940 330.530 326.101 It 3.611 4.011 4.873 6.154 7.522 8.734 9.740 10.566 11.231 11.723 12.015 12.095 12.001 11.796 11.532 11.232 10.905 10.560 10.204 9.846 - Entrata Lorda t 254.094 268.787 278.889 288.779 298.546 308.086 317.207 325.751 333.624 340.720 346.915 352.060 356.017 358.698 360.129 360.312 359.301 357.141 353.870 349.536 326.101 formula 𝑁𝑡 ∙ 𝑝 ∙ 𝑠 𝑎 𝑁𝑡 ∙ 𝐹𝑡+1− ∙ 𝑠 𝑔 1 − 𝑠𝑔 𝑁𝑡 ∙ 𝑝 (𝑉𝑡 + 𝑃𝑡 − 𝐿𝑡 ) ∙ 𝜌𝑡 − (𝑂𝑡𝑑 + 𝑂𝑡𝑠 ) ∙ ��1 + 𝜌𝑡 − 1� 𝑉𝑡 − 𝑓𝑒𝑒𝑡 + 𝑃𝑡 +𝑉𝑡 + 𝐼𝑡 97 adm t Om Otd Ots V t+1- Uscita Lorda t Flusso Netto t 253.663 264.730 275.059 285.110 295.026 304.706 313.955 322.629 330.626 337.842 344.152 349.407 353.471 356.257 357.790 358.071 357.158 355.093 351.915 347.673 431 4.057 3.830 3.669 3.519 3.380 3.252 3.122 2.997 2.878 2.763 2.653 2.546 2.441 2.340 2.240 2.143 2.048 1.955 1.863 49 51 53 55 57 59 61 63 64 66 67 68 69 69 69 69 69 68 67 66 - 477 550 624 711 797 918 1.068 1.222 1.375 1.521 1.680 1.882 2.147 2.417 2.737 3.060 3.405 3.781 4.184 4.595 12.569 13.110 13.600 14.067 14.524 14.972 15.402 15.808 16.184 16.525 16.826 17.076 17.269 17.400 17.467 17.472 17.418 17.304 17.134 16.911 250.000 240.568 251.020 260.782 270.277 279.648 288.756 297.424 305.536 313.004 319.730 325.579 330.380 333.987 336.371 337.517 337.470 336.267 333.940 330.530 326.101 - 326.101 - - - 326.101 PVFP 42.349 Tabella 4.2.3 dove: simbolo adm t Om Otd Ots V t+1Uscita Lorda t Flusso netto t PVFP 46 descrizione spese di amministrazione in t prestazioni per uscite a scadenza prestazioni per uscite caso morte in t prestazioni per riscatto in t riserva alla fine dell’anno t 46 valore attuale dei flussi del portafoglio formula 𝑉𝑡+1− ∙ 𝑠 𝑚 𝑁 𝑀 ∙ 𝐵𝑚 𝑁𝑡𝐷 ∙ 𝐵𝑡𝑚 𝑁𝑡𝑅 ∙ 𝐵𝑡𝑅 𝑁𝑡 ∙ 𝐹𝑡+1− 𝑚 𝑑 𝑂𝑡 + 𝑂𝑡 + 𝑂𝑚 + 𝑎𝑑𝑚𝑡 + 𝑉𝑡+1− 𝐸𝑛𝑡𝑟𝑎𝑡𝑎 𝐿𝑜𝑟𝑑𝑎𝑡 − 𝑈𝑠𝑐𝑖𝑡𝑎 𝐿𝑜𝑟𝑑𝑎𝑡 𝑚 � 𝐹𝑙𝑢𝑠𝑠𝑜 𝑛𝑒𝑡𝑡𝑜𝑡 ∙ 𝑟𝑡 𝑡=1 un istante prima dell’inizio dell’anno t+1 98 Considerato questo schema, gli elementi che generano maggiore aleatorietà nella valutazione del PVFP, sono il rendimento ρ, il tasso risk-free r e la percentuale di riscatti w. Questi tre fattori saranno in seguito simulati per ottenere la distribuzione probabilistica del PVFP via LSMC. È certamente ragionevole considerare anche la probabilità di morte come elemento non certo; in questo prodotto di accumulo assicurativo la sua influenza è decisamente marginale e quindi, per non complicare ulteriormente l’esercizio, si è scelto di non considerarla aleatoria. Analizzare la mortalità con metodologie stocastiche implica, inoltre, affrontare la relativa branca attuariale che tratta di tale argomento, esulando dagli obiettivi di questa tesi. 99 4.3 Simulazione stocastica per ρ, r e w Si procede simulando traiettorie su un intervallo ventennale, del rendimento dei titoli nel portafoglio, ρ, e del tasso di sconto r. La percentuale di polizze riscattate, w, consiste di una sola simulazione per scenario, è quindi mantenuta costante su tutto l’intervallo di run-off del portafoglio. Lo shock per ρ ed r viene applicato su determinati fattori dei modelli che generano le traiettorie; i dettagli verranno spiegati in seguito quando si tratterà dei modelli sottostanti agli scenari. Per quanto concerne la percentuale di riscatti, w, non essendoci un modello sottostante, lo shock stesso rappresenta la variazione in termini percentuali, dalla percentuale media di riscatto. Si accoglie l’ipotesi che gli shock possono assumere determinazioni nell’intervallo[-1,1] (±100%. di shock) Seguendo l’approccio LSMC, si simulano stocasticamente per ogni fattore di aleatorietà le relative realizzazioni, secondo la sequenza dei numeri a bassa discrepanza di Sobol. Queste simulazioni saranno utilizzate per calibrare la funzione di regressione. A tal proposito è stata utilizzata l’applicazione di analisi statistiche R. L’intervallo di simulazione per ciascun fattore è [-1,1], rappresentante uno shock del fattore del ±100%. Sono state effettuate 25.000 simulazioni per ogni fattore. Una volta ottenute le simulazioni secondo la sequenza di Sobol nell’intervallo (-1,+1), si procede nella realizzazione dei relativi scenari stocastici. Si ricorda che gli scenari devono essere real-world per il primo anno di valutazione e risk-neutral per quelli successivi. Il numero di anni da simulare per l’analisi del portafoglio unit-linked è pari a 20. Per ogni scenario real-world vengono simulati due scenari risk-neutral, ottenuti con la tecnica di riduzione della varianza. Questo processo viene eseguito per ρ e r. 4.3.1 Modello per la percentuale di riscatti Per quanto concerne la percentuale di riscatti, w, la sua realizzazione secondo la sequenza di Sobol rappresenta di per sé lo scenario: si ipotizza, infatti, che lo shock avvenga solo al primo anno, restando poi costante per quelli successivi. Tale shock, inoltre, influisce sul calcolo della percentuale di riscatti in t, w t , attraverso la seguente espressione: 100 𝑤𝑡𝑠ℎ𝑜𝑐𝑘𝑒𝑑 = 𝑤𝑡 �1 + 𝑠ℎ𝑜𝑐𝑘 2 � (4.3.1) 4.3.2 Modello di Black-Karasinki a due fattori per il tasso di sconto risk free L’andamento aleatorio del tasso di sconto risk free, o dell’equivalente tasso d’interesse risk free a pronti, è stato descritto attraverso il modello Black-Karasinki a due fattori. Tale modello può essere visto come la versione log-normale del modello di Vasicek. Entrambi i modelli non descrivono l’andamento del tasso di sconto bensì la relativa intensità istantanea di interesse (o spot rate) δ t . La sua variazione in un intervallo di ampiezza infinitesima [t, t + dt] è descritta da: 𝑑ln(𝛿𝑡 ) = 𝑎1 (ln(𝑚) − ln(𝛿𝑡 )𝑑𝑡 + 𝜎1 𝑑𝑊𝑡1 con 𝑖 > 𝛼 (4.3.2) 𝑑𝑙𝑛(𝑚) = 𝑎2 (𝜇 − ln(𝑚))𝑑𝑡 + 𝜎2 𝑑𝑊𝑡2 (4.3.3) mentre il mean-reversion level segue il processo stocastico: Dove: - dln(δ t ) è la variazione del logaritmo dello spot rate nell’intervallo [t, t + dt); ln(m) è il logaritmo del valore tendenziale dello spot rate (m > 0) a 1 e a 2 sono le aliquote di richiamo del logaritmo dello spot rate dal livello corrente ln(δ t ) a quello tendenziale ln(m) (a > 0) σ 1 e σ 2 sono le volatilità (> 0) W t 1e W t 2 sono moti Browniani indipendenti. dW t 1 e dW t 2 sono le variazioni aleatorie dei moti nell’intervallo [t, t + dt) Si osservi che il primo addendo del membro di destra della prima equazione rappresenta la variazione deterministica dello spot rate, legata all’ipotesi che esista un livello, lm(m) , assunto dallo spot rate in assenza di “disturbi”. Il ruolo di tale aliquota è di regolare la velocità con cui lo spot rate si avvicina a tale livello nel caso se ne sia discostato. Il secondo addendo è invece una quantità stocastica che, in relazione al coefficiente di volatilità σ 1 (che comprime o espande le variazioni del moto W t 1 trasferendole sullo spot rate) imprime allo spot rate deviazioni casuali (di segno positivo o negativo) rispetto al valore corrente. Analoghe osservazioni per la seconda equazione. Il tasso annuo d’interesse, e quindi il fattore di sconto, si ricava per integrazione dei valori assunti dallo spot rate in un dato anno, tramite la nota relazione: 101 𝑡 𝑟𝑡 = 𝑒 − ∫0 𝛿𝑡+𝑢 𝑑𝑢 Sotto tali ipotesi la distribuzione del tasso di sconto è log-normale. (4.3.4) La realizzazione degli scenari per il tasso di sconto è stata effettuata attraverso un’applicazione interna del gruppo A.G. S.p.A. che calcola gli scenari attraverso tecniche numeriche, nello specifico attraverso un albero binomiale bidimensionale. Tale applicazione ha prodotto gli scenari attraverso il modello appena descritto, considerando gli shock (ovvero le determinazioni ottenute dalla sequenza di Sobol) prodotti al valore tendeziale dello spot rate. Inoltre, per le simulazioni per t ≥ 2, l’applicazione aggiusta la determinazione prodotta fintantoché non supera il test di martingalità, condizione necessaria per essere coerente con la neutralità al rischio. In totale, considerando 25.000 scenari real-world, 2 scenari risk-neutral ciascuno, ed un orizzonte temporale di 20 anni, sono stati prodotti 1.000.000 di valori. Nella pagina seguente vengono riportate dieci realizzazioni del tasso di sconto. 102 Figura 4.3.1 Di seguito un grafico riportante 500 simulazioni del tasso di sconto. 100% 90% 80% Tasso di sconto 70% 60% 50% 40% 30% 20% 10% 0% 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 t Figura 4.3.2 103 La tabella di seguito riporta alcune realizzazioni rispetto allo shock applicato. Il grafico sotto mostra le traiettorie basate sui dati in tabella: è così possibile comprendere come influisce lo shock sull’andamento del fattore di sconto. Le traiettorie con lo stesso colore hanno lo stesso shock applicato. shock -99% -100% -99% -100% 1 99% 99% 99% 99% 2 99% 99% 99% 98% 3 98% 99% 99% 98% 4 98% 98% 99% 97% 5 98% 98% 98% 97% 6 97% 98% 98% 96% 7 97% 98% 98% 96% 8 96% 98% 97% 95% 9 95% 97% 97% 95% 10 93% 97% 97% 95% 11 92% 96% 97% 95% 12 92% 96% 97% 95% 13 91% 95% 97% 95% 14 91% 94% 96% 95% 15 90% 92% 96% 95% 16 89% 90% 95% 95% 17 88% 88% 95% 95% 18 87% 84% 95% 95% 19 86% 82% 94% 95% 20 84% 80% 94% 95% -50% -51% -50% -51% 99% 99% 99% 99% 98% 98% 98% 98% 97% 97% 97% 97% 96% 97% 97% 96% 95% 96% 97% 96% 93% 92% 97% 95% 92% 91% 96% 95% 91% 90% 96% 95% 90% 87% 95% 95% 89% 85% 94% 95% 89% 84% 93% 94% 88% 84% 92% 93% 88% 83% 92% 93% 88% 83% 91% 93% 88% 82% 91% 92% 88% 82% 90% 92% 88% 81% 90% 92% 88% 81% 89% 91% 88% 79% 88% 91% 85% 79% 87% 91% 0% 0% 0% 0% 98% 98% 98% 98% 96% 97% 94% 95% 95% 96% 90% 93% 95% 95% 86% 91% 94% 94% 81% 90% 94% 93% 78% 89% 93% 92% 74% 89% 92% 90% 72% 88% 91% 87% 71% 88% 87% 84% 70% 88% 81% 82% 68% 88% 74% 78% 67% 87% 70% 76% 65% 86% 67% 75% 63% 85% 65% 70% 62% 82% 63% 63% 62% 79% 61% 53% 61% 77% 60% 44% 61% 75% 58% 36% 61% 72% 55% 28% 61% 69% 50% 51% 50% 50% 96% 96% 96% 96% 93% 95% 94% 95% 88% 93% 91% 94% 84% 89% 87% 93% 75% 86% 81% 90% 68% 84% 71% 88% 62% 82% 65% 82% 57% 81% 59% 76% 53% 80% 54% 70% 49% 78% 44% 65% 45% 76% 37% 61% 41% 74% 34% 57% 36% 72% 28% 49% 31% 69% 25% 45% 25% 63% 19% 42% 20% 58% 14% 39% 13% 53% 9% 37% 8% 48% 6% 34% 5% 44% 4% 32% -1% 34% 3% 28% 99% 100% 100% 100% 94% 94% 94% 94% 85% 88% 90% 89% 76% 78% 86% 85% 68% 70% 78% 79% 60% 60% 68% 71% 53% 52% 61% 56% 46% 49% 53% 43% 39% 45% 48% 27% 36% 42% 42% 21% 32% 38% 33% 13% 30% 36% 24% 8% 29% 32% 19% 6% 28% 28% 14% 3% 27% 25% 11% 3% 25% 22% 8% 2% 24% 18% 6% 1% 23% 14% 4% 1% 22% 12% 3% 1% 21% 8% 3% 1% 20% 5% 2% 1% 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Tasso di sconto Tabella 4.3.1 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% 0% t Figura 4.3.3 104 Di seguito, invece, è possibile apprezzare come varia il fattore di sconto al primo anno al variare dello shock. 100% 99% tasso di sconto in t = 1 98% 97% 96% 95% 94% -100,00% 93% 0,00% -50,00% 50,00% 100,00% shock Figura 4.3.4 Il grafico soprastante mostra l’andamento del fattore di sconto al primo anno al variare dello shock. È possibile apprezzare l’andamento non lineare. Si dà ora evidenza di come è intervenuta la tecnica di riduzione della varianza nel processo. In ogni grafico successivo è presente una coppia di traiettorie realizzate considerando tale tecnica; al variare del grafico varia lo shock applicato. tasso di sconto tasso di sconto - shock -99% 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% 0% 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Series1 98%96%95%95%94%94%93%92%91%87%81%74%70%67%65%63%61%60%58%55% Series2 98%96%91%85%72%61%58%55%53%52%52%51%51%50%49%47%46%45%44%32% Figura 4.3.5 105 tasso di sconto tasso di sconto - shock -50% 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% 0% 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Series1 98%97%95%93%91%89%88%88%87%86%86%85%84%83%82%82%81%81%80%78% Series2 98%95%93%91%90%87%82%77%69%64%60%56%52%50%47%41%36%32%30%29% Figura 4.3.6 tasso di sconto - shock 0% tasso di sconto 100% 80% 60% 40% 20% 0% 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Series1 94%84%76%70%51%45%31%19%11% 7% 5% 3% 2% 1% 1% 1% 0% 0% 0% 0% Series2 94%92%90%86%85%82%81%80%79%79%78%78%77%77%77%76%76%75%75%74% Figura 4.3.7 106 tasso di sconto tasso di sconto - shock 50% 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% 0% 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Series1 99%98%97%96%95%94%93%92%91%91%90%90%89%88%86%84%82%80%79%78% Series2 99%99%98%98%97%96%95%94%93%92%91%90%89%89%88%88%88%88%87%87% Figura 4.3.8 tasso di sconto - shock 99% 120% tasso di sconto 100% 80% 60% 40% 20% 0% 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Series1 99%97%95%91%88%78%71%64%61%57%55%52%50%49%48%47%46%45%43%40% Series2 99%98%97%97%96%96%96%96%96%95%95%95%94%94%92%92%91%91%90%90% Figura 4.3.9 107 4.3.3 Modello di Heston per il rendimento dei titoli azionari Il rendimento dei titoli in portafoglio è simulato utilizzando il modello di (Heston, 1993). Tale modello ha rappresentato un passo in avanti rispetto ai precedenti modelli stocastici. Ha infatti introdotto il concetto di volatilità stocastica espressa in forma chiusa da equazioni differenziali. Tale modello inoltre, permette di descrivere la forma della distribuzione probabilistica del rendimento e come quest’ultima varia nel tempo, includendo la possibilità di considerare code pesanti e asimmetria. Approcci precedenti, come il modello Black & Scholes introdotto venti anni prima, erano basati sull’assunzione, molto forte, che la distribuzione probabilistica dei rendimenti fosse normale con media e varianza nota. Il modello di Heston ipotizza che S(t), il prezzo del titolo in t, è determinato dal processo stocastico (Willmot, 2006): dove: - 𝑑𝑆(𝑡) = 𝜇𝑆(𝑡)𝑑𝑡 + �𝑣(𝑡)𝑆(𝑡)𝑑𝑊1 (𝑡) (4.3.5) μ è il rendimento medio del titolo; W 1 (t) è un processo di Wiener, e quindi è un processo random walk; 𝑣(𝑡), la varianza istantanea, è un processo markoviano definito dall’equazione differenziale stocastica: 𝑑𝑣(𝑡) = 𝛼 [𝜎 2 − 𝑣(𝑡)]𝑑𝑡 + 𝑘�𝑣(𝑡)𝑑𝑊2 (𝑡) dove 𝑊2 (𝑡) è un processo di Wiener e α, σ2, k i parametri: - (4.3.6) α rappresenta la velocità di ritorno di v(t) a σ2; σ2 la media del processo, o “varianza del prezzo a lungo termine”: al divergere di t 𝑣(𝑡) tende a σ2; k è la volatilità della volatilità (volatility of the volatiliy – vol of vol); come suggerisce il nome, rappresenta la varianza di 𝑣(𝑡). W 1 (t) e W 2 (t) sono correlati. Il loro grado di correlazione è espresso dal parametro ρ attraverso: 𝑑𝑣(𝑡) = 𝛼 [𝜎 2 − 𝑣(𝑡)]𝑑𝑡 + 𝑘�𝑣(𝑡)𝑑𝑊2 (𝑡) (4.3.7) 108 𝑑𝑊2 (𝑡) = 𝜌𝑑𝑊1 (𝑡) + �1 − 𝜌2 𝑑𝑊(𝑡) (4.3.8) Condizione necessaria (di Feller) affinché 𝑣(𝑡) risulti positivo (Albrecher, Schoutens, & Tistaert, 2006). 2𝛼𝜎 2 ≥ 𝑘 2 (4.3.9) Per ulteriori approfondimenti, fare riferimento a (Heston, 1993), (Willmot, 2006), (Albrecher, Schoutens, & Tistaert, 2006) . I parametri summenzionati sono stati calibrati sui valori osservati sull’indice di titoli dell’eurozona ”Euro Stoxx 50”. Si dà evidenza di come è intervenuta la tecnica di riduzione della varianza nel processo. In ogni grafico successivo è presente una coppia di traiettorie realizzate considerando tale tecnica; al variare del grafico varia lo shock applicato. shock - 99% 150% rendimento in t 100% 50% 0% -50% -100% 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Series1 -89 -49 32%15% -23 -9% -36 8% 19%38% -11 28% -26 -27 -22 -16 5% 13%-5% 8% Series2 -90 99% -22 -8%33%13%62%-3% -11 -22 24% -15 45%50%41%30% 8% 0% 19%16% Figura 4.3.10 109 rendimento in t shock -50% 100% 80% 60% 40% 20% 0% -20% -40% -60% 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Series1 -39 54% -24 12% -10 -33 -5% 4% -28 14%-3%13% -27 29%84%-1%50%76%54%60% Series2 6% -38 25% -15 6% 42% 0% -9%32% -15 -1% -14 36% -18 -41 15% 2% -23 -4% -17 Figura 4.3.11 rendimento in t shock 0% 150% 100% 50% 0% -50% 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Series1 19% -17 -21 -10 29%-7%39%62%28% -35 -23 9% -1%12% -18 -22 0% -26 17%-6% Series2 96%15%24%12% -15 17% -29 -39 -23 51%30%-6% 0% -12 20%26%-2%33% -16 6% Figura 4.3.12 110 shock 50% rendimento in t 200% 150% 100% 50% 0% -50% 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Series1 149 -18 -20 -14 44% -17 26% -36 46% 8% 4% 31% -11 -24 45%44%-2%11% -25 -34 Series2 10720%25%16% -27 25% -18 62% -30 -4% 0% -20 20%45% -21 -17 42%39%104 132 Figura 4.3.13 shock 99% rendimento in t 250% 200% 150% 100% 50% 0% -50% -100% 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Series1 19810% -16 8% 21%40%12939%52%137 12515%-6%40% 9% 37%71%55%55%48% Series2 200 -6%20%-3% -5% -18 -38 10% 1% -35 -32 -3% 9% -16 3% 12% -19 -1% -1% 4% Figura 4.3.14 Si osservi come a differenza delle simulazioni del tasso di sconto, i valori al primo anno, data una coppia di traiettorie antitetiche, possono risultare diversi tra loro. Il modello di Black-Karasinski quindi, data una coppia di variabili aleatorie antitetiche, fornisce lo stesso risultato per t = 1; tale affermazione non risulta essere vera per il modello di Heston. La rappresentazione grafica 4.3.15, del valore del rendimento in t = 1 al variare dello shock applicato, non descrive più una funzione come nel caso del tasso d’interesse, bensì una nuvola di punti che rappresenta idealmente un intervallo di confidenza per il quale passa la vera funzione. 111 Figura 4.3.15 112 4.4 Simulazione del portafoglio Considerate le dinamiche degli scenari e del portafoglio, si procede alla simulazione dei PVFP. Si definisce 𝑓 la funzione che descrive la dinamica del portafoglio visto in precedenza 47: ad ogni possibile configurazione del portafoglio la funzione vi associa il relativo PVFP. Gli unici elementi che variano in ogni scenario sono: - il tasso di sconto {r t , t = 1, …, 20}; la percentuale di riscatti {w t , t = 1, …, 20}; il tasso del rendimento del portafoglio {ρ t , t = 1, …, 20}. tutti gli altri fattori restano fissi ed identici a quanto descritto in precedenza. Il numero di scenari simulati è pari a 25.000, utilizzando la tecnica di riduzione della varianza via variabili antitetiche (due simulazioni risk neutral per ciascuna real-world) – nello specifico, una coppia di variabili antitetiche per ogni scenario. Il numero di scenari risulta quindi essere pari a N = 50.000. L’i-simo valore simulato del PVFP è: (𝑖) (𝑖) ′ (𝑖) (𝑖) ′ 𝑃𝑉𝐹𝑃(𝑖) = 𝑓�𝒓(𝑖) , 𝝆(𝑖) , 𝑤 (𝑖) � 𝑖 = 1, … , 𝑁; 𝒓(𝑖) = �r1 , … , r20 � ; 𝝆(𝑖) = �ρ1 , … , ρ20 � ; 𝑖 = 1, … , N I valori del PVFP sono stati calcolati attraverso un foglio di calcolo programmato 48. Vengono riportati alcuni dati relativi ai 25.000 PVFP simulati, ottenuti attraverso il software di analisi statistiche R: Min. -50420000 1st Qu. 15540000 Median 27650000 Mean 24760000 3rd Qu. 35230000 Max. 56570000 La distribuzione è generata in accordo con stress dei fattori di rischio con misura di probabilità 𝒮 di Sobol. Discostandosi dalla realtà, sarebbe fuorviante fornire commenti su tale distribuzone empirica, utilizzata solamente per calibrare la funzione di regressione. È È sicuramente possibile scrivere tale funzione in forma chiusa analizzando le dinamiche descritte in precedenza, tale operazione risulta però di scarso interesse ai fini espostivi. 48 Il foglio di calcolo utilizzato è MS Excel 2010 e la programmazione è avvenuta via Visual Basic for Applications (VBA). L’algoritmo realizzato non fa altro che associare N (50.000) volte al portafoglio i dati degli scenari e salvare ogni volta il relativo PVFP. 47 113 ragionevole aspettarsi che la vera distribuzione del PVFP abbia una media simile, valore minimo superiore e valore di massimo inferiore. Si vuole osservare se la serie dei PVFP ordinata in senso crescente denota andamenti particolari: Figura 4.4.1 Osservando il grafico soprastante è possibile certamente affermare che il PVFP non viene generato da dinamiche lineari. 4.4.1 Applicazione dell’algoritmo LSMC Si procede ora all’analisi di regressione in accordo con il modello teorico definito nel §3.4.1. Si sceglie di utilizzare la tecnica stepwise abbinata al criterio AIC per la selezione del modello. Il modello inziale è lineare e include nella funzione di regressione i fattori di stress (distribuiti uniformemente secondo Sobol) espressi fino al terzo grado considerando tutte le possibili interazioni. Si utilizza quindi una base polinomiale di terzo grado, dove le variabili esplicative sono i fattori di stress applicati ai relativi fattori di rischio, denominati: - - IR_s per il tasso di sconto, IR_m per il mean reversion level del tasso di sconto; Equity per il rendimento dei titoli in portafoglio, Lapse per la percentuale di riscatti. 114 Si procede con la ricerca di 𝛼� (𝑁) come definito dall’equazione (3.4.4): 25.000 𝛼� (25.000) = 𝑎𝑟𝑔𝑚𝑖𝑛𝛼∈ℝ 616 � � 𝑖=1 (𝑖) �𝑃𝑉𝐹𝑃1 616 − � 𝛼𝑘 ∙ 𝑒𝑘 � 𝑘=1 2 (𝑖 ) (𝑖) 𝑌1 , 𝐷1 �� � La funzione di regressione risulta avere 616 addendi. Si applica la procedura stepwise al modello, riducendo il numero di addendi solamente a quelli significativi (in totale 18 più l’intercetta): Call: lm(formula = PVFP ~ IR_s + IR_m + Equity + Lapse + I(IR_s^2) + I(Equity^2) + I(Lapse^2) + IR_s:IR_m + IR_s:Equity + IR_s:Lapse + IR_s:I(IR_s^2) + IR_s:I(IR_m^2) + IR_s:I(Lapse^2) + IR_m:Lapse + IR_m:I(IR_s^2) + Equity:Lapse + Equity:I(IR_m^2) + Lapse:I(IR_s^2), data = dati_Sobol) Coefficients: (Intercept) IR_s IR_s^3 IR_m Equity Lapse I(IR_s^2) I(Equity^2) I(Lapse^2) IR_s:IR_m IR_s:Equity IR_s:Lapse IR_s:I(IR_m^2) IR_s:I(Lapse^2) IR_m:Lapse IR_m:I(IR_s^2) Equity:Lapse Equity:I(IR_m^2) Lapse:I(IR_s^2) Estimate Std. Error t value Pr(>|t|) 27836097 162402 171.403 < 2e-16 *** 10146034 381788 26.575 < 2e-16 *** -1513164 492805 -3.071 0.002139 ** 1093471 193535 5.650 1.62e-08 *** 5499637 193542 28.416 < 2e-16 *** -1718729 193540 -8.880 < 2e-16 *** -7731941 249889 -30.941 < 2e-16 *** -546620 249889 -2.187 0.028719 * -952995 249887 -3.814 0.000137 *** -736223 223506 -3.294 0.000989 *** -4575312 223536 -20.468 < 2e-16 *** -6979235 223545 -31.221 < 2e-16 *** 863191 432816 1.994 0.046123 * 1789394 432964 4.133 3.59e-05 *** -774348 223564 -3.464 0.000534 *** -1077934 432801 -2.491 0.012759 * -2034875 223518 -9.104 < 2e-16 *** 714097 432907 1.650 0.099049 . 3699924 432953 8.546 < 2e-16 *** In linea con l’equazione (3.4.2): 115 � 1(19) (𝐼𝑅𝑠 , 𝐼𝑅𝑚 , 𝐸𝑞𝑢𝑖𝑡𝑦, 𝐿𝑎𝑝𝑠𝑒) = 𝑃𝑉𝐹𝑃 = 27.836.097 + + 10.146.034 ∙ IR s − 7.731.941 ∙ IR2s − 1.513.164 ∙ IR3s + + 1.093.471 ∙ IR m + + 5.499.637 ∙ Equity − 546.620 ∙ Equity 2 + −1.718.729 ∙ Lapse − 952.995 ∙ Lapse2 + −736.223 ∙ IR s ∙ IR m − 4.575.312 ∙ IR s ∙ Equity − 6.979.235 ∙ IR s ∙ Lapse (4.4.1) − 774.348 ∙ IR m ∙ Lapse − 2.034.875 ∙ Equity ∙ Lapse + 863.191 ∙ IR s ∙ IR2m + 1.789.394 ∙ IR s ∙ Lapse2 − 1.077.934 ∙ IR 𝑚 ∙ IR2s + 714.097 ∙ Equity ∙ IR2m + 3.699.924 ∙ Lapse ∙ IR2s Il modello selezionato ha 18 termini più l’intercetta. È difficile fornire indicazioni sulla numerosità massima dei regressori da utilizzare in questo contesto; considerando che la struttura di tale funzione potrebbe dover essere spiegata a soggetti terzi (come ad esempio un istituto di vigilanza) e, nell’eventualità, avere la capacità di spiegare il significato delle interazioni tra i termini, è certamente buona norma tenere il numero di regressori più basso possibile. Un ulteriore osservazione: è lecito considerare i termini incrociati come una manifestazione di presenza di correlazione tra gli stress, e quindi dei fattori di rischio. Se si considera che le serie dei fattori di rischio sono indipendenti tra loro, tale correlazione potrebbe avere origine dalla struttura del portafoglio che ha generato i relativi PVFP. Considerando, ora, le matrici di correlazione tra i rischi utilizzate nello standard model nel caso in cui vengano utilizzati i parametri specifici d’azienda, o comunque presenti anche nei modelli interni, sarebbe quantomeno opportuno verificare che tali termini incrociati non diano informazioni diverse da quelle iscritte nelle matrici. Nell’ipotesi che questi termini siano l’espressione di correlazione tra i rischi generata dalla struttura del portafoglio, allora questa dovrebbe contribuire a quella presente nella matrice di correlazioni, che invece è espressione di correlazione tra rischi dovuti sia a processi interni che fenomeni esterni. L’utilizzo dei termini di interazione per la calibrazione della matrice delle correlazioni meriterebbe sicuramente uno studio più appronfodito. 116 4.4.2 Backtesting Si vuole testare la bontà della funzione di regressione. Si procede attraverso la tecnica del backtesting. Sono stati calcolati i valori esatti del PVFP per diverse combinazioni di stress sui fattori di rischio e confrontati con quelli previsti dalla funzione di regressione. I valori sono considerati esatti (detti anche punti di validazione) in quanto ottenuti come media di 1000 simulazioni per ciascuna combinazione di stress; tale numero di simulazioni si è dimostrato ragionevolmente elevato per fornire una buona stima del vero valore. Si riportano di seguito i risultati. IR_r IR_m Equity Lapse PVFP Validazione Delta 0% -90% -50% -25% 25% 50% 90% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% -90% -50% -25% 25% 50% 90% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% -90% -50% -25% 50% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% 0% -90% -50% -25% 25% 50% 90% 26,37 9,73 18,57 23,11 28,42 29,45 29,37 24,52 25,34 25,84 26,70 26,87 27,06 23,97 25,70 27,03 29,99 27,18 26,60 26,71 25,90 25,24 23,88 26,17 10,27 18,04 22,35 28,49 29,79 29,18 24,57 24,60 25,41 26,46 26,35 26,74 22,29 24,63 25,37 30,29 27,33 26,45 26,36 25,89 25,54 23,80 0,21 -0,54 0,53 0,75 -0,07 -0,34 0,19 -0,05 0,74 0,43 0,23 0,52 0,32 1,68 1,07 1,66 -0,30 -0,15 0,15 0,35 0,01 -0,30 0,08 Tabella 4.4.1 La prima riga rappresentata è relativa allo scenario centrale, ovvero quello in cui non è applicato alcuno stress. A seguire, gli stress vengono applicati marginalmente per ogni fattore di rischio. Si fa qui un utilizzo improprio del concetto di marginalità: lo scenario è sempre funzione di tutti i rischi considerati, ma applicando lo shock solo ad uno di questi, 117 questo può essere interpretato come marginale rispetto al rischio shokkato. La differenza tra la colonna PVFP, che rappresenta i valori ottenuti attraverso la funzione di regressione e la colonna Validazione è molto bassa. Si noti che i valori monetari sono espressi in milioni di euro. Di seguito una rappresentazione grafica della tabella. IR_r PVFP (mln €) 30 28 26 24 22 20 18 16 14 12 10 -100% -50% 0% 50% 100% Shock Figura 4.4.2 La funzione di regressione, in blu, passa per quasi tutti i punti di validazione di IR_r, che rappresenta la percentuale di shock applicata al tasso di interesse. IR_m PVFP (mln €) 30 28 26 24 22 20 18 16 14 12 10 -100% -50% 0% 50% 100% Shock Figura 4.4.3 118 Nel caso dello shock al IR_m, applicato anch’esso al tasso di interesse, la funzione di regressione si comporta in maniera peggiore. Cattura solamente un punto, sovrastimando mediamente il vero valore. L’impatto di questo shock sul PVFP è molto basso, facendone variare il valore in un intervallo compreso tra 24,5 e 27 milioni di euro. L’errore può quindi essere considerato accettabile, non influendo in maniera significativa sul risultato finale. Equity PVFP (mln €) 35 30 25 20 15 10 5 0 -100% -80% -60% -40% -20% 0% 20% 40% 60% Shock Figura 4.4.4 Anche in questo caso la funzione di regressione si comporta discretamente. Si osservi che l’impatto sul PVFP dello shock Equity, relativo all’andamento delle azioni, è relativamente basso. Questo è dovuto principalmente al asset mix: il portafoglio è composto per il 30% da titoli azionari e 70% da obbligazioni. Asset mix diversi avrebbero portato ad un’influenza maggiore di questo fattore di rischio. Lapse 28 PVFP (mln €) 27 26 25 24 23 -100% -50% 0% 50% 100% Shock Figura 4.4.5 119 Il Lapse, rappresentante lo shock applicato alla percentuale di riscatti è descritto sufficientemente bene dalla funzione di regressione. Si osserva che la curva di regressione non segue un andamento monotono: si può ipotizzare che per alcune congiunture degli scenari economici, la compagnia assicurativa possa trarre vantaggio da un aumento di riscatti, rendendo il comportamento di tale rischio per nulla lineare. Si conclude che la funzione di regressione simula ragionevolmente bene il vero comportamento del portafoglio al variare della combinazione degli stress ad esso applicati. Per quanto concerne gli stress, si passa ora dalla probabilità di misura uniforme a bassa discrepanza 𝒮 a quella real-world 𝒫. 4.4.3 Passaggio alla probabilità real world I risultati sinora ottenuti sono serviti per calibrare la funzione di regressione. I corrispondenti valori monetari non possono essere presi in considerazione in quanto generati da scenari sottostanti a stress provenienti da una distribuzione uniforme a bassa discrepanza. Si procede quindi simulando gli stress secondo la misura di probabilità 𝒫. Si ipotizzano le seguenti correlazioni tra gli stress applicati ai fattori di rischio: Ir r Ir m Equity Lapse Ir r 1,00 0,00 -0,25 0,30 Ir m 0,00 1,00 -0,15 0,30 Equity -0,25 -0,15 1,00 0,20 Lapse 0,30 0,30 0,20 1,00 Tabella 4.4.2 Matrice di correlazioni tra gli stress applicati ai rischi Ciascuno stress si distribuisce in accordo ad una normale con media 0 e varianza 0,25 al fine di depositare il più della massa probabilistica nell’intervallo [-1,1]; lo stress Equity, per necessità di modello ha invece media -0,5. Si effettuano 50.000 simulazioni del vettore di stress. Questa matrice di correlazioni diverge da quanto stabilito da Solvency II; non pregiudicando, tale modifica, gli scopi dell’applicazione, si è preferito utilizzare parametri più aderenti alle attuali condizioni di mercato. In sintesi, la correlazione tra Equity, lo stress applicato al rendimento delle azioni, e i due stress IR, è negativa. Ad un rialzo del tasso di interesse, si riduce la disponibilità di denaro in circolazione in quanto diventa più costoso; di conseguenza si ha meno disponibilità monetaria per acquistare titoli azionari. 120 Il divario bid-ask aumenta, e di conseguenza è lecito supporre che il rendimento dei titoli azionari diminuisca. La forza di questa correlazione è comunque bassa: a differenza del segno, i valori scelti possono risultare soggettivi. Relativamente al Lapse, lo stress applicato alla percentuale di riscatti, si è scelta una correlazione del 30% nei confronti del tasso d’interesse e del 20% con i titoli azionari. Si accoglie l’ipotesi che l’assicurato, osservando un aumento del tasso d’interesse risk-free oltre il minimo garantito dalla polizza, sia portato a riscattarla per investire in prodotti alternativi. Similmente per l’Equity, dove però la forza di correlazione è minore, in linea con ipotesi di avversione al rischio dell’assicurato. Figura 4.4.6 - Ogni nuvola di punti rappresenta la simulazione congiunta di due stress sui fattori di rischio 121 Visto che la funzione di regressione dipende dagli stress applicati ai fattori di rischio, non è più necessario ri-simulare gli scenari secondo la nuova misura di probabilità, tutte le informazioni necessarie sono già disponibili. Si procede costruendo la distribuzione empirica di probabilità, market consistent, del PVFP. A tal fine si calcola il valore previsto dalla funzione di regressione per ogni n-pla simulata degli stress dei fattori di rischio. Si costruisce quindi la distribuzione empirica di probabilità dei PVFP così ottenuti. Figura 4.4.7 - Distribuzione empirica del PVFP in t = 1 Quantili e statistiche principali della distribuzione del PVFP: Min. 1st Qu. Median Mean 3rd Qu. Max. 7.394.000 23.930.000 25.590.000 25.200.000 26.880.000 31.080.000 Si osserva che il supporto della distribuzione è più ristretto rispetto alla distribuzione del PVFP ottenuta via stress uniformi a bassa discrepanza, la media assume invece un valore simile. Questo è dovuto al fatto che la misura 𝒮 genera scenari estremi, poco probabili sotto una misura di probabilità market consistent. La distribuzione è inoltre asimmetrica con la coda sinistra visibilmente più pesante. Il confronto tra le differenze del primo quartile col minimo, ed il massimo col terzo quartile, confermano il riscontro grafico della coda. 122 4.5 Calcolo del SCR In linea con il metodo di calcolo del SCR descritto nel § 3.2.1, si individuano ora le grandezze di interesse. � 1 � = 25.2 mln. Si ipotizza che il capitale Si accolga la semplificazione 𝐴𝐶𝑜 ≈ 𝐸�𝑃𝑉𝐹𝑃 𝐴𝐶1 �1. ≈ 𝑃𝑉𝐹𝑃 detenuto dalla compagnia in 0, sia il PVFP medio del portafoglio, mentre (1+𝑖) Per costruzione degli scenari, i valori sono già implicitamente scontati. Allora si hanno tutte le quantità per calcolare la one-year loss function ℒ ∶= 𝐴𝐶0 − 𝐴𝐶1 1+𝒾 . Di seguito la distribuzione di probabilità empirica di ℒ e i principali valori che descrivono la distribuzione. Figura 4.5.1 One year loss function, la linea tratteggiata rappresenta il 99.5-simo percentile Quantili e statistiche principali della one-year loss function: Min. 1st Qu. -5.882.000 -1.684.000 Median -392.200 Mean 0 3rd Qu. Max. 1.269.000 17.810.000 123 Applicando allora la 𝑆𝐶𝑅 ∶= 𝑎𝑟𝑔𝑚𝑖𝑛𝑥 �𝑃 �𝐴𝐶0 − 𝐴𝐶1 1+𝒾 > 𝑥� ≤ 1−∝�, dove α, in linea con i requisiti della direttiva, è pari a 0.995. Si ottiene che il requisito patrimoniale di solvibilità relativo al portafoglio oggetto di studio: 8.406.793 € . Il dato è rappresentato dalla linea verticale tratteggiata nel grafico sopra. Il risultato raggiunto è di rilievo: si è ottenuta la ℒ relativa al portafoglio oggetto di studio. In quanto ripetuti diverse volte ed in tempi diversi è difficile fornire una stima esatta del tempo necessario per l’intero procedimento, si afferma però, che questo comunque risulta compatibile con l’ordinaria operatività in una compagnia di assicurazioni. Si fornisce di seguito una tabella che riassume il tempo necessario per eseguire ogni passo, precisando che si ha come obiettivo quello di fornire un ordine di grandezza approssimativo. Il tempo realmente impiegato potrebbe variare sensibilmente. step descrizione 1 simulazione degli stress uniformi a bassa discrepanza: (200 mila determinazioni simulate) 2 generazione di uno scenario stocastico su un orizzonte temporale di 20 anni secondo la misura di probabilità 𝒮 3 tempo totale per la generazione degli scenari per il tasso d’interesse e del rendimento dei titoli (50 mila scenari ciascuno) 4 simulazione del portafoglio (50 mila simulazioni) 5 ricerca della funzione di regressione via procedimento stepwise 6 generazione degli stress secondo la misura 𝒫 (200 mila determinazioni simulate) 7 calcolo della distribuzione empirica della loss function tempo ~ 5” < 1” ~7h ~ 1h ~ 0.5h ~ 5” ~ 10” Il tempo totale è quindi di circa 9 ore. Si consideri che gli step 1-3 sono eseguiti al più una volta al mese, e i risultati possono essere sfruttati da più portafogli. Gli step 4-7 possono essere ripetuti anche giornalmente. I dati sono riferiti a quanto osservato utilizzando un moderno laptop: un operatore assicurativo può quindi effettuare analisi sul portafoglio senza l’ausilio di sistemi di calcolo distribuito (grid computing). Il gap prestazionale con un modello di simulazioni stocastiche fully nested è quindi considerevole. 124 4.5.1 Requisiti di solvibilità per singola causa di rischio e beneficio di diversificazione Si vuole ora calcolare il requisito di capitale per singolo rischio. Aggregando i requisiti ‘marginali’ attraverso una matrice di varianze-covarianze similmente a quanto fatto dalla direttiva, sarà possibile confrontare i risultati ottenuti attraverso le due procedure. Si vuole quindi verificare se il modello LSMC cattura meglio del modello delta-normal, sottostante alla direttiva, il comportamento della ℒ relativa ad un portafoglio tipico di un assicuratore vita. Si procede calcolando le one-year loss function prodotte da un solo rischio, e non tutti assieme. Ad esempio, la ℒ relativa al equity risk, deve essere generata solamente da stress applicati ai titoli azionari, in questo contesto lo stress Equity, mantenendo nullo lo stress sugli altri. Si calcolano i PVFP, attraverso la funzione di regressione ottenuta in precedenza per ogni n-pla di stress, fissando a zero tutte le componenti eccetto quello che si vuole valutare, ottenendo così le ℒ ‘marginali’. Si osservi che tale termine è utilizzato impropriamente: la loss function ‘totale’ non è una distribuzione empirica congiunta, bensì è combinazione lineare delle ℒ ‘marginali’, preservando il suo carattere univariato. Inoltre, non si potrebbe comunque parlare di distribuzioni marginali, ma di distribuzioni condizionate al valore nullo di tutti gli stress eccetto uno. Le distribuzioni empiriche di probabilità così ottenute, rappresentano quindi la ℒ nell’ipotesi di essere in uno scenario centrale per tutte le cause di rischio, eccetto una. 4.5.1.1 Requisito di capitale per l’equity risk In linea con la funzione di regressione(4.4.1), per l’equity risk si ottiene: � 1(19) (𝐸𝑞𝑢𝑖𝑡𝑦) = 27.836.097 + 5.499.637 ∙ Equity − 546.620 ∙ Equity 2 𝑃𝑉𝐹𝑃 125 Figura 4.5.2 Min. 1st Qu. -2.567.000 -431.100 Median -8.192 Mean 0 3rd Qu. 423.200 Max. 2.750.000 La ℒ relativa all’equity, rappresentata sopra, ha distribuzione approssimativamente normale. La linea tratteggiata rappresenta il 99.5-simo quantile ed è pari a 1.679.957 €. 4.5.1.2 Requisito di capitale per l’interest rate risk In linea con la funzione di regressione(4.4.1), per il interest rate risk si ha: � 1(19) (𝐼𝑅𝑠 ) = 27.836.097 + 10.146.034 ∙ IR s − 7.731.941 ∙ IR2s − 1.513.164 ∙ IR3s 𝑃𝑉𝐹𝑃 126 Figura 4.5.3 Min. 1st Qu. -3.301.000 -1.532.000 Median -313.300 Mean 0 3rd Qu. Max. 11.92.000 11.760.000 La distribuzione risulta asimmetrica con la coda destra più pesante. Il 99.5-simo percentile è pari a 6.757.026 €. In questo caso, un’approssimazione normale avrebbe portato ad una sottostima del percentile. Per lo stress applicato al mean reversion level del interest rate risk: � 1(19) (𝐼𝑅𝑚 ) = 27.836.097 + 1.093.471 ∙ IR m 𝑃𝑉𝐹𝑃 (4.5.1) 127 Figura 4.5.4 Min. 1st Qu. -946.700 -1.465.000 Median 393 Mean 0 3rd Qu. 146.900 Max. 909.200 La distribuzione ha un comportamento piuttosto normale; il 99.5-simo percentile è pari a 561.670 €. 4.5.1.3 Requisito di capitale per il lapse risk La funzione di regressione relativa al rischio di riscatto è: � 1(19) (𝐿𝑎𝑝𝑠𝑒) = 27.836.097 − 1.718.729 ∙ Lapse − 952.995 ∙ Lapse2 𝑃𝑉𝐹𝑃 128 Figura 4.5.5 Min. 1st Qu. -826.000 -298.700 Median -50.140 Mean 0 3rd Qu. Max. 240.900 2.508.000 Anche in questo caso la distribuzione, oltre che asimmetrica, ha una coda destra molto pesante. Basti osservare la differenza tra il valore massimo ed il terzo quartile. Il 99.5-simo percentile è pari a 1.325.656 €. 129 4.5.1.4 Aggregazione attraverso la matrice di varianze-covarianze Si vuole ora giungere ad un confronto tra il SCR ottenuto attraverso il modello LSMC e quello della direttiva. Si ipotizza per la standard formula che il caricamento di capitale per singolo rischio sia lo stesso del modello LSMC, così come la matrice di correlazioni in linea con la Tabella 4.4.2. Si procede al calcolo del requisito patrimoniale di solvibilità in linea con l’equazione (3.2.8). IRs IRm Equity Lapse TOTALE non diversificato TOTALE LSMC TOTALE STANDARD FORMULA DIFFERENZA IN % € 6.757.026 € 561.670 € 1.679.957 € 1.325.656 € 10.324.309 € 8.406.793 € 7.162.801 15% Si conclude che l’apporto di non linearità e di distribuzione della ℒ con coda più pesante di quella della normale, per il portafoglio oggetto di studio, è del 15%. Utilizzare la standard formula su questo portafoglio porterebbe ad una sottostima del requisito di capitale. Come si è visto nei capitoli precedenti lo standard model accoglie l’ipotesi di normalità congiunta dei rischi. Sapendo che il 99.5-simo percentile è pari a € 7.162.801, attraverso le note formule di approssimazione della normale è possibile stimare l’intera distribuzione della relativa loss function. Se la distribuzione di ℒ ~ N(0,σ2), allora ℒ (99.5) ⋍ z (99.5) ∙ σ ; allora σ ⋍ 7.162.801 / 2,575829 = 2.780.775. Le distribuzioni delle loss function, ottenute via LSMC e via standard formula, possono allora essere confrontate graficamente: 130 Figura 4.5.6 Figura 4.5.7 L’ultimo grafico è un dettaglio della coda destra relativo al grafico precedentemente. La curva nera descrive la distribuzione empirica della ℒ ottenuta via LSMC mentre quella 131 tratteggiata blu la distribuzione normale in linea con i parametri ottenuti. Le due linee tratteggiate verticali rappresentano il SCR relativo alle distribuzioni; la prima, in blu, è relativa alla normale mentre la seconda, in nero, al modello LSMC. Si può apprezzare come la distribuzione relativa al modello LSMC abbia una coda molto più pesante di quella descritta dalla normale. 132 4.6 Limiti del modello L’applicazione del capitolo precedente è il risultato di uno dei diversi esperimenti effettuati, facendo variare le configurazioni di portafoglio e gli scenari economici; in uno di questi, non si è riuscito ad applicare il metodo con successo. Si è riscontrato che calibrando gli scenari del rendimento dei titoli azionari, relativamente ad un portafoglio d’investimenti particolarmente volatile, i residui della regressione evidenziavano un cattivo adattamento del modello. Gli elementi principali che descrivono il portafoglio sono del tutto simili a quello già descritto, così come la garanzia di rendimento minimo è fissata al 2.5%. 4.6.1 Individuazione del problema Analizzando il portafoglio appena descritto, ci si è soffermati sulla calibrazione della funzione di regressione e nello specifico, sull’analisi dei residui. Come funzione base si è scelto il polinomio di terzo grado, utilizzando le quattro variabili di stato (IR_r, IR_m, Equity, Lapse) assieme ai loro termini al quadrato e al cubo. Si riporta il grafico dei valori previsti contro i residui studentizzati e i principali valori che descrivono la distribuzione della ℒ. La linea rossa tratteggiata rappresenta il 90-simo percentile: ai fini della gestione del rischio, è di fondamentale importanza avere precisione soprattutto da questo percentile in poi. Si osserva che i residui hanno un trend decrescente, e, in generale, la bontà del modello dopo il 90-simo percentile è molto bassa; ci sono troppi valori sistematicamente presenti al di fuori del range [+2,-2]. 133 Figura 4.6.1 Min. -5.489000 1st Qu. -0.488000 Median Mean 0.186400 -0.000017 3rd Qu. 0.587500 Max. 3.527000 Si riporta l’istogramma dei residui ed il test di normalità Shapiro-Test, che conferma il problema. Figura 4.6.2 Shapiro-Wilk normality test 134 data: sample(residuals(lm11), 5000) W = 0.9534, p-value < 2.2e-16 È evidente che, eccetto la parte centrale, avvicinandocisi a valori estremi del PVFP il modello sovra o sotto stima pesantemente il vero valore. Il risultato è parso anomalo in quanto non si era evidenziato un comportamento simile con gli altri portafogli e scenari. Il confronto tra il quantile della normale ed il rispettivo quantile della distribuzione empirica dei residui, ha confermato il problema: Figura 4.6.3 - Grafico (PVFP, residuo) Per comprendere l’origine di tale risultato, si è considerato utile analizzare la distribuzione empirica del PVFP e confrontarla con quella stimata dalla funzione di regressione (tratteggiata): Figura 4.6.4 135 Si riportano i risultati dei principali indici statistici per le due distribuzioni (la prima riga concerne il PVFP simulato, mentre la seconda quello previsto dalla funzione di regressione) Min. PVFP -50.420.000 PVFP FIT -11.540.000 1st Qu. 15.540.000 20.790.000 Median Mean 3rd Qu. 27.650.000 24.760.000 35.230.000 26.630.000 24.760.000 29.930.000 Max. 56.570.000 43.910.000 Si nota subito che la distribuzione non assomiglia a nessuna tra quelle note: assomiglia al risultato della somma di due distribuzioni distinte. Non disponendo di alcun parametro di classificazione, non è certamente possibile approssimare tale distribuzione attraverso una regressione lineare, che al più, come si costata dai dati riportati, approssima bene la media. Le conclusioni tratte dall’analisi dei residui osservati in precedenza trovano riscontro in quest’ultimo grafico: osservando le code delle due distribuzioni si nota subito che quella ottenuta attraverso la funzione di regressione le ha molto più corte, producendo l’effetto mostrato nei grafici dei residui esposti in precedenza. Dopo diversi tentativi, si è provato a ri-simulare il portafoglio escludendo la garanzia. Si riporta di seguito il grafico della distribuzione del PVFP (in nero, linea continua) e del PVFP previsto dalla funzione di regressione (in blu, tratteggiato). Senza ulteriori commenti, è chiaro quindi che la garanzia provoca la bimodalità osservata in precedenza. Figura 4.6.5 136 La spiegazione più ragionevole a questo fenomeno è dovuta proprio alla particolare combinazione tra l’opzione Cliquet presente nel portafoglio e gli scenari simulati dei titoli azionari: nelle simulazioni in cui la garanzia “scatta” più frequentemente, la distribuzione presenta un valore modale diverso da quelle in cui scatta di meno. Gli scenari dei titoli azionari in questo esperimento, essendo più volatili, garantiscono mediamente un rendimento superiore e quindi un PVFP più elevato (e con maggiore varianza). Allo stesso tempo, il valore medio del PVFP negli scenari in cui scatta più frequentemente la garanzia è nettamente diverso. Si può ragionevolmente ritenere, che nell’applicazione del capitolo precedente, sussisteva lo stesso fenomeno, dove fortuitamente le medie delle due “sottodistribuzioni” non erano molto diverse, riducendo gli effetti di tale problema 49. Si conclude affermando che il modello LSMC per il calcolo del requisito patrimoniale di solvibilità, così come spiegato in letteratura, non è robusto. Disponendo come regressori gli stress applicati ai fattori di rischio, è risultato di notevole impegno provare a trovare una soluzione al problema. A seguire tre proposte. 4.6.2 Aggiunta di un regressore specifico per il portafoglio Come si è detto in precedenza, la bimodalità potrebbe essere causata dall’opzione Cliquet in combinazione con particolari scenari dei titoli azionari; allora, inserire come variabile esplicativa una grandezza collegata con l’opzione potrebbe risolvere il problema. In altre parole, si dovrebbe ridefinire il modello LSMC assumendo tra le ipotesi la necessità di disporre di variabili di stato che descrivano possibili dinamiche generate dal portafoglio e non solamente degli stress applicati ai fattori di rischio. Un ulteriore problema sorge proprio nella definizione di tale variabile: la garanzia può scattare per ciascun anno del portafoglio. Si propone quindi di utilizzare la frequenza relativa di scatti. In altre parole, si aggiunge al modello con p regressori, uno ulteriore 𝑥𝑝+1 definito come: 𝑥𝑝+1 = ∑𝑚 𝑖=1 𝕀𝑔𝑎𝑟𝑎𝑛𝑧𝑖𝑎 𝑑𝑖 𝑚𝑖𝑛𝑖𝑚𝑜 >𝜌𝑖 𝑚 (4.6.1) Si riconosce che la spiegazione non è sufficiente e merita un dettaglio di approfondimento superiore. Si è preferito, però, focalizzarsi su come rendere più robusto il LSMC. 49 137 Dove al numeratore si somma il numero di volte in cui la garanzia è maggiore del rendimento, ed m è la durata del periodo di copertura. Si riporta l’istogramma rappresentante la frequenza relativa degli scatti della garanzia e le principali statistiche Figura 4.6.6 Min. 1st Qu. 0.0000 0.1429 Median 0.3333 Mean 3rd Qu. 0.3512 0.5238 Max. 1.0000 Si osserva che nella maggior parte degli scenari, la garanzia non scatta. Condizionatamente all’evento “la garanzia è scattata almeno una volta”, si riportano le principali statistiche della distribuzione: Min. 1st Qu. Median Mean 3rd Qu. Max. 0.02381 0.23810 0.38100 0.40490 0.54760 1.00000 La garanzia, condizionatamente al fatto che scatti almeno una volta, scatta poi con una media del 40% durante il periodo di run-off, in altre parole mediamente otto anni sui venti del periodo di copertura del portafoglio. 138 La variabile può essere vista sia come qualitativa che quantitativa. Per parsimonia del modello, si sceglie di considerarla qualitativa, suddivisa in tre livelli: 1. “la garanzia non è mai scattata”; 2. “la garanzia è scattata con una frequenza compresa tra (0,0.5]”; 3. “la garanzia è scattata con una frequenza compresa tra (0.5,1]”. Relativamente al modello di regressione descritto nel § 4.6.1, si procede inserendo la nuova variabile. Si riporta il grafico dei residui studentizzati: Figura 4.6.7 Il miglioramento è evidente, rispetto al modello descritto in § 4.6.1, ma sempre per valori negativi, quelli che interessano di meno. Per comprendere meglio quale sia stato l’impatto dell’inserimento della nuova variabile, si ripropone la tabella dei quantili mostrata in precedenza con l’aggiunta dei valori relativi al nuovo modello. 139 quantile 50% 70% 80% 90% 95% 99% 99.5% 99.75% dati sobol 4.921 6.797 14.579 24.912 33.913 51.848 58.817 64.894 mod. lin. 2.231 2.244 6.499 13.151 18.909 29.598 33.485 35.839 Δ % 55% 67% 55% 47% 44% 43% 43% 45% 6.620 10.142 15.307 20.560 31.163 35.283 3% 30% 39% 39% 40% 40% mod. gar. - 510 Δ % 90% RSS corr - - 5,57E+18 28% 38.077 4,E+18 47% 41% 27% Tabella 4.6.1 Scostamenti in % 80% 60% 40% 20% 0% 50% 70% 80% 90% mod. lin. 95% 99% 99.5% 99.75% mod. gar. Figura 4.6.8 Il grafico sopra riporta i dati delle righe “Δ %”. Si può osservare che il modello che contiene la variabile “frequenza di scatto della garanzia”, riesce a spiegare meglio il fenomeno. La precisione aumenta ma non si raggiungono ancora i livelli sperati. Si osservi però che l’indice di correlazione è passato da 28% a 47% e la somma del quadrato dei residui è diminuita del 27%. Il miglioramento c’è quindi stato, ma non elevato quanto sperato. E’ ragionevole affermare che modellando meglio la variabile esplicative “frequenza di scatti” si possa migliorare ancora il modello: si potrebbe, ad esempio, provare a pesare ogni scatto della garanzia con gli anni di differimento della stessa dall’anno 0 di inizio della polizza. 4.6.3 Misture finite di funzioni di regressione Il ragionamento fondamentale che ha condotto a questa seconda proposta è basato sul problema di trovare una soluzione per gestire la bimodalità senza l’ausilio di variabili di classificazione. La risposta è stata trovata nello strumento della statistica individuato dalle misture finite di funzioni di regressione. In breve, tale strumento serve per studiare 140 situazioni in cui la popolazione campionaria è divisa in sottogruppi ma non è possibile osservare a priori a quale gruppo appartiene un individuo. Nella letteratura, tale problema è conosciuto come unsupervised clustering, e una delle possibili soluzioni è proposta utilizzando proprio le misture finite di funzioni di regressione, che si basa a sua volta sul concetto conosciuto come model based clustering. L’ipotesi alla base del modello è che i sottogruppi si distribuiscono in accordo ad una specifica legge di probabilità – spesso la normale multivariata. In accordo con la simbologia usata da (Benaglia, Chauveau, Hunter, & Young, 2009) 50 che a sua volta fa riferimento all’opera di (McLachalan & Peel, 2000) 51 Si supponga, allora, che il campione di vettori aleatori X 1 , …, X n segua una legge definita da una mistura di m > 1 leggi arbitrarie. La distribuzione di probabilità del generico X i è : 𝑚 𝑔𝜽 (𝒙𝑖 ) = � 𝜆𝑗 𝜙𝑗 (𝒙𝑖 ), 𝒙𝑖 ∈ ℝ𝑟 𝑗=1 (4.6.2) Dove θ = (λ,ϕ) = (λ 1 , …, λ m , ϕ 1 , …, ϕ m ) denota le distribuzioni (ϕ i ) e i misturanti (λ i ). Si ipotizza che il generico ϕ j appartenga a qualche famiglia di distribuzioni ℱ assolutamente continue rispetto a qualche misura, ad esempio quella di Lebesgue. La rappresentazione 𝑔𝜽 (𝒙𝑖 ) non è identificabile 52 senza applicare restrizioni su ℱ. Si dirà, inoltre, che la mistura è parametrica se ℱ è una famiglia parametrica, ℱ = {ϕ(∙|ξ), ξ ∈ ℝd}, parametrizzata dal parametro ξ. Una famiglia parametrica comunemente usata è quella gaussiana ℱ = {ϕ(∙|μ,σ2) = densità di 𝒩(μ, σ2), (μ, σ2) ∈ ℝ × ℝ++}, in questo caso il parametro θ diventa (λ, (μ 1 , σ 1 2), …, (μ n , σ n 2)). Si ipotizzi ora che X i sia un vettore di covariate con associata una variabile risposta Y i . Attraverso la mistura di regressioni è possibile descrivere la distribuzione di Y i | X i . Si considerino n osservazioni indipendenti, 𝑦1 , … , 𝑦𝑛 , ognuna con il corrispondente vettore ′ di predittori 𝒙𝟏 , … , 𝒙𝒏 , con 𝒙𝑖 = �𝑥𝑖,1 , … , 𝑥𝑖,𝑝 � per i = 1, …, n. È possibile fissare 𝑥𝑖,1 = 1 per inserire il termine d’intercetta nel modello. Sia 𝒚 = (𝒚𝟏 , … , 𝒚𝒏 )′ e X la matrice di disegno sperimentale n × p. Si supponga che ogni osservazione (𝑦𝑖 , 𝒙𝒊 ) sia descritta da una delle m leggi, detto altrimenti che appartenga ad uno degli m sottogruppi in cui è divisa la popolazione. Per i comandi in R, fare riferimento a questa pubblicazione. Si suggerisce di consultare questo libro per un dettaglio approfondito sulle misture finite di funzioni di regressione. 52 Col termine “identificabile” si intende che 𝑔 ha un’unica rappresentazione. 𝜽 50 51 141 Condizionalmente all’appartenenza al j-simo sottogruppo, e quindi alla j-sima legge di probabilità, la relazione tra 𝑦𝑖 ed 𝒙𝑖 è data dal modello lineare: 𝑦𝑖 = 𝒙′𝑖 𝜷𝑗 + 𝜖𝑖 (4.6.3) Dove 𝜖𝑖 ~ 𝒩(0, 𝜎𝑗2 ) e 𝜷𝑗 e 𝜎𝑗2 sono rispettivamente il vettore p-dimensionale dei coefficienti di regressione e la varianza dell’errore per la j-sima componente. In accordo con la struttura a mistura, la densità condizionata 𝑦𝑖 |𝒙𝒊 è: 𝑚 𝑔𝜃 (𝑦𝑖 |𝒙𝒊 ) = � 𝜆𝑗 𝜙�𝑦𝑖 |𝒙′𝑖 𝜷𝑗 , 𝜎𝑗2 � 𝑗=1 (4.6.4) Dove 𝜙�∙ |𝒙′𝑖 𝜷𝑗 , 𝜎𝑗2 � è una densità normale con media 𝒙′𝑖 𝜷𝑗 e varianza 𝜎𝑗2 . La mistura appena presentata differisce dal più conosciuto modello di misture di normali multivariate (𝑌𝑖 , 𝑿′𝑖 )′~ ∑𝑚 𝑗=1 𝜆𝑗 𝒩𝑝+1 �𝝁𝑗 , Σ𝑗 � , in quanto non si pone alcuna ipotesi riguardante la distribuzione marginale 𝑿𝑖 , mentre nel secondo caso questa ha distribuzione mistura di normali multivariate. 4.6.3.1 Stima dei parametri attraverso l’algoritmo EM per misture finite L’impostazione più utilizzata per stimare i parametri della mistura consiste nel vedere la mistura stessa come un caso particolare di stima di massima verosimiglianza quando le osservazioni sono incomplete. Tale impostazione comporta il dover considerare due spazi campionari, lo spazio delle osservazioni incomplete e quello in cui queste sono complete; l’ultimo spazio deve essere caratterizzato in maniera tale che la stima dei parametri è possibile considerando i dati da esso ottenibili. Si consideri il vettore delle n osservazioni incompleto i.i.d. 𝒙 = (𝒙𝟏 , … , 𝒙𝒏 ) determinazioni di una legge 𝑔𝜽 (𝒙𝑖 ) in linea con l’equazione (4.6.2). Sia 𝐠 𝜽 il prodotto delle n leggi 𝑔𝜽 , allora 𝒙 ~𝐠 𝜽 . Nell’impostazione con i dati incompleti, 𝐠 𝜽 è chiamato incomplete-data density, e la log-verosimiglianza associata è ℓ𝒙 (𝜽) = ∑𝑛𝑖=1 log 𝑔𝜽 (𝑥𝑖 ). Il problema della � 𝑥 = 𝑎𝑟𝑔𝑚𝑎𝑥𝜃∈Φ ℓ𝑥 (𝜽), o almeno stima di massima verosimiglianza consiste nel trovare 𝜽 � 𝑥 , anche per un modello parametrico di misture finite è un un massimo locale. Calcolare 𝜽 problema molto complesso, considerando che 𝒙 è un vettore di dati incompleti la complessità aumenta ulteriormente. 142 Sia 𝒄 = (𝒄𝟏 , … , 𝒄𝒏 ) il vettore di determinazioni proveniente dallo spazio campionario completo, con legge di densità 𝒉𝜽 (𝒄) = ∏𝑛𝑖=1 ℎ𝜽 (𝒄𝑖 ). Si noti che c’è una relazione molti-a- uno tra c e x, rappresentante la perdita d’informazione. Nel modello con dati completi associato al (4.6.2), sia 𝑪𝑖 = (𝑿𝑖 , 𝒁𝑖 ) un vettore aleatorio, dove 𝒁𝑖 = (𝑍𝑖𝑗 , 𝑗 = 1, … , 𝑚) e 𝑍𝑖𝑗 ∈ {0,1} è una variabile bernulliana indicatrice del fatto che la determinazione i proviene dalla legge j. Considerando che ciascuna determinazione proviene solamente da una legge j, la somma delle bernoulliane è 1, e 𝑃�𝑍𝑖𝑗 = 1� = 𝜆𝑗 , �𝑿𝒊 �𝑍𝑖𝑗 = 1�~𝜙𝑗 , 𝑗 = 1, … , 𝑚 La densità relativa al campione con dati completi è quindi 𝑚 ℎ𝜽 (𝒄𝑖 ) = ℎ𝜽 (𝒙𝑖 , 𝒛𝑖 ) = � 𝕀𝒛𝑖𝑗 𝜆𝑗 𝜙𝑗 (𝒙𝑖 ), 𝒙𝑖 ∈ ℝ𝑟 𝑗=1 (4.6.5) (4.6.6) La stima di massima verosimiglianza in questo caso non è risolvibile analiticamente, si usano quindi degli algoritmi iterativi. In questa tesi è stato utilizzato l’algoritmo EM (ed implementato nell’applicazione R attraverso la libreria mixtools). Tale algoritmo, al posto di massimizzare la verosimiglianza ℓ𝑥 (𝜽) , massimizza iterativamente l’operatore 𝑄�𝜽�𝜽(𝑡) � = 𝐸��𝑙𝑜𝑔𝒉𝜽 (𝑪)�𝑥, 𝜽(𝑡) �� (4.6.7) Dove 𝜽(𝑡) è il valore calcolato all’iterazione t-sima, e la speranza matematica è fatta rispetto alla distribuzione 𝒌𝜽 (𝒄|𝒙) di c dato x. L’iterazione 𝜽(𝑡) → 𝜽(𝑡+1) è data da 1. E-step: calcolo di 𝑄�𝜽�𝜽(𝑡) � 2. M-step: calcolo di 𝜽(𝑡+1) = 𝑎𝑟𝑔𝑚𝑎𝑥𝜃∈Φ 𝑄�𝜽�𝜽(𝑡) � Per modelli mistura, il E-step non dipendete dalla struttura di ℱ , in quanto la parte di dati mancanti è relativa solamente a z: 𝑛 𝒌𝜽 (𝒄|𝒙) = � 𝑘𝜽 (𝒛𝑖 |𝒙𝑖 ) 𝑖=1 (4.6.8) I vettori z sono discreti e la loro distribuzione è data via teorema di Bayes. Il M-step di per sé può essere separato in due parti, dove nella prima si massimizza λ e non si ha dipendenza da ℱ, e nella seconda si massimizza 𝜙, che può essere trattato (semi-) parametricamente o non a seconda di ℱ . 143 Il E-step si concretizza attraverso l’utilizzo delle probabilità a posteriori, condizionalmente alle osservazioni e a 𝜽(𝑡) , dell’inclusione della legge j-sima: (𝑡) 𝑝𝑖𝑗 (𝑡) (𝑡) 𝜆𝑗 𝜙𝑗 (𝒙𝑖 ) = 𝑃𝜽(𝑡) �𝑍𝑖𝑗 = 1�𝒙𝑖 � = (𝑡) (𝑡) ∑𝑚 𝑗 ′ =1 𝜆𝑗 ′ 𝜙𝑗 ′ (𝒙𝑖 ) Per i = 1, …, n e j = 1, …, m. (4.6.9) Solitamente l’espressione (4.6.9) è riscritta in maniera equivalente ma più compatibile per essere implementata come algoritmo. (𝑡) 𝑝𝑖𝑗 = �1 + � (𝑡) (𝑡) 𝜆𝑗 ′ 𝜙𝑗 ′ (𝒙𝑖 ) (𝑡) (𝑡) 𝜆 𝜙𝑗 (𝒙𝑖 ) 𝑗 ′ ≠𝑗 𝑗 Passando al problema di regressione, diventa: (𝒕) 𝒑𝒊𝒋 = �1 + � (𝑡+1) 𝜆𝑗 (𝑡) Definito con 𝑾𝑗 dato da e (𝑡) 𝜆𝑗 ′ 𝜙𝑗 ′ �𝒙′𝑖 𝜷𝑗′ � (𝑡) (𝑡) 𝜆 𝜙𝑗 �𝒙′𝑖 𝜷𝑗 , 𝜎𝑗2 � 𝑗 ′ ≠𝑗 𝑗 Il M-step per λ si concretizza in Per j = 1, …, m. (𝑡) � −1 (𝑡) (4.6.10) � −1 𝑚 1 (𝑡) = � 𝑝𝑖𝑗 𝑛 ′ (4.6.11) (4.6.12) 𝑗 =1 (𝑡) = 𝑑𝑖𝑎𝑔(𝑝1𝑗 , … , 𝑝𝑛𝑗 ), l’aggiornamento del M-step in relazione a β e σ è (𝑡+1) 𝜷𝑗 2(𝑡+1) 𝜎𝑗 (𝑡) = �𝑿′ 𝑾𝑗 𝑿� = 1 2(𝑡) �𝑾𝑗 (𝒚 −1 − (𝒕) (4.6.13) 𝑿′𝑾𝒋 𝒚 (𝑡+1) 𝑿 ′ 𝜷𝑗 )� (𝑡) 𝑡𝑟 �𝑾𝑗 � 2 (4.6.14) 144 Dove ‖𝑨‖2 = 𝑨′𝑨 e tr(A) è la traccia di A. Si osservi che (4.6.13) è una stima WLS di 𝜷𝑗 e la (4.6.14) ricorda la stima della varianza utilizzata nel WLS. 4.6.3.2 Applicazione del modello La proposta di questa tesi è di implementare la metodologia appena descritta nel quadro generale, individuando questo nuovo particolare modello come mixed-LSMC. Come accennato in precedenza, l’implementazione è avvenuta attraverso il pacchetto statistico R congiuntamente alla libreria mixtools. Considerando il modello di regressione descritto dal § 4.6.1, così come lo stesso portafoglio e le stesso insieme di simulazioni, si procede utilizzando la stessa impostazione per il vettore delle variabili esplicative 𝒙 e fissando due misturanti λ 1 e λ 2 . Si ipotizza quindi che le simulazioni effettuate appartengano a due sottogruppi e quindi seguano due leggi normali diverse. Prima di procedere con la regressione, attraverso il pacchetto mixtools è possibile vedere quali sono le due distribuzioni individuate attraverso la procedura EM: Figura 4.6.9 Si riporta la stima dei parametri: comp 1 lambda 2.33780e-01 mu 6.21124e+06 sigma 1.38287e+07 comp 2 7.66220e-01 3.04192e+07 6.53453e+06 145 loglik at estimate: -445932.3 Si può affermare che la congettura posta nel § 4.6.1 può trovare un fondamento attraverso questa analisi. Si può infatti interpretare la legge normale ϕ 1 individuata dalla colonna “comp 1” come quella appartenente alle simulazioni provenienti dal sotto-spazio campionario in cui la garanzia è scatta più spesso e quindi il PVFP è risultato inferiore. La probabilità che una simulazione appartenga a tale sotto-campione è pari al parametro lambda. Nel sotto-spazio campionario in cui la garanzia è scattata di meno, portando ad un PVFP medio maggiore, le determinazioni che vi appartengono seguono una legge normale descritta dalla colonna “comp 2”, con relativa probabilità di appartenenza. Si procede allora con la regressione mistura, ottenendo i seguenti risultati: summary of regmixEM object: comp 1 comp 2 lambda 2.33780e-01 7.66220e-01 sigma 1.38287e+07 6.53453e+06 beta1 1.70464e+07 3.50871e+07 … … beta2 3.60796e+06 1.48522e+06 beta40 5.21038e+06 -5.52959e+06 loglik at estimate: -44521.3 Si riporta l’analisi del grafico dei residui, da comparare con il grafico in Figura 4.6.3 Figura 4.6.10 Grafico (PVFP stimato, residuo) utilizzando un modello mistura di regressioni, con due misturanti. La linea rossa rappresenta il 99.5-simo percentile. 146 Si osservi che ci sono meno punti in quanto è stato preso un sotto-campione casuale di 2.500 valori tra 25.000 possibili. Si è proceduto con tale scelta in quanto, in sede di applicazione di esercizio, effettuare l’esperimento con tutti i dati è risultato particolarmente oneroso in termini di tempo. La numerosità del sotto-campione è stata scelta cercando quella minima che avesse gli stessi (o molto simili) valori dei quantili principali della distribuzione empirica dei dati di partenza. Si osserva che i valori negativi della ℒ sono quelli a cui il modello si adatta meglio: in realtà è il lato della distribuzione empirica a cui si è meno interessati. Si conclude affermando che se si disponesse di maggior sensibilità nel configurare la regressione mistura, si potrebbe “imporre” di fittare meglio i valori positivi , ottenendo presumibilmente un grafico speculare a quello appena mostrato. Purtroppo la libreria messa a disposizione in R non permette di eseguire questo tipo di configurazione. L’esercizio è stato eseguito ancora una volta con tre misturanti. Si riportano di seguito i risultati dei quantili principali della ℒ. Si è scelto di confrontare solo i quantili superiori al 50-simo, in quanto è ai quantili elevati che si cerca la precisione. I valori sono espressi in migliaia di euro. La prima riga “dati sobol”, rappresenta i valori osservati della distribuzione empirica dei PVFP, generati secondo la legge di Sobol, ed utilizzati come variabile risposta nei vari modelli di regressione. Le righe Δ %, rappresentano lo scostamento, in percentuale, tra il valore presente in “dati sobol” e quello stimato dal modello. quantile 50% 70% 80% 90% 95% 99% 99.5% 99.75% RSS ρ dati sobol 4.921 6.797 14.579 24.912 33.913 51.848 58.817 64.894 mod. lin. 2.231 2.244 6.499 13.151 18.909 29.598 33.485 35.839 5,57E+18 28% 24.925 Δ% 55% 67% 55% 47% 44% 43% 43% mix 2 regr 1.118 5.879 8.690 13.967 19.806 31.663 36.921 Δ% 123% 14% 40% 44% 42% 39% 37% mix 3 regr 1.345 6.010 9.118 14.215 20.281 32.193 37.951 Δ% 127% 12% 37% 43% 40% 38% 35% - DF - - 45% 40.745 3,69E+17 73% 24.914 37% 93,38% 42.389 3,56E+17 74% 24.871 35% 93,62% Tabella 4.6.2 147 Scostamenti in % 120% 100% 80% 60% 40% 20% 0% 50% 70% 80% 90% mod lin mix 2 reg 95% 99% 99.5% 99.75% mix 3 reg Figura 4.6.11 Il grafico sopra riporta i valori presenti nelle righe Δ %. Si osserva che il modello lineare si comporta bene solo per il 50-simo percentile, offrendo uno scostamento pari alla metà degli altri modelli. Il comportamento è ragionevole se si pensa che il modello lineare è fondato sul concetto di spiegare meglio possibile i valori medi. Al crescere dei percentili i modelli mistura risultano essere mediamente più precisi di quello lineare. Si osserva che il passaggio da due a tre misturanti non porta considerevoli vantaggi. Si osservi inoltre l’indice di correlazione riportato nella tabella sopra: aumenta drasticamente passando dal 28% del modello lineare al 73% dei modelli mistura. Il fatto si spiega osservando il grafico dei residui riportato in precedenza: per valori negativi, e quindi per quantili inferiori al 50-simo l’adattamento del modello mistura è ottimale. Si conclude osservando che il processo di stima dei parametri è risultato particolarmente oneroso in termini di tempo, osservando un impegno computazionale esponenziale all’aumentare del numero delle componenti della misturante λ . Il procedimento mixed-LSMC potrebbe essere la soluzione alla valutazione del SCR per portafogli specifici del ramo vita, il beneficio portato dal suo utilizzo deve essere valutato di volta in volta, rapportandolo al costo in termini di tempo. 148 4.6.4 Regressione quantile Si propone una terza ed ultima possibile soluzione, basata sul concetto di regressione quantile. In breve, mentre il metodo dei minimi quadrati ha come obiettivo quello di approssimare la speranza matematica condizionata della variabile risposta, la regressione quantile è focalizzata sull’approssimazione di un determinato quantile (condizionato alle determinazioni osservate delle variabili esplicative). Ci si ponga nell’ottica che risulta di primario interesse solamente la coda della distribuzione, ad esempio dal 90-simo percentile della ℒ, o, specularmente, sotto il 10-mo percentile della distribuzione del PVFP. E’ proprio il caso del risk management assicurativo: in tal contesto, la necessità di conoscere l’intera distribuzione è marginale, quando invece avere dati molto precisi dal 90-simo percentile della ℒ è di fondamentale importanza. L’impianto matematico della regressione quantile è molto diverso da quella ai minimi quadrati. Quest’ultimo, ad esempio, può essere ridotto ad un problema di algebra lineare, quando invece la regressione quantile conduce a problemi di programmazione lineare, che possono essere risolti attraverso l’approccio simplex. Si riporta, brevemente, l’impianto matematico sottostante alla regressione quantile in linea con la pubblicazione di (Koenker & Hallock, 2001). Sia Y un numero aleatorio, con funzione di ripartizione 𝐹𝑌 (𝑦) = 𝑃(𝑌 ≤ 𝑦) . Allora il τ-simo quantile di Y è dato da: 𝑄𝑌 (𝜏) = 𝐹 −1 (𝜏) = inf{𝑦: 𝐹𝑌 (𝑦) ≥ 𝜏} 𝜏 ∈ [0,1] Sia data la funzione danno 𝜌𝜏 (𝑦) = 𝑦(𝜏 − 𝐼(𝑦<0) ) (4.6.15) 149 Figura 4.6.12 Rappresentazione grafica della funzione danno Allora un quantile specifico può essere trovato minimizzando la perdita attesa di Y – u rispetto a u: min𝑢 𝐸(𝜌𝜏 (𝑌 − 𝑢)) 𝑢)𝑑𝐹𝑌 (𝑦) = 𝑢 ∞ min𝑢 (𝜏 − 1) ∫−∞(𝑦 − 𝑢)𝑑𝐹𝑌 (𝑦) + 𝜏 ∫𝑢 (𝑦 − (4.6.16) Fissando a 0 la perdita attesa, e identificando la soluzione con 𝑞𝜏 di 0 = (1 − 𝜏) � l’equazione si riduce a: e quindi 𝑞𝜏 −∞ ∞ 𝑑𝐹𝑌 (𝑦) − 𝜏 � 𝑑𝐹𝑌 (𝑦) 𝑞𝜏 (4.6.17) 0 = 𝐹𝑌 (𝑞𝜏 ) − 𝜏 (4.6.18) 𝐹𝑌 (𝑞𝜏 ) = 𝜏 (4.6.19) Allora 𝑞𝜏 è il quantile τ –simo della v.a. Y. Si supponga, ora, che la funzione del τ-simo quantile di Y condizionato all’osservazione delle variabili esplicative, raccolte nella matrice X sia 𝑄𝑌|𝑋 (𝜏) = 𝑋𝛽𝜏 . Se Y ammette densità, 𝛽𝜏 può essere ottenuto risolvendo: 150 𝛽𝜏 = 𝑎𝑟𝑔 min𝑘 𝐸(𝜌𝜏 (𝑌 − 𝑋𝛽)) (4.6.20) 𝛽∈𝑅 Allora, dato un campione di n osservazioni, lo stimatore di 𝛽 è: 𝑛 𝛽̂𝜏 = 𝑎𝑟𝑔 min𝑘 �(𝜌𝜏 (𝑌 − 𝑋𝛽)) 𝛽∈𝑅 (4.6.21) 𝑖=𝑛 Il problema di minimizzazione, come accennato in precedenza viene risolto attraverso la programmazione lineare. L’applicazione del metodo è stata realizzata attraverso il pacchetto quantreg di R. Data la ℒ , si sceglie di procedere con una regressione quantile con τ = 0.9: si vuole infatti avere maggiore precisione attorno al 90-quantile, piuttosto che al valor medio. Restando nell’ottica del problema descritto in § 4.6.1, ed utilizzando la stessa funzione di regressione, si procede con l’analisi. In questo caso sarebbe fuorviante riportare il grafico dei residui, in quanto qui si cerca la precisione al 90-quantile, accettando un cattivo adattamento ai quantili più bassi. Si riporta la tabella dei valori dei quantili calcolati con il modello, e confrontati con quelli del modello lineare. quantile 50% 70% 80% 90% 95% 99% 99.5% 99.75% dati sobol 4.921 mod. lin. 2.231 6.797 14.579 24.912 33.913 51.848 58.817 64.894 2.244 6.499 13.151 18.909 29.598 33.485 35.839 Δ % 55% 67% 55% 47% 44% 43% 43% 45% mod. quant. 19.060 26.163 30.775 37.492 43.398 56.593 61.829 66.761 50% 28% 9% 5% 3% Δ % 487% 285% 111% Tabella 4.6.3 Scostamenti in % 487% 387% 287% 187% 87% -13% 50% 70% 80% 90% mod. lin 95% 99% 99.5% 99.75% mod. quant Figura 4.6.13 151 Si osserva che il modello “quantile” si adatta perfettamente ai dati presenti sulla coda, sbagliando totalmente i calcoli per i quantili inferiori al 90-simo. Si osserva meglio il fenomeno confrontando la distribuzione di densità empirica delle variabili risposta con quella dei valori previsti dal modello di regressione quantile. Figura 4.6.14 La distribuzione empirica dei valori previsti dalla regressione quantile (in blu) è totalmente disallineata da quella rossa (che rappresenta la distribuzione empirica della variabile risposta), il comportamento sulla coda risulta invece molto preciso: il dettaglio sotto conferma il fatto; la linea tratteggiata rappresenta il 99-simo percentile della distribuzione empirica delle variabili risposta. Figura 4.6.15 152 Adottare questo modello, comporterebbe la rinuncia di avere a disposizione l’intera distribuzione empirica della ℒ. Se da un lato, si compromette totalmente il modello LSMC, dall’altro essa risulta un’ottima soluzione nei casi particolari, come quello alla base di questo modello. Ai fini del risk management è importante conoscere il comportamento della coda della distribuzione della perdita ℒ, ed importa relativamente poco il comportamento sotto il 90-simo percentile. Se si considera, poi, che una polizza vita con opzione Cliquet è abbastanza comune nella realtà, il modello qui proposto potrebbe essere una valida soluzione ai fini pratici. 153 5 Conclusioni Nel primo capitolo si è messa in discussione la standard formula, quando questa viene applicata ad un business vita. Nello specifico, si è osservato che dinamiche non lineari e non normali dei rischi non sono compatibili con il modello Delta-Normal di Garbade, modello su cui la standard formula è basata. Senza passare ad altre formule analitiche, si è deciso di cercare una soluzione accogliendo un approccio stocastico: la maggior parte delle compagnie assicurative, se decide di passare ad un modello interno, lo fa adottando tale approccio. Nel secondo capitolo si è quindi proceduto con un’analisi di tale approccio in ottica Solvency II, scoprendo che la tematica è estremamente recente ed una “soluzione universale” non è stata ancora trovata. In questo contesto, la letteratura più recente ha proposto il modello LSMC come il modello migliore. Nel terzo capitolo, quindi, si è analizzando il modello in maniera approfondita capendone le dinamiche sottostanti. Nell’ultimo capitolo si è applicato il modello ad un portafoglio reale, trovando una conferma della sottostima del requisito di capitale, se calcolato secondo la standard formula, e individuando nel metodo LSMC una valida alternativa, facilmente implementabile in un modello interno di una compagnia di assicurazioni vita. Si è poi andati oltre quanto la letteratura offre, scoprendo che polizze vita con opzione implicita di tipo Cliquet sono difficilmente modellabili da un modello LSMC, offrendo quindi alcune possibili soluzioni al problema. Si conclude affermando che il modello LSMC, nonostante risulti il migliore tra quelli attualmente a disposizione, necessita di alcune migliorie per diventare più robusto, ed in questa tesi sono stati offerti alcuni spunti a riguardo. Si vuole fornire un’ultima precisazione, ritenuta implicita in tutta la tesi e che, ora, per completezza si preferisce chiarire: la sottostima del requisito di capitale non è un vantaggio per la compagnia. Nel QIS 5 è stata proposta una soluzione per la gestione delle 154 dinamiche non lineari, consistente nel SES (single equivalent scenario) 53 , che, indicativamente, forniva un aggiustamento al SCR ottenuto dalla standard formula per tenere in considerazione tali dinamiche. Il sistema è stato ritenuto troppo complesso e quindi rimosso nei successivi aggiornamenti del QIS. Gli istituti di vigilanza sono, ovviamente, al corrente e sicuramente valuteranno gli sforzi profusi dalle compagnie nei confronti di questo problema. In altre parole, è molto probabile che se una compagnia vita adotta la standard formula senza fornire alcuna proposta per la gestione della non linearità dei rischi, subirà l’allocazione di un capital add-on. Non si interpreti, quindi, erroneamente, il modello LSMC come un modello che “sovrastima” il SCR, bensì come un modello che lo stima in maniera più aderente alla realtà. 53 Si veda il QIS 5 per ulteriori dettagli. 155 Appendice - Generazione di variabili pseudocasuali La normale procedura di generazione di variabili pseudocasuali parte dal campionamento della variabile con distribuzione uniforme nell’intervallo [0,1], indicata con U(0,1). E’ possibile ottenere una qualsiasi distribuzione (o quasi) a partire dalle osservazioni della uniforme summenzionata. La maggior parte dei linguaggi di programmazione fornisce la possibilità di campionare da una U(0,1). Tali numeri sono solitamente prodotti attraverso l’algoritmo ricorsivo denominato generatore lineare di congruenza (Linear Congruential Generator LCG). Il generico valore della successione di numeri pseudocasuali X n è dato da: dove: 𝑋𝑛 = (𝛼𝑋𝑛−1 + 𝑐)𝑚𝑜𝑑(𝑚) - m, 0 < m, il modulo α , 0 ≤ α < m, il moltiplicatore c, 0 ≤ c < m, l’incremento X 0 , 0 ≤ X 0 ≤ m il valore iniziale, detto seme (seed) La qualità dei numeri generati è strettamente legata alla scelta dei parametri iniziali m, α, c, X 0 . I generatori LCG sono periodici e possono generare al più m numeri interi. La necessità di generare numeri pseudocasuali provenienti da una distribuzione diversa da quella uniforme è soddisfatta, solitamente, utilizzando il cosiddetto metodo di inversione. In breve: se si vuole campionare da una distribuzione di probabilità avente funzione di ripartizione F(x) = P[X ≤ x] e questa è invertibile, allora si può applicare il metodo di inversione. Quindi: 156 𝑃[𝑋 ≤ 𝑥 ] = 𝑃[𝐹 −1 (𝑈) ≤ 𝑥 ] = 𝑃[𝑈 ≤ 𝐹(𝑥)] = 𝐹(𝑥) Con U, la variabile aleatoria uniformemente distribuita, le cui determinazioni sono generate via tecnica LCG. Esistono diverse altre tecniche, come il metodo del rigetto, utilizzato quando la funzione di ripartizione è di difficile inversione, oppure altri algoritmi ben conosciuti, come quello di Box-Muller per la generazione di variabili normali. E’ doveroso fare un’importante precisazione: alla base della generazione degli scenari di Monte Carlo, non viene utilizzata la tecnica appena descritta, in quanto, i numeri casuali generati via LCG soffrono di un certo grado di correlazione, nonché di diversi altri problemi. L’algoritmo realmente utilizzato è il WELL (Well equidistributed long-period linear) del 2006, basato a sua volta su quello di Mersenne twister, sviluppato nel 1997 da Makoto Matsumoto e Takuji Nishimura; questo risulta essere molto più robusto del LCG. L’esposizione di tale algoritmo, comporterebbe l’introduzione di concetti che non rientrano tra quelli richiesti per la lettura della tesi; si è preferito, quindi, fornire l’idea sottostante alla generazione dei numeri pseudocasuali, lasciando i dovuti riferimenti bibliografici nel caso si volesse approfondire l’argomento. Si fa riferimento quindi all’opera di L'Ecuyer, Pierre; Panneton, François; Matsumoto, Makoto (2006), Improved Long-Period Generators Based on Linear Recurrences, per quanto riguarda l’algoritmo WELL. Per l’algoritmo di Mersenne Twister si faccia riferimento a Matsumoto, M.; Nishimura, T. (1998): Mersenne twister: a 623-dimensionally equidistributed uniform pseudo-random number generator, ACM Transactions on Modeling and Computer Simulation 8 (1): 3–30. 157 Bibliografia Albrecher, H., Schoutens, W., & Tistaert, J. (2006, Gennaio). The Little Heston Trap. Willmott Magazine, p. 83-92. Bauer, D., Bergmann, D., & Reuss, A. (2010, January). Solvency II and Nested Simulations - a Least-Squares Monte Carlo Approach. Tratto da http://www.ressources- actuarielles.net/EXT/ISFA/1226.nsf/0/3690458b48d11a78c12579ae00695536/$ FILE/93_final%20paper_Bauer,%20et%20al.pdf Bauer, D., Kiesel, R., Kling, A., & Russ, J. (2006). Risk-neutral valuation of participating life insurance contracts. Insurance: Mathematics and Economics, 39:171-183. Beak, S., Kraman, F., & Ahn, H. (2005). Variable selection for heteroschedastic data through variance estimation. Communications in Statistics - Simulation and Computation, 34:567-583. Benaglia, T., Chauveau, D., Hunter, D., & Young, D. (2009, Ottobre). mixtool: An R Package for Analyzing Finite Mixture Models. Tratto da Journal of Statistical Software: www.jstatsoft.org Cardi G., G., & Rusnak, R. (2007, Dicembre 15). When the SST Standard Model Underestimates Market Risk. CFO Forum. (2009, October). Market Consistent Embedded Value Principles. Retrieved from CFO Forum: http://www.cfoforum.nl/embedded_value.html Commissione Europea & EIOPA. (2010). QIS5 Technical Specifications. 158 Commissione Europea. (2009). Official Journal of the European Union. Directive 2009/138/EC of the European Parliament and of the Council. Fahrmeir, L., Kneib, T., & S., L. (2007). Regression. Springer Verlang. Glasserman, P. (2004). Monte Carlo Methods in Finance Engineering. Ney York: Sprninger. Gordy, M. B., & Juneja, S. (2008). Nested Simulation in Portfolio Risk Measurement. Heston, S. (1993). A Closed-Form Solution for Options with Stochastic Volatility with Applications to Bond and Currency Option. The Review of Financial Studies, p. 327- 343. Institute and Faculty of Actuaries. (2012, Juny 28). Solvency II - Life Insurance. Tratto da The Actuarial Profession: http://www.actuaries.org.uk/research-and- resources/documents/solvency-ii-life-insurance Kling, A., Richter, A., & J., R. (2007). The interaction of guarantees, surplus distribution, and asset allocation in with profit life insurance policies. Insurance: Mathematics and Economics, p. 40:164-178. Koenker, R., & Hallock, K. F. (2001). Quantile regression introduction. Journal of Economic Perspectives. Kolman, J., Onak, M., Jorion, P., Taleb, N., Derman, E., Putnam, B., et al. (1998). Roundtable: The Limits of Models. Derivatives Strategy. Koursaris, A. (2011). A primer in replicating portfolios. Tratto da barrie+hibbert: www.barhibb.com Kousaris, A. (2011, June). Calculating the Solvency Capital Requirement. Retrieved from barrie+hibbert: http://www.barrhibb.com/research_and_insights/article/calculating_the_solvenc y_capital_requirement Kousaris, A. (2011, July). Calculating the Solvency Capital Requirement. Retrieved from barrie+hibbert: http://www.barrhibb.com/ Kousaris, A. (2011, Luglio). Improving capital approximation using the curve-fitting approach. Tratto da http://www.barrhibb.com/ 159 Kousaris, A. (2011, Luglio). Research & insights - The advantages of Least Squares Monte Carlo. Retrieved www.barrhibb.com from barrie+hibbert: A Moody's Analytics Company: KPMG. (2010). Verso Solvency II. Longstaff, F., & Schwartz, E. (2001). Valuing American options by simulation: A simple least-squares approach. The review of Financial Studies, pp. 14:113-147. McLachalan, G. J., & Peel, D. (2000). Finite Mixture Models. John Wiley & Sons. Morrison, S. (2009). Nested Simulation for Economic Capital. Retrieved from barrie+hibbert: www.barrhibb.com Pitacco, E., & Olivieri, A. (2005). La valutazione nelle assicurazioni vita, Profili Attuariali. Egea. Pitacco, E., & Olivieri, A. (2011). Introduction to Insurance Mathematics, Technical and Financial Features of Risk Transfers. Springer. Rasmussen, N. S. (2002). Improving the Least-Squares Monte-Carlo Approach. Aarhus. Taleb, N. N. (2007). The Black Swan: The Impact of the Highly Improbable. New York: Random House. Value at Risk. (s.d.). Tratto da Wikipedia: http://en.wikipedia.org/wiki/Value_at_risk Willmot, P. (2006). Paul Wilmott on quantitative finance (2nd ed.). Zaglauer, K., & Bauer, D. (2008). Risk-neutral valuation of participating life insurance contracts in a stochastic interest rate environment. Insurance: Mathematics and Economics, 43:29-40. 160 Ringraziamenti Ringrazio il dott. Stefano Ferri, grazie al quale, non solo è nata questa tesi, ma si è concretizzato un intero scenario, inaspettato, della mia vita. Ringrazio perciò le Assicurazioni Generali S.p.A., in particolare Simone Querzoni che mi ha permesso di sviluppare una tesi ad alto contenuto sperimentale e ha fornito, pazientemente, supporto ad ogni mio dubbio e richiesta. Ringrazio in generale il dipartimento di Risk Management Framework e il dipartimento Group Capital and Value Management, in particolare Alberto Santoro, Giovanni Sala e Dario Galdieri. Ringrazio il prof. Ermanno Pitacco che ha creduto in questo progetto, permettendo di ritrovare in quest’opera l’espressione di una persona che è maturata con il ciclo di studi attuariali. In particolare, ha offerto la giusta supervisione per rendere questo lavoro unico e degno di riportare il suo nome e, al contempo, permettendo di riconoscere nel testo il mio carattere e le mie idee. Un sentito ringraziamento va al prof. Nicola Torelli che ha accettato di fornire supporto al complesso, e delicato, apparato statistico sottostante a questa tesi. Ringrazio, infine, Sara che standomi vicino mi ha dato la forza necessaria per affrontare nella migliore delle maniere quest’ultimo capitolo della mia carriera universitaria. 161