Un modello di proiezione della mortalità credibility

Transcript

Un modello di proiezione della mortalità credibility
Un modello di proiezione della mortalità credibility-adjusted
Alessio Trombetta
La Sapienza Università di Roma, Dottorato in Scienze Attuariali, Ciclo: XXVII, Tutor: Marco Pirra
Abstract: L’obiettivo del lavoro è fornire un contributo alla già ricca letteratura sui modelli di proiezione
della mortalità. In particolare si propone un nuovo approccio metodologico che tenga in considerazione
la convergenza dei trend della mortalità tra diverse popolazioni affini. A tal fine si utilizza la teoria della
credibilità all’interno di un modello di proiezione della mortalità individuale. Il modello proposto può
essere definito credibility-adjusted ed è ottenibile mediante un algoritmo a due fasi: nella prima si utilizza
un’estensione della procedura generale proposta da Hunt-Blake, al fine di creare un modello di proiezione
della mortalità individuale; nella seconda si applica il modello di Hachemeister “rivisitato” su uno dei
parametri del modello individuale, trasformandolo in credibility-adjusted. Il modello infatti incorporerà un
aggiustamento basato su quella che è l’informazione collettiva circa il trend futuro della mortalità alla
quale la popolazione di riferimento appartiene. La trattazione teorica è inoltre supportata da applicazioni
numeriche e analisi di back-testing.
Introduzione
Sappiamo come in generale ogni popolazione tenda a migliorare le proprie aspettative di vita; non solo,
negli ultimi decenni si assiste anche ad una convergenza globale dei livelli di mortalità. Tale convergenza
è stata di recente oggetto di diversi studi da parte di ricercatori e demografi.
Andando ad analizzare la mortalità dei Paesi dell’Unione Europea, così come da attuale composizione a
28 membri (UE28), si possono notare differenze anche significative, questo perché ci sono vari livelli di
convergenza. I livelli di mortalità tendono ad evolvere in maniera simile in special modo per popolazioni
affini da un punto di vista non solo geografico, ma anche sociale-politico-economico. In tal senso si è
analizzato anche il sottogruppo più omogeneo dell’Europa a 15 membri (UE15), così come composta
nel 2004, prima dell’ingresso dei Paesi ex Unione Sovietica. Oltre ad una più chiara convergenza di fondo,
si vede come quelle popolazioni che presentavano livelli di mortalità inferiore rispetto alla media del
gruppo stesso, tendano a migliorare di più in rispetto a quelle che avevano livelli di mortalità già superiori
alla media. Questo enfatizza la convergenza verso un livello medio collettivo, nel lungo termine.
Il fatto che le aspettative di vita siano in genere crescenti, fa sì che un utilizzo delle tavole di mortalità
selezionate, seppur in base a dati recenti, possa portare ad una sottostima del rischio di longevità. Le
tavole di mortalità sono utilizzate in molti contesti, sia pubblici che privati. Le valutazioni pensionistiche
e più in generale sulle rendite sono tra quelle più a rischio, in quanto si vanno a fare ipotesi sulla vita
residua attesa della popolazione nell’ambito del calcolo attuariale dei coefficienti di conversione in rendita.
Basare tali valutazioni sulla mortalità effettiva odierna equivale a sottostimare la stessa, con evidenti
squilibri di carattere economico-finanziario. In questo contesto hanno guadagnato grande importanza i
modelli di proiezione della mortalità, ovvero modelli che permettono di calcolare tavole di mortalità
cosiddette proiettate, le quali tentano di considerare e ridurre proprio il rischio di longevità.
Nel tempo sono stati proposti una miriade di modelli. Nel lavoro viene riportata una panoramica dei
modelli principali, ovvero quelli che in qualche modo hanno segnato la letteratura, con particolare
riferimento alla famiglia dei modelli derivanti da estensione del modello Lee-Carter (1992), che ha
rappresentato uno spartiacque significativo. Si è notato come la maggior parte dei modelli tende a non
tener conto della convergenza dei livelli di mortalità, sebbene qualche approccio, anche recente, esista.
Un focus specifico è stato dedicato alla general procedure proposta da Hunt-Blake (2014) quale algoritmo
per creare un generico modello di mortalità sulla base dei dati sottostanti. Tale approccio viene poi ripreso
ed esteso al fine di creare il nuovo modello proposto.
Metodologia
Di seguito si presenta il cuore della nuova proposta, che ricade in un contesto age-period-cohort. Indichiamo
con 𝑝 (= 1, 2, … , 𝑃) la generica popolazione oggetto di studio. Il modello di proiezione della mortalità
credibility-adjusted per la popolazione 𝑝 può essere ricompreso in una famiglia del tipo seguente:
𝑁(𝑝)
𝐷(𝑥, 𝑡; 𝑝)
𝐶𝐴
𝜂 (𝐸 (
)) = 𝛼(𝑥; 𝑝) + 𝑓 (1) 𝑘 (1 ) (𝑡; 𝑝) + ∑ 𝑓 (𝑖) (𝑥; 𝜃𝑖 ; 𝑝)𝑘 (𝑖) (𝑡; 𝑝) + 𝛾(𝑡 − 𝑥; 𝑝)
𝐸 (𝑥, 𝑡; 𝑝)
𝑖=2
dove:
 𝜂 è una funzione che trasforma i dati osservati in una forma adatta ad essere modellata;
 𝛼(𝑥; 𝑝) è una funzione statica per età e relativa alla popolazione 𝑝 che cattura la forma generale
della curva di mortalità che non cambia nel tempo;
 𝑁(𝑝) è il numero di coppie di effetti age-period per la popolazione 𝑝 del tipo
𝑓 (𝑖) (𝑥; 𝜃𝑖 ; 𝑝)𝑘 (𝑖) (𝑡; 𝑝), dove i parametri 𝑘 (𝑖) (𝑡; 𝑝) rappresentano i trend temporali e forniscono
l’evoluzione dei tassi di mortalità nel tempo, mentre le funzioni per età 𝑓 (𝑖) (𝑥; 𝜃𝑖 ) determinano
quali classi di età sono influenzate da questi trend. Il numero di coppie 𝑁(𝑝) dipende dalla
popolazione di riferimento e comprende nel conteggio la prima coppia di effetti age-period relativa
al trend temporale aggiustato per la credibilità di cui sotto;
𝐶𝐴
 𝑓 (1) 𝑘 (1 ) (𝑡; 𝑝) è la prima coppia di effetti age-period; ad ogni modo è differente dalle altre e per
questo tenuta separata; 𝑓 (1) è una costante uguale per tutte le popolazioni e pari al numero 𝑓 (1) =
1⁄(𝑥𝑚𝑎𝑥 − 𝑥𝑚𝑖𝑛 ), dove 𝑥𝑚𝑎𝑥 e 𝑥𝑚𝑖𝑛 rappresentano rispettivamente l’età massima e minima
𝐶𝐴
considerata nella stima del modello; il fattore 𝑘 (1 ) (𝑡; 𝑝) rappresenta la prima componente
relativa al trend temporale ed è credibility-adjusted (CA), in quanto rappresenta il primo fattore
temporale della popolazione “individuale” 𝑝 aggiustato per tener conto dell’appartenenza della
stessa al “collettivo” di popolazioni di riferimento: questo è il parametro che permette effetti di
convergenza verso livelli di mortalità comuni.
 𝛾(𝑡 − 𝑥; 𝑝) è il parametro relativo all’effetto coorte per la popolazione 𝑝, che determina effetti
relativi a specifiche generazioni nate nell’anno 𝑡 − 𝑥.
La formulazione sopra riportata si riferisce al modello finale. In realtà per giungere a tale forma occorre
passare tramite una fase a due step principali.
1. La prima fase permette di calcolare il fattore 𝑘 (1) (𝑡; 𝑝) non aggiustato per la credibilità, nonché
tutte le altre componenti che formano la base del modello per ogni popolazione 𝑝. Questa fase è
del tutto analoga alla procedura generale proposta da Hunt-Blake (2014), sebbene preveda dei
vincoli aggiuntivi; si tratta di un algoritmo per creare il modello di mortalità per ciascuna
popolazione, partendo da zero, con l’aggiunta dei parametri sulla base dei dati della popolazione
sottostante. Ad ogni step sia valuta se il nuovo termine aggiunto è in accordo con i criteri di
desiderabilità assieme all’incremento del numero di parametri liberi. Si utilizza pertanto una
misura del tipo BIC (Bayes Information Criterion), che assicuri un trade-off tra qualità
dell’adattamento e parsimonia del modello.
𝐶𝐴
2. La seconda fase permette di calcolare il fattore 𝑘 (1 ) (𝑡; 𝑝) aggiustato per la credibilità attraverso
il modello di Hachemeister “rivisitato”; ogni popolazione avrà il proprio fattore individuale che
terrà però conto dell’appartenenza della popolazione stessa al collettivo di riferimento mediante
i pesi di credibilità stimati in questa seconda fase.
Il modello di Hachemeister (1975) rappresenta una generalizzazione della credibilità al caso di regressione
lineare. Il caso è per noi interessante in quanto il modello proposto tiene conto della credibilità
applicandola di fatto ad uno dei parametri temporali del modello, 𝑘 (1) (𝑡; 𝑝), che si può ipotizzare abbia
un trend di lungo periodo sostanzialmente lineare (di tipo stocastico).
La teoria della credibilità si basa sui due concetti fondamentali di “individuale” e “collettivo”, e risolve in
maniera rigorosa il problema di come analizzare e combinare l’informazione ottenuta da queste fonti per
arrivare alla valutazione del rischio. Molto spesso la base dati per la valutazione del rischio individuale
non è sufficientemente ampia da permettere una valutazione affidabile. L’utilizzo della base dati relativa
al rischio collettivo, molto più ampia, cui il singolo rischio appartiene può permettere di aggiustare le
stime individuali, sulla base di quanto è credibile l’informazione individuale. Attraverso un contesto
matematico rigoroso si possono calcolare gli stimatori ed i pesi di credibilità tali da valutare un rischio
che sia credibility-adjusted.
Il modello di Hachemeister, nella sua versione “rivisitata” proposta da Bühlmann e Gisler (1997), è
stato ridefinito applicandolo al caso di studio. Abbiamo un gruppo di 𝑃 rischi (ovvero le popolazioni),
ciascuno dei quali con vettore di valori e relativi pesi (per l’𝑝-esimo rischio) pari a: 𝐊 ′𝑝 =
(𝐾𝑝1 , 𝐾𝑝2 , … , 𝐾𝑝𝑛 ) e 𝐰𝑝′ = (𝑤𝑝1 , 𝑤𝑝2 , … , 𝑤𝑝𝑛 ). Il vettore 𝐊 ′𝑝 contiene i valori trovati mediante la fase
1 per la popolazione 𝑝 in riferimento al parametro 𝑘 (1) (𝑡; 𝑝), al variare di 𝑡 = 1, … , 𝑛, dove 𝑡 rappresenta
gli anni di calendario dei dati storici alla base della stima del modello. Come pesi 𝐰𝑝′ si può considerare
la numerosità della popolazione sottostante 𝑝 nel periodo di riferimento 𝑡.
Il rischio 𝑝 è caratterizzato da un profilo di rischio individuale 𝜗𝑝 , che è esso stesso la realizzazione di
una variabile aleatoria 𝛩𝑝 . Occorre fare le seguenti ipotesi:
i.
Condizionalmente, dato 𝛩𝑝 , i 𝐾𝑝𝑗 , 𝑗 = 1, 2, … , 𝑛 sono indipendenti ed abbiamo:
1
1
𝐸[𝐊 𝑝 |𝛩𝑝 ] = ⋮
⋮
[1
dove:
1 − 𝑗0
2 − 𝑗0 𝜇 (𝛩 )
0
𝑝
]
3 − 𝑗0 [
(𝛩
)
𝜇
1
𝑝
⋮
𝑛 − 𝑗0 ]
𝝁(𝛩𝑝 ) = vettore di regressione con componenti linearmente indipendenti
𝒀𝑝 = matrice disegno nota, già “trasformata” in base al modello “rivisitato”
𝐶𝑜𝑣[𝐊 𝑝 , 𝐊 ′𝑝 |𝛩𝑝 ] = 𝜮𝑝 (𝛩𝑝 )
ii.
Le coppie (𝛩1 , 𝐊1 ), (𝛩2 , 𝐊 2 ), … sono indipendenti, e 𝛩1 , 𝛩2 , … sono indipendenti e
identicamente distribuiti.
Assumiamo inoltre 𝑺𝑝 = 𝐸 [𝐶𝑜𝑣[𝐊 𝑝 , 𝐊 ′𝑝 |𝛩𝑝 ]] = 𝜎 2 ∙ 𝑾𝑝−1 , dove 𝑾𝑝 è una matrice diagonale
contenente i pesi per la 𝑝-esima popolazione.
Possiamo riscrivere l’equazione di regressione in questa forma 𝐸[𝐾𝑝𝑗 |𝛩𝑝 ] = 𝜇0 (𝛩𝑝 ) + (𝑗 − 𝑗0 )𝜇1 (𝛩𝑝 )
dove 𝜇0 (𝛩𝑝 ) è l’intercetta al centro di gravità della variabile tempo e 𝜇1 (𝛩𝑝 ) è la pendenza. Sotto queste
ipotesi gli stimatori 𝐌 𝑝 e le matrici di credibilità 𝒁𝑝 saranno:
𝐸 (𝑠) [𝐾𝑝𝑗 ]
𝑝
𝑀
𝐌 𝑝 = [ 0𝑝 ] = [𝐶𝑜𝑣 (𝑠) [𝑗, 𝐾𝑝𝑗 ]]
𝑀1
𝑉𝑎𝑟 (𝑠) [𝑗]
𝑤𝑝•
0
𝑝
𝑤𝑝• + 𝑐0
𝑧
0
𝒁𝑝 = [ 11
𝑝 ]=
𝑤𝑝• 𝑉𝑎𝑟 (𝑠) [𝑗]
0 𝑧22
0
𝑤𝑝• 𝑉𝑎𝑟 (𝑠) [𝑗] + 𝑐1 ]
[
dove 𝑐0 = 𝜎 2 ⁄𝜏02 e 𝑐1 = 𝜎 2 ⁄𝜏12 rappresentano i coefficienti di credibilità.
Gli stimatori di credibilità per le componenti di 𝜇(𝛩𝑝 ) saranno:
𝑝
𝑝
𝑝
̿̿̿̿̿̿̿̿̿
𝜇 (𝛩 ) = 𝑧 𝑀 + (1 − 𝑧 ) 𝜇
0
𝑝
11
0
11
0
𝑝
𝑝
𝑝
̿̿̿̿̿̿̿̿̿
𝜇
1 (𝛩𝑝 ) = 𝑧22 𝑀1 + (1 − 𝑧22 ) 𝜇1
𝑝
𝑝
𝑝
𝑝
I pesi di credibilità 𝑧11 e 𝑧22 sono basati sui pesi campionari 𝑤𝑝• per 𝑧11 e 𝑤𝑝• 𝑉𝑎𝑟 (𝑠) [𝑗] per 𝑧22 .
Queste formule sono valide per ogni popolazione 𝑝, pertanto avremo un numero di vettori 𝐌 𝑝 e matrici
𝒁𝑝 pari a 𝑃. Ogni popolazione avrà il proprio stimatore individuale e la propria matrice di credibilità,
mentre ci sarà un solo vettore 𝝁 relativo al collettivo, che verrà utilizzato nelle formule di tutte le
popolazioni.
Di fatto questo ci permette di passare dal vettore 𝐊 𝑝 , che contiene i valori trovati mediante la fase 1, al
(1) (
vettore 𝐊 𝐶𝐴
𝑡; 𝑝), da
𝑝 , che contiene i valori credibility-adjusted in riferimento allo stesso parametro 𝑘
utilizzare in sua sostituzione:
𝐾𝑝1
𝐾
𝑲𝑝 = 𝑝2
⋮
[𝐾𝑝𝑛 ]
𝐶𝐴
𝐾𝑝1
1 1 − 𝑗0
̿̿̿̿̿̿̿̿̿
𝐶𝐴
1 2 − 𝑗0 𝜇0 (𝛩𝑝 )
[
][
] = 𝐾𝑝2 = 𝐊 𝐶𝐴
𝑝
̿̿̿̿̿̿̿̿̿
⋮
⋮
⋮
𝜇1 (𝛩𝑝 )
1 𝑛 − 𝑗0
[𝐾 𝐶𝐴 ]
𝑝𝑛
Risultati and Conclusioni
Al fine di applicare la nuova metodologia si è selezionata la popolazione UE15, questo per assicurare
che il collettivo fosse sufficientemente omogeneo. Si è quindi applicato l’algoritmo a due step ,
andando dapprima a costruire i modelli di proiezione della mortalità individuale per tutte le singole
popolazioni. La forma di ciascun modello è pertanto differente. Tra i vari parametri, si sono trovati
i vettori dei 𝑘 (1) (𝑡; 𝑝), che rappresentano i trend temporali della mortalità. Mediante il secondo step si
è quindi introdotta la credibilità e si sono calcolati i nuovi parametri temporali credibility-adjusted
𝐶𝐴
𝑘 (1 ) (𝑡; 𝑝). Questo ha portato alla definizione dei modelli di proiezione della mortalità finali, per
ciascuna popolazione. Gli stessi sono stati poi utilizzati per le stime della mortalità futura. Al fine di avere
un riscontro oggettivo, tutte le applicazioni numeriche sono state basate sulle serie storiche 1950-1985,
questo per far sì di avere dei dati reali, relativi al periodo 1986-2010, con i quali confrontare le proiezioni
“future” dei modelli. Si è pertanto effettuata una analisi di back-testing, confrontando anche le risultanze
di altri modelli, in particolare i quelli individuali non credibility-adjusted. I risultati mostrano come in generale
il modello tenda a produrre una migliore aderenza alla mortalità effettiva di ciascuna popolazione.
Trattandosi di nuova proposta, il modello ha diverse limitazioni: ad esempio la clusterizzazione delle
popolazioni, ora effettuata mediante considerazioni di carattere sia qualitativo che quantitativo, potrà
essere oggetto di ulteriori sviluppi e di un focus specifico; per alcuni Paesi l’utilizzo della credibilità,
sebbene supportato da una base probabilistica formalmente corretta, può portare a risultati non
necessariamente migliorativi; la procedura può risultare piuttosto onerosa, in quanto prevede un
algoritmo a due step, limitazione questa relativamente superabile con l’implementazione di procedure
automatizzate e software informatici; ulteriori analisi sono necessarie, in particolare sarà interessante
verificare i risultati per popolazioni differenti da quella oggetto di studio. Analogamente, proprio perché
rappresenta una nuova strada, il modello possiede molti margini di miglioramento. Pertanto si prevedono
futuri sviluppi che possano esplorare le potenzialità di questo nuovo approccio.
Bibliografia
[1] Bühlmann H., Gisler A. (1997). Credibility in the regression case revisited. Astin Bulletin, 27:83-98.
[2] Bühlmann H., Gisler A. (2005). A course in Credibility Theory and its Applications, Springer.
[3] Continuous Mortality Investigation (CMI) (2007). Stochastic projection methodologies: Lee-Carter
model features, example results and implications, Working paper 25.
[4] Human Mortality Database, 2012. Human Mortality Database. Tech. rep., University of California,
Berkeley and Max Planck Institute for Demographic Research. URL www.mortality.org
[5] Hunt, A., Blake, D. (2014). A General Procedure for Constructing Mortality Models, North American
Actuarial Journal, 18:1, 116-138, DOI:
[6] Lee R.D., Carter L.R. (1992). Modelling and Forecasting U.S. Mortality – Journal of the American
Statistical Association – vol. 87, n° 419, 659-671