Corso di Risk Management S

Transcript

Corso di Risk Management S
La stima dei parametri
I
Per l’implementazione della procedura abbiamo bisogno di
stimare µ e Σ, cioè il valore atteso e la matrice di
covarianza della distribuzione dei fattori di rischio. Due
possibilità:
(i) (unconditional): calcolo la media campionaria e la matrice
di covarianza campionaria su un periodo lungo;
(ii) (conditional): ipotizzo che i dati siano la realizzazione di
una serie storica multivariata e stimo media e matrice di
covarianza sulla base del modello ipotizzato (esempi:
EWMA, GARCH);
I
Debolezze del metodo parametrico:
(i) la perdita linearizzata potrebbe essere diversa dalla perdita
effettiva. Le soluzioni possibili sono due:
un’approssimazione basata anche sulla derivata seconda
della funzione che lega gli strumenti ai fattori di rischio
(metodo Delta-Gamma); la full valuation, vale a dire la
completa rivalutazione del portafoglio a seguito del
cambiamento dei fattori di rischio;
(ii) l’assunzione di normalità è poco realistica (problema delle
code pesanti).
La curtosi
I
I
Per quanto riguarda il secondo problema, un’utile misura
della pesantezza delle code è la curtosi.
La curtosi di una v.c. X con E(X 4 ) < ∞ è data da:
k=
I
I
I
E(X − µ)4
.
(σ 2 )2
La curtosi di una v.c. normale è sempre uguale a 3, a
prescindere dai valori di µ e σ.
Una v.c. X si dice leptocurtica se ha curtosi maggiore di 3.
In questo caso ha le code più pesanti ed è più appuntita.
Per esempio, la curtosi della t di Student con p gradi di
libertà (tp ) è data da ktp = 3(p − 2)/(p − 4).
Per verificare se la distribuzione dei cambiamenti dei fattori
di rischio è leptocurtica, cioè se le code sono pesanti, si
può calcolare la curtosi empirica; se è molto maggiore di 3,
il VaR normale ad alti livelli di confidenza sottostimerà le
perdite.
La simulazione storica
I
I
I
I
I
I
Si applica l’operatore di perdita alla distribuzione storica di
n osservazioni dei cambiamenti dei fattori di rischio X t .
Si ottiene così una distribuzione di perdita composta da n
osservazioni; sotto l’ipotesi che la distribuzione di perdita
resti invariata nel periodo considerato, essa costituisce una
stima consistente della vera distribuzione di perdita.
Le misure di perdita sono calcolate sulla distribuzione
empirica: il VaR è il quantile di tale distribuzione.
Il maggior pregio è la facilità di implementazione (non è
richiesto il calcolo di stime, nè ipotesi sulla volatilità o sulla
struttura di dipendenza).
Richiede però una notevole quantità di dati: se il periodo
storico è troppo breve, è probabile che non contenga
eventi estremi.
D’altra parte, se è troppo lungo, la composizione del
portafoglio cambia e non stimiamo più la stessa
distribuzione di perdita.
Il metodo Monte Carlo
I
Si basa sulla simulazione di osservazioni dalla
distirbuzione di probabilità dei fattori di rischio.
(i) Primo passo: scelta della distribuzione di X t e stima dei
parametri.
(ii) Secondo passo: simulazione di B osservazioni
(1)
(B)
X t+1 , . . . , X t+1 da tale distribuzione.
(iii) Terzo passo: applicazione dell’operatore perdita a tali
osservazioni. Si ottengono così B osservazioni simulate
(∗1)
(∗B)
dalla distribuzione di perdita Lt+1 , . . . , Lt+1 .
(iv) Quarto passo: calcolo delle misure di rischio; come nella
simulazione storica, il VaR è il quantile empirico della
distribuzione simulata.
I
Benché il metodo possa approssimare con precisione la
distribuzione di X t , dipende ovviamente da tale
distribuzione; inoltre il costo computazionale è alto.
RiskMetrics
I
I
RiskMetrics (www.riskmetrics.com) è un sistema,
sviluppato e diffuso da JP Morgan nel 1996, costituito da
un insieme di metodologie e dati per misurare il rischio di
mercato.
In particolare, RiskMetrics dettaglia:
(i) Il contesto concettuale sottostante le metodologie per il
calcolo del rischio di mercato;
(ii) le statistiche dei rendimenti degli strumenti finanziari;
(iii) come modellare le esposizioni degli strumenti finanziari ai
fattori di rischio;
(iv) i data set di misure statistiche stimate e distribuite
giornalmente da JP Morgan (in particolare volatilità e
correlazioni).
I
L’accento è posto più sulla facilità di implementazione e
interpretazione che sulla sofisticazione delle procedure.
Stima della volatilità
I
Nel rischio di mercato si suppone per lo più µ = 0.
I
Nell’approccio unconditional la stima della varianza è
semplicemente
varianza campionaria:
Pla
T
2
2
σ̂t+1 = (1/T ) i=1 rt+1−i
.
I
Nell’approccio conditional si suppone che la varianza sia
time-varying; ciò equivale a modificare il modello dei
rendimenti come segue:
rt = σt ,
I
t = 1, . . . , T ,
∼ N(0, 1).
Si ipotizza spesso che la varianza al tempo t + 1 dipenda
dalla varianza al tempo t e dal quadrato del rendimento al
tempo t:
2
σt+1
= λσt2 + (1 − λ)rt2 .
Il metodo EWMA
I
Per stimare la volatilità, nell’approccio standard
RiskMetrics si utilizza lo stimatore definito Exponentially
Weighted Moving Average (EWMA): la previsione della
varianza al tempo t + 1 effettuata al tempo t è data da
2
σ̂t+1|t
= P+∞
i=1
I
+∞
X
1
λi−1
2
λi−1 rt+1−i
,
λ < 1.
(12)
i=1
E’ chiaro che in pratica la serie va troncata: è prassi
utilizzare 75 osservazioni, ovvero
2
σ̂t+1|t
= PT
T
X
1
i=1
λi−1
2
λi−1 rt+1−i
,
λ < 1,
i=1
dove T = 75. Tramite il parametro λ si pesano di più le
osservazioni più recenti.
(13)
Il metodo EWMA
I
RiskMetrics fissa λ = 0.94. Oltre al fatto di essere frutto di
una scelta poco corretta dal punto di vista metodologico (i
parametri andrebbero stimati sulla base dei dati),
numerose verifiche empiriche hanno mostrato che il valore
0.94 per il parametro λ è in generale troppo alto.
I
Un vantaggio di questo stimatore è che può essere
calcolato (approssimativamente) tramite una formula
ricorsiva a mano a mano che si rendono disponibili ulteriori
osservazioni:
2
2
σ̂t+1|t
= λσ̂t|t−1
+ (1 − λ)rt2 .
I
(14)
Teorema. La formula esatta (12) per il calcolo dello
stimatore EWMA tende, per T → ∞, alla formula ricorsiva
(14).
Il metodo EWMA
I
Anche la covarianza può essere calcolata tramite una
formula EWMA:
σ12,t+1|t = PT
1
i−1
i=1 λ
T
X
λi−1 r1,t+1−i r2,t+1−i .
i=1
I
Tale formula può a sua volta essere espressa in forma
ricorsiva (in questo caso λ è posto pari a 0.97):
σ12,t+1|t = λσ12,t|t−1 + (1 − λ)r1t r2t .
I
Osservazione. Non è garantito che la stima della matrice di
covarianza ottenuta tramite lo stimatore EWMA applicato
ad ogni elemento della matrice sia definita positiva.
Il metodo EWMA
I
Indichiamo con S E (di dimensione d × d) lo stimatore
EWMA della matrice di covarianza Σ. Può succedere che,
0
per qualche vettore α∗ ∈ IR d , si abbia α∗ S E α∗ < 0.
I
Ne segue che, se r = (r1 , . . . , rd )0 è il vettore dei
rendimenti di p attività finanziarie (dove E(r ) = µ e
cov (r ) = Σ) e α∗ = (α1∗ , . . . , αd∗ )0 è il vettore dei pesi (dove
P
0
αi∗ ∈ [0, 1] ∀i, di=1 αi∗ = 1), il portafoglio α∗ r ha varianza
stimata negativa.
I
Da questo punto di vista è preferibile lo stimatore
campionario S (ottenuto con λ = 1), che, sotto l’ipotesi
T > d, fornisce sempre una matrice definita positiva.
Modelli GARCH
I
Introdotti da R. Engle nel 1982, i modelli della famiglia
ARCH (AutoRegressive Conditional Heteroskedasticity),
poi estesi nella forma GARCH (Generalised
AutoRegressive Conditional Heteroskedasticity) hanno
avuto una notevole diffusione in ambito finanziario. Il
processo generatore dei dati è:
rt = σt t .
I modelli ARCH(q) e GARCH(p, q) sono dati
rispettivamente da:
σt2
=α+
σt2 = α +
q
X
i=1
q
X
i=1
2
βi rt−i
;
2
βi rt−i
+
p
X
i=1
2
γi σt−i
.
Modelli GARCH
I
L’idea di base è la seguente: osservando il grafico dei
rendimenti di un’attività finanziaria, generalmente si nota
che la volatilità tende ad aggregarsi nel tempo.
I
Periodi di relativa calma, in cui cioè i rendimenti si
muovono “poco”, e quindi la volatilità è bassa, si alternano
a periodi “turbolenti”, in cui i rendimenti si muovono
“molto”. Ne segue che ha senso ipotizzare che la volatilità
al tempo t dipenda dai rendimenti al tempo
t − 1, t − 2, . . . , t − q (modelli ARCH(q)) o, più in generale,
non solo dai rendimenti al tempo t − 1, t − 2, . . . , t − q, ma
anche dalla volatilità al tempo t − 1, t − 2, . . . , t − p (modelli
GARCH(p, q)).
Modelli GARCH
I
Nella forma più usata, si ipotizza che il processo
generatore dei dati sia del tipo GARCH(1, 1):
rt = σt t ,
2
2
σt2 = α + βrt−1
+ γσt−1
,
I
dove t ∼ N(0, 1).
I due problemi principali associati ai modelli GARCH sono i
seguenti:
(i) stimare i parametri non è banale perché la funzione di
verosimiglianza va massimizzata numericamente;
(ii) in ambito multivariato i modelli sono molto complicati
perché il numero di parametri cresce esponenzialmente.
Modelli GARCH
I
Se si assume che la varianza dei rendimenti segua un
processo del tipo GARCH, la distribuzione condizionata
della v.c. rt |rt−1 è normale con media nulla e varianza σt2 ,
ma la distribuzione non condizionata non è normale: in
particolare, si dimostra che la curtosi della distribuzione
non condizionata è maggiore di 3; dunque la distribuzione
non condizionata di rt ha code più pesanti della normale.
I
Si noti che ponendo α = 0 e β = 1 − γ si ottiene la formula
ricorsiva per la volatilità EWMA. In particolare, la soluzione
adottata da RiskMetrics si ottiene con β = 0.94.
Volatilità implicita
I
In alcuni casi è possibile fare ricorso alla cosiddetta
volatilità implicita: ciò accade per esempio con la formula
di Black & Scholes.
I
Nella formula di B&S, infatti, tutto è noto eccetto Ct e/o σ.
I
Tuttavia è spesso disponibile un prezzo di mercato CtM ; se
il mercato dell’opzione in questione è sufficientemente
liquido, tale prezzo può essere considerato attendibile, e si
può quindi, in linea di principio, invertire la formula di B&S
in modo da ottenere una funzione del tipo
σ = g(K , St , r , T − t, Ct ) da cui ricavare σ.
I
In pratica non si riesce ad invertire esplicitamente la
formula di B&S (e dunque ad ottenere la funzione g in
forma chiusa), tuttavia il problema è facilmente risolvibile
per via numerica tramite algoritmi iterativi che, senza
determinare la funzione inversa, trovano il valore di σ
corrispondente a CtM .
Volatilità implicita
I
I
La volatilità implicita è generalmente considerata dai
practitioner più affidabile della volatilità storica; la ragione
principale starebbe nel fatto che la volatilità implicita è
considerata, a differenza della volatilità storica,
forward-looking.
L’utilizzo della volatilità implicita non è però privo di
controindicazioni:
(i) è connessa all’utilizzo di un certo modello parametrico di
pricing delle opzioni (la formula di B&S); se la formula non
è corretta, per esempio perché qualcuna delle ipotesi su cui
si basa non è rispettata, la volatilità implicita non è uno
stimatore appropriato della volatilità;
(ii) si ritene che la volatilità implicita rifletta più rapidamente
degli stimatori ottenuti tramite dati storici i cambiamenti di
volatilità causati da mutate condizioni di mercato; ma se la
volatilità non è costante, allora certamente la formula di
B&S non è valida e quindi non ha senso ricavarne una
volatilità implicita!
Volatilità implicita
(iii) se la formula di B&S valesse, le volatilità implicite ricavate
da opzioni diverse sul medesimo sottostante dovrebbero
essere identiche, il che in pratica non si verifica e dunque
qualche ipotesi della formula di B&S non è rispettata.
I
In conclusione, sembra opportuno ridimensionare
l’importanza della volatilità implicita; se la volatilità è
time-varying, è preferibile costruire modelli a volatilità non
costante, stimata sulla base di dati storici (GARCH,
volatilità stocastica,...).
Backtesting
I
Se la distribuzione ipotizzata approssima bene la vera
distribuzione dei rendimenti, ci si aspetta che il VaR
calcolato preveda con precisione la frequenza delle perdite
che eccedono il VaR.
I
La più semplice procedura per verificare l’appropriatezza
della misura di VaR consiste dunque nel contare il numero
di violazioni, cioè il numero di volte in cui la perdita
osservata è maggiore del VaR calcolato. Sia 1{−rt >VaRt } (rt )
una variabile aleatoria definita come segue:
(
1 se − rt > VaRt ;
def
Xt = 1{−rt >VaRt } (rt ) =
0 altrimenti.
I
Se il VaR al livello α è effettivamente il quantile α della
distribuzione dei rendimenti, la variabile aleatoria X
assume valore 1 con probabilità 1 − α e 0 con probabilità α.
Backtesting
I
Dunque, X ha distribuzione bernoulliana di parametro α.
Poiché la somma di T variabili aleatorie bernoulliane
indipendenti di parametro α ha distribuzione binomiale di
def PT
parametri (T , α), si ha che YT =
t=1 Xt ∼ Bin(T , α).
I
Quindi ci si aspetta di osservare un numero di violazioni
pari a E(YT ) = T · α. Per esempio, se α = 0.05, in 4
settimane (20 giorni lavorativi) ci si aspetta di osservare
T · α = 20 · 0.05 = 1 violazione.
I
Si consideri la variabile aleatoria
YT − T · α
WT = p
T · α · (1 − α)
.
Backtesting
I
T →∞
Per il teorema del limite centrale, WT → N(0, 1). Allora
per T sufficientemente grande si può costruire il seguente
test:
p
(i) si calcola la quantità wT = (yT − T · α)/ T · α · (1 − α);
(ii) fissato un livello di significatività β, si accetta l’ipotesi nulla
H0 : “al livello di confidenza α, il modello prevede
correttamente la frequenza delle perdite” se wT < z1−β ,
dove z1−β è il quantile 1 − β della distribuzione normale
standard. Altrimenti si rifiuta l’ipotesi nulla.
Esempio di backtesting
I
Per l’azione Eni (febbraio 2006 - febbraio 2007),
effettuando tutti i calcoli richiesti (utilizzando lo stimatore
EWMA per la volatilità) si osservano 17 violazioni del VaR
al 95%, con T = 260 e β = 0.05. Dunque
(17 − 260 · 0.05)
w0.05 = √
= 1.1382.
0.05 · 0.95 · 260
Posto β = 0.05, si trova z1−β = 1.6449 e, poiché
1.1382 < 1.6449, si accetta l’ipotesi nulla.
I
Per quanto riguarda il VaR al 99% si ottengono invece 6
violazioni e z0.01 = 2.119. Essendo 2.119 > 1.6449, si
rifiuta l’ipotesi nulla.
I
Infine, per quanto riguarda il VaR al 99.5% si ottengono 5
violazioni e z0.01 = 3.253. Essendo 3.253 > 1.6449, si
rifiuta l’ipotesi nulla.
Rischio di credito
I
Gli ingredienti di base per identificare la rischiosità di una
singola controparte sono:
(i) la Probabilità di Default (PD);
(ii) la Loss Given Default (LGD);
(iii) la Exposure At Default (EAD).
I
Il primo accordo di Basilea (1988) prevedeva che il capitale
di riserva fosse almeno pari all’8% delle attività ponderate
in base al rischio. Come è stabilita la ponderazione? 100%
per tutti gli impieghi a clientela, 20% per i prestiti a banche,
0% per i prestiti allo Stato.
La normativa di vigilanza
I
I
Problema: un peso solo per tutta la clientela privati può
trasformarsi in un incentivo a prestare ai clienti più
rischiosi, che richiedono la stessa riserva di capitale dei
clienti meno rischiosi, ma producono margini più elevati.
Da qui la necessità di un nuovo accordo (noto come
“Basilea 2”); esso è basato su una radicale riforma del
criterio dell’8%. In Basilea 2 ci sono due (tre) approcci
alternativi:
(1) approccio standard: le banche che non hanno sistemi di
rating interni useranno rating esterni, certificati dalle
autorità di vigilanza; il capitale richiesto è pari all’8%,
pesato come segue: da 20 a 150% per imprese o banche;
da 0 a 150% per Stati sovrani; 100% per clientela priva di
rating.
(2) approccio dei rating interni, suddiviso in:
La normativa di vigilanza
(2a) approccio di base: la banca elabora un proprio sistema di
rating (trasparente, documentato, verificabile,
periodicamente revisionato) per misurare la PD; LGD ed
EAD sono misurate con parametri fissati dalle autorità.
(2b) approccio avanzato: anche LGD ed EAD sono stimate
internamente dalla banca. Lo possono adottare solo le
banche che siano in grado di dimostrare la correttezza, la
coerenza, la trasparenza e l’efficacia delle metodologie
adottate, basate su dati storici sufficientemente numerosi.
Rating
I
I rating sono una misura del merito di credito di un’azienda.
Per le aziende “più grandi” sono disponibili rating prodotti
dalle agenzie (Moody’s, S&P, Fitch). Soprattutto in Europa,
tuttavia, la stragrande maggioranza delle controparti non
ha un rating di agenzia, e dunque i rating sono calcolati
internamente dalle banche; a tale scopo si utilizzano
tecniche statistiche (analisi discriminante, regressione
logistica,...) basate su variabili esplicative quantitative
(principalmente tratte dai bilanci delle aziende) e qualitative
(qualità del management, struttura dell’azienda, situazione
politica e sociale del Paese in cui l’azienda ha sede).
Lo Z -score di Altman
I
Storicamente, la prima applicazione è basata sull’analisi
discriminante: Z-score (Altman 1968):
Z = 1.2X1 + 1.4X2 + 3.3X3 + 0.6X4 + X5 ,
dove:
X1 : capitale circolante / totale attivo,
X2 : utili non distribuiti / totale attivo,
X3 : utili ante interessi e imposte / totale attivo,
X4 : valore di mercato del patrimonio / valore contabile dei
debiti a lungo termine,
X5 : fatturato / totale attivo.
I
Soglia: 1.81; le imprese il cui score Z è maggiore della
soglia vengono classificate in bonis, le altre insolventi.
Questi modelli hanno poi preso il nome di modelli di
scoring.
Rating e PD
I
Esistono poi mappature (calcolate dalle agenzie di rating)
che associano ai rating una PD; a grandi linee, tali
mappature sono costruite come segue:
(i) per ciascuna classe di rating, si calcola il tasso medio di
default su un periodo di tempo “lungo”;
(ii) si stima una regressione lineare semplice fra il logaritmo
del tasso medio di default appena calcolato (variabile
dipendente) e il rating (variabile indipendente):
log(D̄) = α + βR + ,
dove D̄ è il tasso di default medio e R è il rating;
(iii) infine, le PD corrispondenti a ciascuna classe di rating sono
stimate sulla base della retta di regressione.
Perdita Bernoulliana
I
Un vettore casuale D = (D1 , . . . , DN )0 è detto statistica di
perdita Bernoulliana se tutte le sue marginali sono
Bernoulliane:
Di ∼ Bin(1; πi ).
dove N è il numero di controparti. La v.c. Di è un indicatore
dell’evento default della controparte i:
(
1 se la controparte fallisce
Di =
0 se la controparte sopravvive
I
La probabilità di successo πi è la probabilità di default non
condizionata, in quanto l’evento “successo” è identificato
con il fallimento.
Perdita di portafoglio
I
Quando si passa a trattare un portafoglio di N prestiti, è
necessario introdurre la perdita di portafoglio:
Lptf =
N
X
Li =
i=1
I
N
X
Si verifica facilmente che, se EADi e LGDi sono costanti, la
perdita attesa è data da
EL = E(Lptf ) =
N
X
E(Li ) =
i=1
I
EADi × LGDi × Di .
i=1
N
X
EADi × LGDi × PDi .
i=1
Per analizzare il rischio non è sufficiente limitarsi alla
perdita attesa; si calcola allora anche la perdita inattesa,
definita come la deviazione standard della v.c. Lptf :
v
u N
q
uX
EADi EADj LGDi LGDj cov (Di , Dj ).
ULptf = var (Lptf ) = t
i,j=1
Perdita di portafoglio
I
La covarianza fra i default può essere riscritta come segue:
q
cov (Di , Dj ) = ρij × PDi (1 − PDi )PDj (1 − PDj ),
dove ρij = corr (Di , Dj ) è la correlazione fra i default
(default correlation).
I
Dunque (il quadrato della) perdita inattesa è uguale a
UL2ptf = var (Lptf ) =
N
X
EADi EADj LGDi LGDj
q
PDi (1 − PDi )PDj (1 − PDj )ρij .
i,j=1
I
Nel caso di due soli prestiti, con PD1 = π1 , PD2 = π2 ,
ρ12 = ρ, LGD1 = LGD2 = EAD1 = EAD2 = 1, si ha
p
UL2ptf = π1 (1 − π1 ) + π2 (1 − π2 ) + 2ρ π1 (1 − π1 )π2 (1 − π2 ).
Perdita di portafoglio
I
Consideriamo 3 casi:
(i) ρ = 0; diversificazione perfetta.
(ii) ρ > 0; il default dell’una incrementa la PD dell’altra. Infatti:
P(D2 = 1, D1 = 1)
E(D1 D2 )
=
=
P(D1 = 1)
π1
cov (D1 , D2 )
π1 π2 + cov (D1 , D2 )
=
= π2 +
.
π1
π1
P(D2 = 1|D1 = 1) =
Dunque, il default dell’una ha un impatto sull’altra attività in
portafoglio. In particolare, nel
pcaso estremo ρ = 1 e con
π1 = π2 = π, si ha ULptf = 2 π(1 − π), vale a dire che il
portafoglio contiene il rischio di una sola controparte ma
con intensità doppia; in questo caso il default di una
controparte implica il default dell’altra con probabilità 1.
Perdita di portafoglio
(iii) ρ < 0; è speculare al caso (ii): il default dell’una diminuisce
la PD dell’altra.
I
Oltre alla perdita attesa ed inattesa, l’altra quantità centrale
è il Capitale a Rischio (CaR), dato dalla differenza fra il
quantile α, cioè il VaRα e la perdita attesa:
CaRα = VaRα − EL,
I
dove VaRα : P(Lptf ≤ VaRα ) = α.
Tenendo presente che qualsiasi modello realistico deve
introdurre la dipendenza fra default, discutiamo
brevemente i due casi in cui vige l’indipendenza.
La distribuzione di perdita
1. Le v.c. Di sono iid. Ciò equivale ad assumere che tutte le
controparti abbiano la medesima PD: π = P(Di = 1),
i = 1, . . . , N. E’ immediato concludere
che il numero di
P
default nel portafoglio D = N
D
,
essendo
la somma di
i
i=1
N v.c. Bernoulliane indipendenti di parametro π, ha
distribuzione Bin(N, π) e dunque E(D) = Nπ e
var (D) = Nπ(1 − π).
2. Se invece si mantiene l’ipotesi di indipendenza ma si
abbandona l’ipotesi di equidistribuzione, ammettendo che
le controparti abbiano PD diverse πi = P(Di = 1), la
distribuzione di probabilità di D è la cosiddetta
distribuzione Poisson-Binomiale, la cui funzione di
probabilità è piuttosto complicata, ma di cui si possono
calcolare facilmente il valore atteso e la varianza:
La distribuzione di perdita
E(D) =
N
X
i=1
πi
var (D) =
N
X
πi (1 − πi )
i=1
I
Il grafico successivo mostra la distribuzione di probabilità
di D nel caso di indipendenza ed equidistribuzione con
N = 1000, PD uniforme pari a 0.01 e correlazione nulla
(punti rossi) e correlazione 0.005 (punti blu).
I
I casi (1) e (2) sono poco plausibili: l’ipotesi di
indipendenza dei default nel lungo periodo (indipendenza
non condizionata) è assai forte.
I
Per costruire modelli di portafoglio realistici e stimabili su
base empirica si distingue fra indipendenza non
condizionata e condizionata.
La distribuzione di perdita
La distribuzione di perdita
I
La prima ipotesi è poco sostenibile, in quanto i default
tendono ad essere più frequenti nei periodi di recessione.
I
La seconda appare più fondata, in quanto, una volta
“scontato” l’influsso delle condizioni economiche generali
ed eventualmente di altri fattori di rischio sistematico, i
default dipendono solo dallo stato dell’azienda (in
particolare dalla sua situazione finanziaria), ed è
certamente ragionevole assumere che le performance, in
quanto determinate da caratteristiche proprie ed esclusive
di ciascuna azienda (qualità del management, mercato di
riferimento, ecc.) siano indipendenti l’una dall’altra.
Il ruolo della correlazione
I
I
I
Esattamente come la correlazione fra i rendimenti nel
rischio di mercato, la correlazione fra i default
ρ = corr (Di , Dj ) è essenziale nello studio della
diversificazione di portafoglio.
Si supponga che αi = 1/N, i = 1, . . . , N, che la PD e la
correlazione siano uniformi: formalmente, Li ∼ Bin(1; π),
i = 1, . . . , N; cov (Li , Lj ) = ρ (i, j = 1, . . . , N, i 6= j).
P
La varianza di D = (1/N) N
i=1 Di è data da:


var (D) =
N
N
X
X

1 

=
var
(D
)
+
cov
(D
,
D
)
i
i
j


N2
i,j=1
i=1
i6=j


N
N
X
X

1 

= 2
π(1 − π) +
ρπ(1 − π)
=
N
i,j=1
i=1
i6=j
Il ruolo della correlazione
1
[Nπ(1 − π) + N(N − 1)ρπ(1 − π)] =
N2
π(1 − π) (N − 1)ρπ(1 − π)
+
=
=
N
N
π(1 − π)
ρπ(1 − π)
=
+ ρπ(1 − π) −
.
N
N
=
I
I
Il secondo addendo non può essere ridotto aumentando le
dimensioni del portafoglio. La quantità ρπ(1 − π)
rappresenta il rischio non diversificabile.
In definitiva si ha che
lim (var (D)) = ρπ(1 − π).
N→∞
I
(15)
(16)
In altre parole, quando le controparti sono correlate, non si
può ridurre la varianza sotto una certa soglia.

Documenti analoghi

Rischio e il calcolo del VaR

Rischio e il calcolo del VaR un coefficiente di correlazione negativo. In genere i prezzi delle attività finanziarie tendono a muoversi assieme e quindi a salire o scendere simultaneamente Tutti i titoli di imprese appartenent...

Dettagli

Dispensa del corso

Dispensa del corso per valutare la performance di un certo mercato. Gli indici di borsa (per esempio MIB30, S&P500, DAX, CAC, Dow Jones Industrial Average, ecc.) sono costruiti scegliendo i titoli delle società a più...

Dettagli