Corso di Risk Management S
Transcript
Corso di Risk Management S
La stima dei parametri I Per l’implementazione della procedura abbiamo bisogno di stimare µ e Σ, cioè il valore atteso e la matrice di covarianza della distribuzione dei fattori di rischio. Due possibilità: (i) (unconditional): calcolo la media campionaria e la matrice di covarianza campionaria su un periodo lungo; (ii) (conditional): ipotizzo che i dati siano la realizzazione di una serie storica multivariata e stimo media e matrice di covarianza sulla base del modello ipotizzato (esempi: EWMA, GARCH); I Debolezze del metodo parametrico: (i) la perdita linearizzata potrebbe essere diversa dalla perdita effettiva. Le soluzioni possibili sono due: un’approssimazione basata anche sulla derivata seconda della funzione che lega gli strumenti ai fattori di rischio (metodo Delta-Gamma); la full valuation, vale a dire la completa rivalutazione del portafoglio a seguito del cambiamento dei fattori di rischio; (ii) l’assunzione di normalità è poco realistica (problema delle code pesanti). La curtosi I I Per quanto riguarda il secondo problema, un’utile misura della pesantezza delle code è la curtosi. La curtosi di una v.c. X con E(X 4 ) < ∞ è data da: k= I I I E(X − µ)4 . (σ 2 )2 La curtosi di una v.c. normale è sempre uguale a 3, a prescindere dai valori di µ e σ. Una v.c. X si dice leptocurtica se ha curtosi maggiore di 3. In questo caso ha le code più pesanti ed è più appuntita. Per esempio, la curtosi della t di Student con p gradi di libertà (tp ) è data da ktp = 3(p − 2)/(p − 4). Per verificare se la distribuzione dei cambiamenti dei fattori di rischio è leptocurtica, cioè se le code sono pesanti, si può calcolare la curtosi empirica; se è molto maggiore di 3, il VaR normale ad alti livelli di confidenza sottostimerà le perdite. La simulazione storica I I I I I I Si applica l’operatore di perdita alla distribuzione storica di n osservazioni dei cambiamenti dei fattori di rischio X t . Si ottiene così una distribuzione di perdita composta da n osservazioni; sotto l’ipotesi che la distribuzione di perdita resti invariata nel periodo considerato, essa costituisce una stima consistente della vera distribuzione di perdita. Le misure di perdita sono calcolate sulla distribuzione empirica: il VaR è il quantile di tale distribuzione. Il maggior pregio è la facilità di implementazione (non è richiesto il calcolo di stime, nè ipotesi sulla volatilità o sulla struttura di dipendenza). Richiede però una notevole quantità di dati: se il periodo storico è troppo breve, è probabile che non contenga eventi estremi. D’altra parte, se è troppo lungo, la composizione del portafoglio cambia e non stimiamo più la stessa distribuzione di perdita. Il metodo Monte Carlo I Si basa sulla simulazione di osservazioni dalla distirbuzione di probabilità dei fattori di rischio. (i) Primo passo: scelta della distribuzione di X t e stima dei parametri. (ii) Secondo passo: simulazione di B osservazioni (1) (B) X t+1 , . . . , X t+1 da tale distribuzione. (iii) Terzo passo: applicazione dell’operatore perdita a tali osservazioni. Si ottengono così B osservazioni simulate (∗1) (∗B) dalla distribuzione di perdita Lt+1 , . . . , Lt+1 . (iv) Quarto passo: calcolo delle misure di rischio; come nella simulazione storica, il VaR è il quantile empirico della distribuzione simulata. I Benché il metodo possa approssimare con precisione la distribuzione di X t , dipende ovviamente da tale distribuzione; inoltre il costo computazionale è alto. RiskMetrics I I RiskMetrics (www.riskmetrics.com) è un sistema, sviluppato e diffuso da JP Morgan nel 1996, costituito da un insieme di metodologie e dati per misurare il rischio di mercato. In particolare, RiskMetrics dettaglia: (i) Il contesto concettuale sottostante le metodologie per il calcolo del rischio di mercato; (ii) le statistiche dei rendimenti degli strumenti finanziari; (iii) come modellare le esposizioni degli strumenti finanziari ai fattori di rischio; (iv) i data set di misure statistiche stimate e distribuite giornalmente da JP Morgan (in particolare volatilità e correlazioni). I L’accento è posto più sulla facilità di implementazione e interpretazione che sulla sofisticazione delle procedure. Stima della volatilità I Nel rischio di mercato si suppone per lo più µ = 0. I Nell’approccio unconditional la stima della varianza è semplicemente varianza campionaria: Pla T 2 2 σ̂t+1 = (1/T ) i=1 rt+1−i . I Nell’approccio conditional si suppone che la varianza sia time-varying; ciò equivale a modificare il modello dei rendimenti come segue: rt = σt , I t = 1, . . . , T , ∼ N(0, 1). Si ipotizza spesso che la varianza al tempo t + 1 dipenda dalla varianza al tempo t e dal quadrato del rendimento al tempo t: 2 σt+1 = λσt2 + (1 − λ)rt2 . Il metodo EWMA I Per stimare la volatilità, nell’approccio standard RiskMetrics si utilizza lo stimatore definito Exponentially Weighted Moving Average (EWMA): la previsione della varianza al tempo t + 1 effettuata al tempo t è data da 2 σ̂t+1|t = P+∞ i=1 I +∞ X 1 λi−1 2 λi−1 rt+1−i , λ < 1. (12) i=1 E’ chiaro che in pratica la serie va troncata: è prassi utilizzare 75 osservazioni, ovvero 2 σ̂t+1|t = PT T X 1 i=1 λi−1 2 λi−1 rt+1−i , λ < 1, i=1 dove T = 75. Tramite il parametro λ si pesano di più le osservazioni più recenti. (13) Il metodo EWMA I RiskMetrics fissa λ = 0.94. Oltre al fatto di essere frutto di una scelta poco corretta dal punto di vista metodologico (i parametri andrebbero stimati sulla base dei dati), numerose verifiche empiriche hanno mostrato che il valore 0.94 per il parametro λ è in generale troppo alto. I Un vantaggio di questo stimatore è che può essere calcolato (approssimativamente) tramite una formula ricorsiva a mano a mano che si rendono disponibili ulteriori osservazioni: 2 2 σ̂t+1|t = λσ̂t|t−1 + (1 − λ)rt2 . I (14) Teorema. La formula esatta (12) per il calcolo dello stimatore EWMA tende, per T → ∞, alla formula ricorsiva (14). Il metodo EWMA I Anche la covarianza può essere calcolata tramite una formula EWMA: σ12,t+1|t = PT 1 i−1 i=1 λ T X λi−1 r1,t+1−i r2,t+1−i . i=1 I Tale formula può a sua volta essere espressa in forma ricorsiva (in questo caso λ è posto pari a 0.97): σ12,t+1|t = λσ12,t|t−1 + (1 − λ)r1t r2t . I Osservazione. Non è garantito che la stima della matrice di covarianza ottenuta tramite lo stimatore EWMA applicato ad ogni elemento della matrice sia definita positiva. Il metodo EWMA I Indichiamo con S E (di dimensione d × d) lo stimatore EWMA della matrice di covarianza Σ. Può succedere che, 0 per qualche vettore α∗ ∈ IR d , si abbia α∗ S E α∗ < 0. I Ne segue che, se r = (r1 , . . . , rd )0 è il vettore dei rendimenti di p attività finanziarie (dove E(r ) = µ e cov (r ) = Σ) e α∗ = (α1∗ , . . . , αd∗ )0 è il vettore dei pesi (dove P 0 αi∗ ∈ [0, 1] ∀i, di=1 αi∗ = 1), il portafoglio α∗ r ha varianza stimata negativa. I Da questo punto di vista è preferibile lo stimatore campionario S (ottenuto con λ = 1), che, sotto l’ipotesi T > d, fornisce sempre una matrice definita positiva. Modelli GARCH I Introdotti da R. Engle nel 1982, i modelli della famiglia ARCH (AutoRegressive Conditional Heteroskedasticity), poi estesi nella forma GARCH (Generalised AutoRegressive Conditional Heteroskedasticity) hanno avuto una notevole diffusione in ambito finanziario. Il processo generatore dei dati è: rt = σt t . I modelli ARCH(q) e GARCH(p, q) sono dati rispettivamente da: σt2 =α+ σt2 = α + q X i=1 q X i=1 2 βi rt−i ; 2 βi rt−i + p X i=1 2 γi σt−i . Modelli GARCH I L’idea di base è la seguente: osservando il grafico dei rendimenti di un’attività finanziaria, generalmente si nota che la volatilità tende ad aggregarsi nel tempo. I Periodi di relativa calma, in cui cioè i rendimenti si muovono “poco”, e quindi la volatilità è bassa, si alternano a periodi “turbolenti”, in cui i rendimenti si muovono “molto”. Ne segue che ha senso ipotizzare che la volatilità al tempo t dipenda dai rendimenti al tempo t − 1, t − 2, . . . , t − q (modelli ARCH(q)) o, più in generale, non solo dai rendimenti al tempo t − 1, t − 2, . . . , t − q, ma anche dalla volatilità al tempo t − 1, t − 2, . . . , t − p (modelli GARCH(p, q)). Modelli GARCH I Nella forma più usata, si ipotizza che il processo generatore dei dati sia del tipo GARCH(1, 1): rt = σt t , 2 2 σt2 = α + βrt−1 + γσt−1 , I dove t ∼ N(0, 1). I due problemi principali associati ai modelli GARCH sono i seguenti: (i) stimare i parametri non è banale perché la funzione di verosimiglianza va massimizzata numericamente; (ii) in ambito multivariato i modelli sono molto complicati perché il numero di parametri cresce esponenzialmente. Modelli GARCH I Se si assume che la varianza dei rendimenti segua un processo del tipo GARCH, la distribuzione condizionata della v.c. rt |rt−1 è normale con media nulla e varianza σt2 , ma la distribuzione non condizionata non è normale: in particolare, si dimostra che la curtosi della distribuzione non condizionata è maggiore di 3; dunque la distribuzione non condizionata di rt ha code più pesanti della normale. I Si noti che ponendo α = 0 e β = 1 − γ si ottiene la formula ricorsiva per la volatilità EWMA. In particolare, la soluzione adottata da RiskMetrics si ottiene con β = 0.94. Volatilità implicita I In alcuni casi è possibile fare ricorso alla cosiddetta volatilità implicita: ciò accade per esempio con la formula di Black & Scholes. I Nella formula di B&S, infatti, tutto è noto eccetto Ct e/o σ. I Tuttavia è spesso disponibile un prezzo di mercato CtM ; se il mercato dell’opzione in questione è sufficientemente liquido, tale prezzo può essere considerato attendibile, e si può quindi, in linea di principio, invertire la formula di B&S in modo da ottenere una funzione del tipo σ = g(K , St , r , T − t, Ct ) da cui ricavare σ. I In pratica non si riesce ad invertire esplicitamente la formula di B&S (e dunque ad ottenere la funzione g in forma chiusa), tuttavia il problema è facilmente risolvibile per via numerica tramite algoritmi iterativi che, senza determinare la funzione inversa, trovano il valore di σ corrispondente a CtM . Volatilità implicita I I La volatilità implicita è generalmente considerata dai practitioner più affidabile della volatilità storica; la ragione principale starebbe nel fatto che la volatilità implicita è considerata, a differenza della volatilità storica, forward-looking. L’utilizzo della volatilità implicita non è però privo di controindicazioni: (i) è connessa all’utilizzo di un certo modello parametrico di pricing delle opzioni (la formula di B&S); se la formula non è corretta, per esempio perché qualcuna delle ipotesi su cui si basa non è rispettata, la volatilità implicita non è uno stimatore appropriato della volatilità; (ii) si ritene che la volatilità implicita rifletta più rapidamente degli stimatori ottenuti tramite dati storici i cambiamenti di volatilità causati da mutate condizioni di mercato; ma se la volatilità non è costante, allora certamente la formula di B&S non è valida e quindi non ha senso ricavarne una volatilità implicita! Volatilità implicita (iii) se la formula di B&S valesse, le volatilità implicite ricavate da opzioni diverse sul medesimo sottostante dovrebbero essere identiche, il che in pratica non si verifica e dunque qualche ipotesi della formula di B&S non è rispettata. I In conclusione, sembra opportuno ridimensionare l’importanza della volatilità implicita; se la volatilità è time-varying, è preferibile costruire modelli a volatilità non costante, stimata sulla base di dati storici (GARCH, volatilità stocastica,...). Backtesting I Se la distribuzione ipotizzata approssima bene la vera distribuzione dei rendimenti, ci si aspetta che il VaR calcolato preveda con precisione la frequenza delle perdite che eccedono il VaR. I La più semplice procedura per verificare l’appropriatezza della misura di VaR consiste dunque nel contare il numero di violazioni, cioè il numero di volte in cui la perdita osservata è maggiore del VaR calcolato. Sia 1{−rt >VaRt } (rt ) una variabile aleatoria definita come segue: ( 1 se − rt > VaRt ; def Xt = 1{−rt >VaRt } (rt ) = 0 altrimenti. I Se il VaR al livello α è effettivamente il quantile α della distribuzione dei rendimenti, la variabile aleatoria X assume valore 1 con probabilità 1 − α e 0 con probabilità α. Backtesting I Dunque, X ha distribuzione bernoulliana di parametro α. Poiché la somma di T variabili aleatorie bernoulliane indipendenti di parametro α ha distribuzione binomiale di def PT parametri (T , α), si ha che YT = t=1 Xt ∼ Bin(T , α). I Quindi ci si aspetta di osservare un numero di violazioni pari a E(YT ) = T · α. Per esempio, se α = 0.05, in 4 settimane (20 giorni lavorativi) ci si aspetta di osservare T · α = 20 · 0.05 = 1 violazione. I Si consideri la variabile aleatoria YT − T · α WT = p T · α · (1 − α) . Backtesting I T →∞ Per il teorema del limite centrale, WT → N(0, 1). Allora per T sufficientemente grande si può costruire il seguente test: p (i) si calcola la quantità wT = (yT − T · α)/ T · α · (1 − α); (ii) fissato un livello di significatività β, si accetta l’ipotesi nulla H0 : “al livello di confidenza α, il modello prevede correttamente la frequenza delle perdite” se wT < z1−β , dove z1−β è il quantile 1 − β della distribuzione normale standard. Altrimenti si rifiuta l’ipotesi nulla. Esempio di backtesting I Per l’azione Eni (febbraio 2006 - febbraio 2007), effettuando tutti i calcoli richiesti (utilizzando lo stimatore EWMA per la volatilità) si osservano 17 violazioni del VaR al 95%, con T = 260 e β = 0.05. Dunque (17 − 260 · 0.05) w0.05 = √ = 1.1382. 0.05 · 0.95 · 260 Posto β = 0.05, si trova z1−β = 1.6449 e, poiché 1.1382 < 1.6449, si accetta l’ipotesi nulla. I Per quanto riguarda il VaR al 99% si ottengono invece 6 violazioni e z0.01 = 2.119. Essendo 2.119 > 1.6449, si rifiuta l’ipotesi nulla. I Infine, per quanto riguarda il VaR al 99.5% si ottengono 5 violazioni e z0.01 = 3.253. Essendo 3.253 > 1.6449, si rifiuta l’ipotesi nulla. Rischio di credito I Gli ingredienti di base per identificare la rischiosità di una singola controparte sono: (i) la Probabilità di Default (PD); (ii) la Loss Given Default (LGD); (iii) la Exposure At Default (EAD). I Il primo accordo di Basilea (1988) prevedeva che il capitale di riserva fosse almeno pari all’8% delle attività ponderate in base al rischio. Come è stabilita la ponderazione? 100% per tutti gli impieghi a clientela, 20% per i prestiti a banche, 0% per i prestiti allo Stato. La normativa di vigilanza I I Problema: un peso solo per tutta la clientela privati può trasformarsi in un incentivo a prestare ai clienti più rischiosi, che richiedono la stessa riserva di capitale dei clienti meno rischiosi, ma producono margini più elevati. Da qui la necessità di un nuovo accordo (noto come “Basilea 2”); esso è basato su una radicale riforma del criterio dell’8%. In Basilea 2 ci sono due (tre) approcci alternativi: (1) approccio standard: le banche che non hanno sistemi di rating interni useranno rating esterni, certificati dalle autorità di vigilanza; il capitale richiesto è pari all’8%, pesato come segue: da 20 a 150% per imprese o banche; da 0 a 150% per Stati sovrani; 100% per clientela priva di rating. (2) approccio dei rating interni, suddiviso in: La normativa di vigilanza (2a) approccio di base: la banca elabora un proprio sistema di rating (trasparente, documentato, verificabile, periodicamente revisionato) per misurare la PD; LGD ed EAD sono misurate con parametri fissati dalle autorità. (2b) approccio avanzato: anche LGD ed EAD sono stimate internamente dalla banca. Lo possono adottare solo le banche che siano in grado di dimostrare la correttezza, la coerenza, la trasparenza e l’efficacia delle metodologie adottate, basate su dati storici sufficientemente numerosi. Rating I I rating sono una misura del merito di credito di un’azienda. Per le aziende “più grandi” sono disponibili rating prodotti dalle agenzie (Moody’s, S&P, Fitch). Soprattutto in Europa, tuttavia, la stragrande maggioranza delle controparti non ha un rating di agenzia, e dunque i rating sono calcolati internamente dalle banche; a tale scopo si utilizzano tecniche statistiche (analisi discriminante, regressione logistica,...) basate su variabili esplicative quantitative (principalmente tratte dai bilanci delle aziende) e qualitative (qualità del management, struttura dell’azienda, situazione politica e sociale del Paese in cui l’azienda ha sede). Lo Z -score di Altman I Storicamente, la prima applicazione è basata sull’analisi discriminante: Z-score (Altman 1968): Z = 1.2X1 + 1.4X2 + 3.3X3 + 0.6X4 + X5 , dove: X1 : capitale circolante / totale attivo, X2 : utili non distribuiti / totale attivo, X3 : utili ante interessi e imposte / totale attivo, X4 : valore di mercato del patrimonio / valore contabile dei debiti a lungo termine, X5 : fatturato / totale attivo. I Soglia: 1.81; le imprese il cui score Z è maggiore della soglia vengono classificate in bonis, le altre insolventi. Questi modelli hanno poi preso il nome di modelli di scoring. Rating e PD I Esistono poi mappature (calcolate dalle agenzie di rating) che associano ai rating una PD; a grandi linee, tali mappature sono costruite come segue: (i) per ciascuna classe di rating, si calcola il tasso medio di default su un periodo di tempo “lungo”; (ii) si stima una regressione lineare semplice fra il logaritmo del tasso medio di default appena calcolato (variabile dipendente) e il rating (variabile indipendente): log(D̄) = α + βR + , dove D̄ è il tasso di default medio e R è il rating; (iii) infine, le PD corrispondenti a ciascuna classe di rating sono stimate sulla base della retta di regressione. Perdita Bernoulliana I Un vettore casuale D = (D1 , . . . , DN )0 è detto statistica di perdita Bernoulliana se tutte le sue marginali sono Bernoulliane: Di ∼ Bin(1; πi ). dove N è il numero di controparti. La v.c. Di è un indicatore dell’evento default della controparte i: ( 1 se la controparte fallisce Di = 0 se la controparte sopravvive I La probabilità di successo πi è la probabilità di default non condizionata, in quanto l’evento “successo” è identificato con il fallimento. Perdita di portafoglio I Quando si passa a trattare un portafoglio di N prestiti, è necessario introdurre la perdita di portafoglio: Lptf = N X Li = i=1 I N X Si verifica facilmente che, se EADi e LGDi sono costanti, la perdita attesa è data da EL = E(Lptf ) = N X E(Li ) = i=1 I EADi × LGDi × Di . i=1 N X EADi × LGDi × PDi . i=1 Per analizzare il rischio non è sufficiente limitarsi alla perdita attesa; si calcola allora anche la perdita inattesa, definita come la deviazione standard della v.c. Lptf : v u N q uX EADi EADj LGDi LGDj cov (Di , Dj ). ULptf = var (Lptf ) = t i,j=1 Perdita di portafoglio I La covarianza fra i default può essere riscritta come segue: q cov (Di , Dj ) = ρij × PDi (1 − PDi )PDj (1 − PDj ), dove ρij = corr (Di , Dj ) è la correlazione fra i default (default correlation). I Dunque (il quadrato della) perdita inattesa è uguale a UL2ptf = var (Lptf ) = N X EADi EADj LGDi LGDj q PDi (1 − PDi )PDj (1 − PDj )ρij . i,j=1 I Nel caso di due soli prestiti, con PD1 = π1 , PD2 = π2 , ρ12 = ρ, LGD1 = LGD2 = EAD1 = EAD2 = 1, si ha p UL2ptf = π1 (1 − π1 ) + π2 (1 − π2 ) + 2ρ π1 (1 − π1 )π2 (1 − π2 ). Perdita di portafoglio I Consideriamo 3 casi: (i) ρ = 0; diversificazione perfetta. (ii) ρ > 0; il default dell’una incrementa la PD dell’altra. Infatti: P(D2 = 1, D1 = 1) E(D1 D2 ) = = P(D1 = 1) π1 cov (D1 , D2 ) π1 π2 + cov (D1 , D2 ) = = π2 + . π1 π1 P(D2 = 1|D1 = 1) = Dunque, il default dell’una ha un impatto sull’altra attività in portafoglio. In particolare, nel pcaso estremo ρ = 1 e con π1 = π2 = π, si ha ULptf = 2 π(1 − π), vale a dire che il portafoglio contiene il rischio di una sola controparte ma con intensità doppia; in questo caso il default di una controparte implica il default dell’altra con probabilità 1. Perdita di portafoglio (iii) ρ < 0; è speculare al caso (ii): il default dell’una diminuisce la PD dell’altra. I Oltre alla perdita attesa ed inattesa, l’altra quantità centrale è il Capitale a Rischio (CaR), dato dalla differenza fra il quantile α, cioè il VaRα e la perdita attesa: CaRα = VaRα − EL, I dove VaRα : P(Lptf ≤ VaRα ) = α. Tenendo presente che qualsiasi modello realistico deve introdurre la dipendenza fra default, discutiamo brevemente i due casi in cui vige l’indipendenza. La distribuzione di perdita 1. Le v.c. Di sono iid. Ciò equivale ad assumere che tutte le controparti abbiano la medesima PD: π = P(Di = 1), i = 1, . . . , N. E’ immediato concludere che il numero di P default nel portafoglio D = N D , essendo la somma di i i=1 N v.c. Bernoulliane indipendenti di parametro π, ha distribuzione Bin(N, π) e dunque E(D) = Nπ e var (D) = Nπ(1 − π). 2. Se invece si mantiene l’ipotesi di indipendenza ma si abbandona l’ipotesi di equidistribuzione, ammettendo che le controparti abbiano PD diverse πi = P(Di = 1), la distribuzione di probabilità di D è la cosiddetta distribuzione Poisson-Binomiale, la cui funzione di probabilità è piuttosto complicata, ma di cui si possono calcolare facilmente il valore atteso e la varianza: La distribuzione di perdita E(D) = N X i=1 πi var (D) = N X πi (1 − πi ) i=1 I Il grafico successivo mostra la distribuzione di probabilità di D nel caso di indipendenza ed equidistribuzione con N = 1000, PD uniforme pari a 0.01 e correlazione nulla (punti rossi) e correlazione 0.005 (punti blu). I I casi (1) e (2) sono poco plausibili: l’ipotesi di indipendenza dei default nel lungo periodo (indipendenza non condizionata) è assai forte. I Per costruire modelli di portafoglio realistici e stimabili su base empirica si distingue fra indipendenza non condizionata e condizionata. La distribuzione di perdita La distribuzione di perdita I La prima ipotesi è poco sostenibile, in quanto i default tendono ad essere più frequenti nei periodi di recessione. I La seconda appare più fondata, in quanto, una volta “scontato” l’influsso delle condizioni economiche generali ed eventualmente di altri fattori di rischio sistematico, i default dipendono solo dallo stato dell’azienda (in particolare dalla sua situazione finanziaria), ed è certamente ragionevole assumere che le performance, in quanto determinate da caratteristiche proprie ed esclusive di ciascuna azienda (qualità del management, mercato di riferimento, ecc.) siano indipendenti l’una dall’altra. Il ruolo della correlazione I I I Esattamente come la correlazione fra i rendimenti nel rischio di mercato, la correlazione fra i default ρ = corr (Di , Dj ) è essenziale nello studio della diversificazione di portafoglio. Si supponga che αi = 1/N, i = 1, . . . , N, che la PD e la correlazione siano uniformi: formalmente, Li ∼ Bin(1; π), i = 1, . . . , N; cov (Li , Lj ) = ρ (i, j = 1, . . . , N, i 6= j). P La varianza di D = (1/N) N i=1 Di è data da: var (D) = N N X X 1 = var (D ) + cov (D , D ) i i j N2 i,j=1 i=1 i6=j N N X X 1 = 2 π(1 − π) + ρπ(1 − π) = N i,j=1 i=1 i6=j Il ruolo della correlazione 1 [Nπ(1 − π) + N(N − 1)ρπ(1 − π)] = N2 π(1 − π) (N − 1)ρπ(1 − π) + = = N N π(1 − π) ρπ(1 − π) = + ρπ(1 − π) − . N N = I I Il secondo addendo non può essere ridotto aumentando le dimensioni del portafoglio. La quantità ρπ(1 − π) rappresenta il rischio non diversificabile. In definitiva si ha che lim (var (D)) = ρπ(1 − π). N→∞ I (15) (16) In altre parole, quando le controparti sono correlate, non si può ridurre la varianza sotto una certa soglia.
Documenti analoghi
Rischio e il calcolo del VaR
un coefficiente di correlazione negativo. In genere i prezzi delle attività finanziarie tendono a muoversi assieme e quindi a salire o scendere simultaneamente Tutti i titoli di imprese appartenent...
DettagliDispensa del corso
per valutare la performance di un certo mercato. Gli indici di borsa (per esempio MIB30, S&P500, DAX, CAC, Dow Jones Industrial Average, ecc.) sono costruiti scegliendo i titoli delle società a più...
Dettagli