2
La sua nascita risale alla fine degli anni ottanta; esso fu dapprima utilizzato
dalle maggiori compagnie finanziarie, ma in seguito il suo utilizzo crebbe
in maniera esponenziale.
Nell’ottobre del 1994, J.P. Morgan pubblicò la prima edizione di
RiskMetrics (la cui metodologia è proprio incentrata sul Value at Risk).
Esso diventò ben presto il punto di riferimento per la gestione del rischio,
tant’è che il 12 dicembre del 1995, il Comitato di Basilea, rispondendo alle
pressioni della comunità bancaria, annunciò una riforma dell’accordo del
1988, sulla base di una versione sperimentale pubblicata nell’aprile del
1995 e aperta ai commenti delle istituzioni finanziarie. Inoltre, nel giugno
del 1995, anche la Federal Reserve statunitense propose un accordo
preliminare, in linea con quanto presentato pochi mesi prima dal Comitato
di Basilea.
Nel gennaio del 1996 lo stesso Comitato pubblicò un supplemento
dell’accordo del 1988, fissando come data ultima per il rilascio della
normativa completa la fine del 1997.
La nuova regolamentazione fu incentrata su due punti: autorizzare le
banche ad adottare modelli interni di stima del VaR per definire i requisiti
minimi di capitale, in cui si potesse tenere conto anche delle correlazioni
tra le diverse fonti di rischio; ottenere la preventiva approvazione da parte
del paese d’appartenenza e impiegare alcuni parametri forniti dal Comitato
stesso, quali un livello di confidenza del 99%, un orizzonte temporale di 10
giorni e l’applicazione di test per misurare l’accuratezza delle stime
prodotte dal modello.
Le ragioni del successo del VaR sono numerose. Oltre ad essere un indice
immediato e sintetico di misura della variabilità di un generico portafoglio,
presenta il vantaggio di essere applicabile nel calcolo dell’esposizione a
qualsiasi fonte di rischio, a differenza di altri indici che sono in grado di
3
misurare l’esposizione a una sola fonte (duration, delta e altre “Greeks”,
per citarne alcuni). Tuttavia, il VaR è nato come strumento per la
valutazione del rischio di mercato (associato a cambiamenti potenziali nel
valore di una posizione risultante da variazioni nei prezzi di mercato) e
ancora oggi resta la sua più frequente utilizzazione.
Esso, inoltre, sintetizzando tutti i rischi in un unico valore, tiene anche
conto del cosiddetto “effetto diversificazione”, cioè del beneficio che si ha
nel detenere più strumenti finanziari tra loro non perfettamente correlati.
I campi d’applicazione del VaR sono molteplici:
• Strumento informativo: esso contribuisce a rendere più trasparente il
processo di reporting e a semplificare le analisi decisionali;
• Strumento di allocazione delle risorse: gli operatori possono selezionare
le strategie d’investimento avendo maggiori informazioni sul livello di
rischio assunto, in maniera tale da poter massimizzare il rendimento
atteso, data una certa soglia di rischio tollerata;
• Definizione dei limiti operativi: gli istituti finanziari possono limitare le
esposizioni dei propri traders anche in termini di rischiosità assunta;
• Strumento di valutazione delle performance (aggiustate per il rischio):
l’informazione contenuta nel VaR può aiutare gli investitori a
confrontare tra loro le performance aggiustate per il rischio di diversi
portafogli;
• Strumento per la definizione dei requisiti minimi di capitale a scopo
bancario.
Negli ultimi anni gli studi condotti sul Value at Risk hanno principalmente
seguito due direzioni. Da un lato si sono cercati metodi di stima sempre più
rispondenti alle situazioni empiriche del mercato, dall’altro la ricerca si è
orientata su nuovi impieghi del VaR. A tal proposito si sono ottenuti
4
risultati significativi nello sviluppo dei metodi di allocazione delle risorse:
esso non è più visto come semplice strumento di valutazione del rischio,
poiché può essere impiegato anche a livello gestionale.
In particolare, l’analisi del VaR si è orientata all’utilizzo come singolo
strumento, sia entro un modello più complesso, ottenendo come risultati la
scomposizione del VaR in unità elementari di rischio, in cui si analizza il
contributo d’ogni singola posizione alla rischiosità complessiva di
portafoglio e le applicazioni nell’ambito di modelli decisionali, come
l’utilità non attesa o la selezione di portafoglio.
5
2. IL VALUE AT RISK
Fedeli alla terminologia RiskMetrics, indichiamo il VaR come una misura
della massima perdita potenziale nel valore di un portafoglio di strumenti
finanziari con una data probabilità e su un orizzonte temporale predefinito.
Il livello di confidenza indica il limite che poniamo all'evento negativo:
poiché ci può sempre essere la perdita potenziale di tutto l’investimento
iniziale (e anche di più), se non si scartassero gli scenari più catastrofici al
livello di confidenza p, il VaR non sarebbe d’alcun aiuto.
I valori tipici per p sono 99%, 97.5% e 95%. Tale scelta è non molto
rilevante qualora si voglia utilizzare il VaR come termine di confronto tra
due o più portafogli, poiché esso diventa un semplice fattore scalare.
Viceversa, se si ragiona in termini di quanto capitale si mette a rischio di
perdita (capitale che deve essere accantonato), anche la scelta
dell’intervallo di confidenza è importante. Questa decisione deve essere in
linea con il grado d’avversione al rischio dell’impresa e considerare quale
sarebbe il costo di una perdita eccedente l’ammontare indicato dal VaR.
È in ogni caso buona regola fissare livelli di confidenza elevati, in maniera
tale da rilevare perdite potenziali che difficilmente saranno superate.
L’orizzonte temporale t è funzione sia della frequenza di ricomposizione
del portafoglio (il VaR ha una logica solo se la composizione del
portafoglio rimane costante durante tutto il tempo d’analisi), sia della sua
struttura qualitativa: a titoli liquidi corrisponderanno orizzonti temporali
più brevi e viceversa. Quest’ultima considerazione deriva dal fatto che
l’analista deve conoscere qual è la perdita massima attesa sulla base dei
giorni necessari per uscire dalle posizioni assunte.
In termini formali, il VaR è il valore che, data una distribuzione di
probabilità dei futuri valori del portafoglio:
6
P (DWt ≤ VaRt) = (1-p) (1.1)
ove:
• DWt = W0 – Wt indica la variazione generica del valore del portafoglio
nell’intervallo temporale prescelto;
• VaRt = W0 – Wt* esprime la differenza tra il valore del portafoglio oggi
e il suo valore minimo in t, al livello di confidenza scelto.
Tale formulazione fa riferimento al VaR assoluto. Per passare al VaR
relativo è sufficiente sostituire a W0 il suo valore atteso:
• ∆Wt = E(W) - Wt (1.2)
• VaRt = E(W) – Wt* (1.3)
Se consideriamo:
E(W)= W0 * (1+Ert) (1.4)
ove Ert è il rendimento atteso del portafoglio W nell’intervallo temporale t,
VaR assoluto e relativo coincideranno qualora:
Ert=0 (1.5)
La 1.5 è un’ipotesi forte che RiskMetrics adotta nel suo manuale, poiché
implica un’aspettativa nulla di rendimento per una qualsiasi composizione
di portafoglio, che se per orizzonti temporali giornalieri non è una grossa
distorsione, su intervalli superiori risulta difficilmente giustificabile.
Definiamo ora l’impostazione di RiskMetrics per il calcolo del Value at
Risk, considerando che il loro obiettivo è la determinazione del rendimento
r
*
a cui viene associato il valore di portafoglio W*.
Il modello di misura del rischio adottato deve essere in grado di prevedere i
futuri rendimenti di portafoglio, basando la previsione su:
• Le dinamiche temporali dei rendimenti;
• La distribuzione dei rendimenti per ciascun istante nel tempo.
7
A tal fine viene impiegato il processo stocastico Random Walk,
considerando però né rendimenti indipendenti, né identicamente distribuiti
nel tempo.
Più precisamente è adottato, per ciascun titolo, il modello:
pt = pt-1 + ste t (1.6)
ove:
e t ∼ N (0,1)
pt = ln(P t)
Pt = prezzo di un generico titolo alla data t
1
;
st = deviazione standard del prezzo (logaritmico) del titolo al tempo t.
La 1.6 può essere riscritta come:
rt = stet e t ∼ N(0,1) (1.7)
in cui si evidenziano rendimenti condizionali distribuiti normalmente.
Tali varianti al processo Random Walk sono state adottate da RiskMetrics
per tenere conto del fatto che, da osservazioni empiriche, non vi è evidenza
di cambiamenti logaritmici dei prezzi indipendenti e identicamente
distribuiti nel tempo. Infatti, in molte serie finanziarie si osservano clusters
di volatilità e dall’analisi dei coefficienti di correlazione emergono spesso
forti autocorrelazioni nei rendimenti al quadrato. Inoltre, sempre sulla base
dei rilevamenti effettuati, si è constatato che parecchie serie finanziarie
sono anche tra loro correlate; per questo RiskMetrics determina il
rendimento di un generico portafoglio composto da n titoli sulla base del
seguente modello:
ri,t = si,t ei,t ei,t ∼ N(0,1) (1.8)
e t ∼ MVN (0,Πt) e t = [e1t, e2t, …, ent ]
1
In seguito si considera t pari a un giorno lavorativo.
8
in cui Πt rappresenta la matrice delle correlazioni tra gli n titoli in
portafoglio.
Per quel che concerne la stima a fini previsivi dei parametri della
distribuzione normale multivariata, sopra descritta, i metodi impiegabili
sono diversi, anche se esistono quattro punti chiave dai quali non si può
prescindere:
1. Individuazione dei fattori di rischio che influiscono sul valore del
portafoglio.
2. Stima della distribuzione di probabilità dei rendimenti dei fattori di
rischio.
3. Determinazione della distribuzione di probabilità dei rendimenti di
portafoglio in base a quanto ottenuto al punto 2.
4. Stima del VaR.
Benché il discorso sia ancora ad un livello di generalità piuttosto
consistente, si possono già individuare alcuni problemi. Per esempio, come
è possibile stimare i fattori di rischio a cui un generico portafoglio è
esposto?
La metodologia RiskMetrics consiste nel decomporre gli strumenti
finanziari nei flussi di cassa cui danno origine e nel mapparli (se
necessario) su una griglia di scadenze, conosciute come vertici
RiskMetrics:
1m 3m 6m 12m 2yr 3yr 4yr 5yr 7yr 9yr 10yr 15yr 20 yr 30yr
In pratica, si esprime ciascuna posizione in portafoglio come funzione di
uno o più flussi di cassa che sono convertiti, mediante procedimenti lineari
d’interpolazione, in flussi di cassa le cui scadenze coincidono con quelle
RiskMetrics suindicate. Questa procedura ha lo scopo di standardizzare
tutte le possibili posizioni, in modo tale da limitare le rilevazioni ai vertici
9
RiskMetrics. Infatti, le società finanziarie detengono generalmente
portafogli composti da parecchi strumenti, quindi, riconducendo le varie
attività alle medesime scadenze, si rende sicuramente più snella la parte
computazionale del metodo.
La scelta delle scadenze resta uno dei tanti aspetti soggettivi del VaR,
anche se l’idea sottostante è di cercare le più liquide per non avere
distorsioni nelle stime.
La mappatura dei flussi di cassa delle posizioni finanziarie detenute
avviene nel rispetto di tre importanti condizioni:
1. Il valore di mercato è preservato: il valore totale di mercato dei flussi
di cassa RiskMetrics deve coincidere con quello dei flussi di cassa
originali;
2. Il rischio di mercato è preservato: il rischio di mercato del portafoglio
composto dai flussi RiskMetrics deve essere uguale a quello contenuto
nei flussi di cassa originali;
3. Il segno deve essere mantenuto: i flussi di cassa RiskMetrics devono
avere lo stesso segno di quelli originali.
Per mettere in pratica quanto sopra indicato è necessario:
• Mantenere lo stesso valore attuale: il valore attuale di un flusso di
cassa qualsiasi deve essere uguale alla somma di quelli RiskMetrics sui
quali è stato mappato;
• Mantenere la stessa duration: la duration del flusso di cassa originale
deve coincidere con quella derivante dalla combinazione dei flussi
RiskMetrics. Ciò serve a mantenere lo stesso rischio di mercato solo in
un’ottica approssimativa, poiché la duration sottintende curve dei tassi
piatti con movimenti paralleli.
La duration D di un generico titolo è data dalla seguente formula:
10
D =
B
ect
n
i
rt
ii
i∑
=
−
1
(1.9)
ove:
B = ∑
=
−
n
i
rt
i
iec
1
= prezzo del titolo; (1.10)
ci = cedola i-esima del titolo;
r = tasso di rendimento. Esso è costante per ogni scadenza, quindi
implica una curva dei tassi piatta;
ti = data di scadenza della i-esima cedola.
Dall’equazione 1.10 deriva che:
∑
=
−−=
∂
∂ n
i
rt
ii
iect
r
B
1
(1.11)
e quindi dalla 1.9:
BD
r
B
−=
∂
∂
(1.12)
rD
B
B
∆−=
∆
(1.13)
da cui si constata che la variazione proporzionale del prezzo di un titolo
è pari alla sua duration moltiplicata per l’ampiezza dello spostamento
parallelo della curva dei tassi. Da ciò si può comprendere che, sotto le
ipotesi suindicate, mantenere la stessa duration dopo una procedura di
risk mapping equivale a conservare il medesimo rischio.
L’interpolazione presentata da RiskMetrics si basa su una semplice media
ponderata dei due vertici più vicini per la scadenza in questione, facendo
riferimento alle varianze dei rendimenti finanziari.
11
Il procedimento si articola in cinque punti e per semplicità espositiva si farà
riferimento all’esempio di RiskMetrics, che impiega un flusso di cassa a 6
anni da ricondurre ai vertici 5 e 7 anni:
1. Calcolo del rendimento interpolato del flusso di cassa effettivo:
r6 = âr5 + (1-â)r7 (1.14)
In quest’esempio è immediato considerare â pari a 0.5, poiché un flusso
a 6 anni si trova esattamente nel mezzo tra le scadenze 5 e 7 anni, ma
solitamente i pesi vengono determinati con il seguente metodo, basato
sulla duration:
âD5 + (1- â)D7 = D6 (1.15)
â =
57
67
DD
DD
−
−
(1.16)
e poiché la duration di un flusso di cassa elementare è pari al proprio
tempo a scadenza, nel nostro esempio si ottiene â = 0.52.
E’ importante osservare che non si possono usare questi pesi per la
mappatura del flusso di cassa a 6 anni, poiché non si ricostruisce un
VaR pari a quello del titolo in questione.
Ciò, infatti, occorrerebbe solo qualora:
• La correlazione tra i tassi fosse pari a uno;
• La volatilità di ogni vertice fosse proporzionale alla sua duration.
È perciò necessario proseguire nel seguente modo:
2. Determinazione del valore attuale del flusso di cassa effettivo,
impiegando il tasso ottenuto al punto 1: i pesi risultanti saranno applicati
a tale valore.
3. Calcolo della deviazione standard del flusso a 6 anni, basandosi su â:
s6 = âs5 + (1-â)s7 (1.17)
2
Se un flusso di cassa non è equidistante dai due vertici RiskMetrics, il valore più elevato tra â e (1-â) è
assegnato al vertice RiskMetrics più vicino.
12
4. Calcolo dei pesi da applicare al valore attuale del flusso di cassa
effettivo per completare la mappatura:
s6
2
= a2s52 + 2a(1-a)r5,7 + (1-a)2 s72 (1.18)
L’equazione 1.18 può essere riscritta in forma quadratica:
aα2 + bα + c = 0 (1.19)
la cui soluzione è3:
a =
a
acbb
2
42 −±−
(1.20)
5. Distribuzione del flusso di cassa effettivo sui vertici RiskMetrics.
La procedura di risk mapping si può applicare a qualsiasi tipo di strumento
finanziario. Tuttavia, se è immediato ricondurre un coupon bond a un
insieme di zero coupon bonds (in ipotesi di assenza d’arbitraggio), può
destare qualche perplessità la possibilità di mappare, ad esempio, titoli
azionari. Essa è comunque possibile e consiste nell’impiegare l’indice del
mercato azionario a cui il titolo appartiene come fattore di rischio, e il β
dell’azione come termine di esposizione. Questo metodo ha però il difetto
di trascurare la volatilità idiosincratica dei titoli, ipotizzando
implicitamente che essa sia diversificata (valore atteso e covarianza rispetto
al fattore di rischio sistematico nulli).
Per quel che concerne il risk mapping di opzioni, ci si basa sulla
definizione di delta dell’opzione e non si considerano le altre “Greeks”:
∆ = d Vopzione /d sottostante (1.21)
da cui si deduce che:
d Vopzione = ∆*d sottostante (1.22)
Ciò significa che detenere un’opzione equivale a possedere un ammontare
∆ di attività sottostante e quindi, riferendosi a quest’ultima, si può
3
Poiché otterremo due soluzioni, si sceglierà quella che soddisfa le tre condizioni elencate in precedenza.
13
procedere alla mappatura della posizione linearizzata.
Tale definizione è un po’ semplicistica, poiché trascura altre fonti di rischio
dell’opzione, come ad esempio i cambiamenti nel valore del ∆, il tempo a
scadenza e il tasso d’interesse. Tuttavia, se si vuole effettuare una
preventiva mappatura, è necessario operare semplificazioni.
Alternativamente si possono impiegare altre metodologie, quali l’approccio
Delta-Gamma o “full valuation” della simulazione Monte Carlo, a cui sono
dedicati appositi paragrafi.
Come si è notato, la procedura di risk mapping si basa sull’ipotesi di
linearità, vale a dire che le oscillazioni del rendimento di portafoglio al
variare dei fattori di rischio sono ipotizzate costanti. Per tale peculiare
caratteristica, essa trova applicazione nei metodi di calcolo del VaR basati
sulla stessa ipotesi di linearità, quale è l’approccio Delta-Normal.
2.1 METODI ANALITICI DI STIMA DEL VALUE AT RISK
In questa categoria l’approccio sicuramente più interessante è denominato
“Delta-Normal” e si basa sulle due seguenti ipotesi:
• Normalità condizionata della distribuzione dei rendimenti dei singoli
fattori di rischio: i rendimenti divisi per le rispettive previsioni sulla
deviazione standard, si distribuiscono normalmente, con media nulla e
varianza unitaria:
t
t
t
r
e
s
=
in cui e t si distribuisce come una normale standardizzata (la varianza
sarà oggetto approfondito di studio in seguito);
• Linearità del rendimento del portafoglio rispetto ai fattori di rischio.
14
Queste ipotesi semplificano notevolmente il calcolo del VaR, ma lo
espongono alle seguenti critiche:
1. La normalità condizionata della distribuzione dei rendimenti dei fattori
di rischio non si osserva nella realtà.
Solitamente si evidenziano distribuzioni “leptocurtotiche”, in altre
parole caratterizzate da code più spesse e da un picco di distribuzione
più alto e sottile rispetto alla gaussiana. Ciò va a discapito della
precis ione del VaR, il quale, sotto l’ipotesi di normalità, tende a
sottovalutare il rischio implicito nelle code più spesse.
2. La linearità permette di utilizzare una distribuzione normale anche per i
rendimenti del portafoglio. Sarà così sufficiente stimare la matrice di
varianza-covarianza dei fattori di rischio che incidono sui titoli in
portafoglio, per giungere alla determinazione del VaR. Tale ipotesi però
non è accettabile qualora ci siano opzioni o strumenti con caratteristiche
simili, vale a dire che presentano la mancanza di linearità tra il valore
dello strumento e l’attività sottostante. In tal caso si potrà comunque
linearizzare la posizione mediante un’approssimazione di Taylor
arrestata al primo ordine, ma il rischio di stima inefficiente del VaR
diventa molto forte, soprattutto su orizzonti temporali estesi.
Un aspetto importante della metodologia in questione è la stima della
matrice di varianza-covarianza tra i fattori di rischio opportunamente
mappati.
Tale operazione può basarsi su dati storici, oppure sulla volatilità implicita
delle opzioni. In questo secondo caso si possono manifestare dei problemi
qualora la gamma di opzioni presenti sul mercato non sia abbastanza
ampia da fornire stime della volatilità per tutti i fattori rilevanti. Malgrado
ciò, sarebbe buona regola cercare di farvi riferimento, poiché in mercati
efficienti la volatilità implicita fornisce la migliore stima a fini previsivi
15
(bisogna però ricordare che non siamo di fronte a una misurazione
scientifica, ma a una personale stima di cosa accadrà in futuro).
Studi empirici hanno dimostrato che impiegando le volatilità implicite si
riesce ad anticipare i movimenti del mercato, mentre le serie storiche
tengono conto dell’evento solo quando si è già manifestato. Tale
affermazione è diretta conseguenza del fatto che il campionamento su dati
storici ha un’utilità a fini previsivi tanto maggiore quanto più è alta la
frequenza d’accadimento degli eventi passati, poiché con tale metodologia
la situazione di mercato al momento dell’analis i non viene presa in
considerazione.
Inoltre, è sempre bene accertare la stabilità della matrice delle correlazioni,
poiché un’eventuale sua instabilità renderebbe incerto il beneficio della
diversificazione e conseguentemente l’esposizione al rischio di un generico
portafoglio. A tal proposito è stato osservato che molto spesso le
correlazioni tra i fattori di mercato aumentano in presenza di turbolenza
globale, andando così ad intaccare le posizioni di portafogli ben
diversificati. Questo può rivelarsi un aspetto veramente problematico,
poiché significherebbe osservare rendimenti attesi al di fuori di ogni
intervallo di previsione e quindi VaR che sottostimano il rischio effettivo di
perdita. Ciò induce a considerare il Value at Risk non come un indice
standard di misura del rischio, bensì uno strumento in cui il buon senso e le
capacità di analisi hanno sempre il sopravvento sul mero aspetto
computazionale.
Per quel che concerne il metodo di stima della volatilità basata sulle serie
storiche, i due modelli più diffusi sono:
• Generalized Autoregressive Conditional Heteroskedasticity (GARCH)
introdotto da Bollerslev nel 1986.
• Exponentially Weighted Moving Average (EWMA) di RiskMetrics.