5
sia con tecniche inferenziali che utilizzano cross-section e serie storiche di prezzi, sia con
approcci “diretti” a partire dall’informazione contenuta nei tassi swap (con brevi cenni ai
problemi di “calibratura” del modello). Nel contesto di un mercato guidato dai tassi di
interesse, sono state date alcune definizioni di VaR per contratti interest rate sensitive; oltre
a definizioni standard ma metodologicamente opinabili (come quella proposta dal
cosiddetto schema RiskMetrics™, sinteticamente esposto in appendice) viene proposta e
discussa una definizione alternativa basata sulla logica del “percentile sottostante”, in linea
con la struttura formale di riferimento.
La terza parte della tesi è dedicata ad una applicazione dei metodi, alla verifica empirica
delle definizioni e al commento critico dei risultati. Si è fatto riferimento alla situazione del
mercato italiano del debito pubblico e sono state identificate giornate particolarmente
significative per l’andamento dei tassi di interesse. In quelle giornate sono state calcolate
grandezze caratteristiche (valore di modello, duration, “lettere greche”, VaR) di un
portafoglio titoli (composto da BTP e CCT) tenuto “a composizione costante”. In questo
senso l’applicazione è stata utilizzata per commentare i risultati in una logica di stress
testing, come suggerito dall’impostazione normativa della Banca d’Italia, coerentemente
con i referenti metodologici forniti in sede di vigilanza internazionale.
Le numerosissime (e dettagliate) note a margine sono un vero è proprio “testo parallelo”
alla trattazione; contengono molteplici spunti di approfondimento, brevi rassegne su
argomenti collaterali, commenti critici, richiami e chiose su nozioni teoriche, rinvii a
riferimenti bibliografici e a disposizioni normative . Si è inteso così dare un duplice
percorso di lettura: la trattazione può essere affrontata, in modo spedito e scorrevole,
saltando le note, da intendersi come puntualizzazioni sui temi svolti; si può invece
procedere ad una lettura più organica e completa, considerandole come una parte
essenziale dell’esposizione; in questa duplice prospettiva, si è cercato di rendere quanto più
indipendenti i vari capitoli agevolando tuttavia gli agganci con rinvii, di mantenere un
costante collegamento tra questioni teoriche ed espressive esemplificazioni.
L’ampia selezione bibliografica (interamente citata) segnala, insieme a qualche
riferimento storico occasionale, l’ascendenza culturale più diretta dell’impostazione
seguita: i nuovi riferimenti teorici per il governo dell’impresa alla luce del riesame critico
delle principali categorie gestionali (banche e assicurazioni), i Documenti ufficiali più
6
significativi delle Autorità di Vigilanza (indispensabili per l’inquadramento della materia
in chiave normativa-regolamentare), il recupero di alcuni discorsi di metodo (dai richiami
sulla probabilità agli strumenti di calcolo stocastico), i fondamenti e gli sviluppi della new
theory term structure, l’approccio pionieristico della J.P. Morgan con gli aggiornamenti
man mano resisi disponibili, le verifiche empiriche sulla misurazione del rischio nella
logica del VaR svolte in ambito accademico ed operativo.
7
1. Value at Risk: genesi e sviluppi dell’idea
Il linguaggio comune intende per rischio la possibilità che si verifichino fatti
economicamente sfavorevoli, o dannosi, in relazione al manifestarsi di eventi usualmente
definiti “casuali”. Nell’accezione probabilistica, invece, il rischio descrive una situazione
di più generale scostamento tra previsione ed osservazione nell’ambito di un piano di
esperimenti. Più precisamente, il rischio è inteso come possibilità di non raggiungere un
prefissato obiettivo, e pertanto sia il verificarsi di risultati economicamente migliori che
peggiori rispetto all’obiettivo stabilito sono interpretati come manifestazioni di eventi
rischiosi (il termine sintetizza, quindi, una situazione economica aleatoria). Partendo da
questo presupposto, il rischio è sempre misurato in termini di incertezza sull’obiettivo, cioè
esprimendo una valutazione di probabilità per i diversi “stati del mondo”
1
; di conseguenza,
il controllo del rischio fa riferimento a tutte quelle tecniche che permettono di ridurre (al
limite annullare) le possibili deviazioni dai “valori attesi”, nella consapevolezza che non vi
è nessuna garanzia che il risultato di una strategia di controllo sia economicamente
migliore di quello che si avrebbe in sua assenza.
In ambito finanziario, coerentemente con la definizione probabilistica, vi è accordo nel
considerare il rischio
2
alla stregua delle oscillazioni di valore che un portafoglio può
subire, su un assegnato intervallo temporale, a causa delle variazioni aleatorie dei fattori
che determinano lo stato del mercato, e conseguentemente le nozioni di misurazione e
1
Reinterpretando un’immagine di de Finetti [1970, 36, 87-88], si può dire che il rischio fornisce l’ambito
delle possibilità differenti dall’obiettivo fissato (e il “possibile” non ha gradazioni), mentre la misura del
rischio è una nozione aggiuntiva che si applica nell’ambito delle possibilità, facendovi apparire quelle
gradazioni (“più o meno rischioso”).
2
Sebbene in una materia come quella trattata la classificazione di un’alea in una o in un’altra tipologia ha il
valore di una convenzione piuttosto che una valenza definitoria assoluta, negli ambienti operativi è invalso
l’uso di classificare il rischio per fattori causali: rischio di credito e rischio di mercato (a sua volta
distinguibile in rischio azionario, rischio di cambio, rischio di tasso, cfr. ad es. [J.P. Morgan 1996, 17]). Il
distinguo nasce dalla diversa natura dell’informazione considerata rilevante per la misurazione, dal diverso
trattamento a cui questa viene sottoposta, dalle differenti prassi di gestione [Matten 1996, 77-78]. Rischio di
credito e rischio di mercato, pur delineando compiutamente il profilo di rischiosità complessivo di un
intermediario finanziario, non esauriscono certamente il quadro generale: sono rilevati anche i cosiddetti
rischi operativi ed i rischi non-standard, cfr. [Beder 1999, 3-5], [Marsella 1997, 244], a cui peraltro iniziano
a fare cenno i Documenti degli Organi di Controllo [IOSCO 1998, 10], [Comitato di Basilea 1999b, 15, 50-
51]. È opportuno rimarcare comunque che rischio creditizio, rischio di mercato, rischi operativi e a rischi
non-standard, ancorché astraibili in categorie logiche separate, sono, nei fatti, aspetti diversi di un unicum: il
riconoscimento dell’importanza del controllo del rischio è il riconoscimento del ruolo primario
dell’incertezza complessiva nell’azione sui mercati. Operativamente, il controllo strategico dei rischi appare
sempre più un problema di “governo dell’impresa”, piuttosto che di tecniche di misurazione e di gestione
(che in questo senso vanno viste e proposte “solidali” al controllo “globale”). Occorre, pertanto, soprattutto
nell’ambito dei processi aziendali finalizzati ai cosiddetti controlli interni (cfr., infra, nota 27), far sempre
riferimento ad una definizione onnicomprensiva che prescinda da qualsivoglia rigida tassonomia, poiché
questa potrebbe risultare pericolosamente riduttiva in un ambiente dinamico che modifica rapidamente le
variabili di contesto. Interessanti considerazioni, anche di carattere storico, sull’uso del calcolo delle
probabilità nella prospettiva della misurazione e gestione dei rischi – e in particolare dell’interest rate risk
nelle istituzioni finanziarie – si trovano in [De Felice, Moriconi 1991a, 9-24].
8
controllo si traducono in quantificazione e gestione delle variazioni di valore. Espresso
alternativamente, il rischio è riconducibile alle conseguenze, favorevoli o sfavorevoli,
derivanti dalla stipula di contratti finanziari, la sua misurazione richiede la specificazione
di tali conseguenze, il controllo si sostanzia nella messa a punto di strategie di riduzione
dell’incertezza sul valore futuro dei contratti.
In questa prospettiva la prepotente entrata in scena del paradigma del Value at Risk, pur
nella necessaria semplicità dell’idea (pur con semplificazioni che se non controllate
possono diventare pericolose
3
) costituisce un prezioso arricchimento logico ed informativo,
che viene a soddisfare esigenze di natura strettamente tecnica, di tipo manageriale e di
carattere istituzionale [Wiener 1997, 3-5]. Per inquadrare l’idea nel suo aspetto formale, si
consideri un portafoglio finanziario con valore al tempo t espresso da
t
W ed un holding
period di ampiezza .t∆ La variazione assoluta del valore sull’intervallo ],[ ttt ∆+ sarà
indicata con
tt
L
∆+
e, uniformandosi alla terminologia d’uso, tale numero (aleatorio in t)
sarà chiamato “perdita”, con la convenzione che una “perdita” positiva è una perdita vera e
propria, mentre una “perdita” negativa rappresenta un guadagno (essendo la “perdita”
misurata rispetto al valore corrente). È chiaro che, pur considerando l’intera gamma delle
possibili variazioni di prezzo, se l’obiettivo è quello di misurare le perdite potenziali, per
ogni posizione è di fatto rilevante una sola coda della distribuzione di probabilità. Quindi,
affinché una “perdita” positiva mantenga il significato di perdita in senso stretto, il numero
aleatorio
tt
L
∆+
dovrà essere così definito
4
:
[1.1a]
−
−
=
∆+
∆+
∆+
)(
)(
shortrialzoalesposizonidicasonelWW
longribassoaliesposiziondicasonelWW
L
ttt
ttt
tt
In analogia con le modalità di derivazione delle misure di rischio “tradizionali”
5
, anche
in questo caso la variazione di valore del portafoglio può essere attribuita ad una
3
Cfr., ad es., [Brown 1997], [Hoppe 1998], [Beder 1995, in particolare 23], [De Felice et al. 1997, f.28].
4
Le posizioni esposte al rischio di rialzi di prezzo sono gli “scoperti tecnici”, i titoli da consegnare per
operazioni da regolare (a pronti o a termine), operazioni “fuori bilancio” che comportano l’obbligo o il diritto
di acquistare titoli, indici o tassi di interesse prefissati. Le posizioni esposte ai ribassi sono i titoli detenuti in
portafoglio, i titoli da ricevere per le operazioni da regolare (a pronti o a temine) ed operazioni fuori bilancio
che comportano l’obbligo o il diritto di vendere titoli, indici e tassi prefissati. Le poste monetarie saranno
caratterizzate dal “valore di mercato” vigente alla data di valutazione, gli importi saranno quindi considerati
positivi (evidentemente, nella pratica dello scambio, si usa la convenzione di contabilizzare positive le
entrate, negative le uscite).
5
Cfr. [De Felice, Moriconi 1991a, 215-216].
9
componente “anticipata”, cioè prevedibile nell’istante di valutazione t, ed una componente
“non-anticipata”, indotta dalla dinamica aleatoria del mercato. Se si definisce
[]
ttt
WEW
∆+
= come l’aspettativa in t del valore del portafoglio nell’istante ,tt ∆+ è chiaro
che questa quantità, proprio perché “attesa”, non apporta nessun contributo alla
quantificazione dell’incertezza; quindi, il termine WWL
t
−= può essere correttamente
visto come la variazione di valore imputabile al semplice trascorre del tempo, il cosiddetto
time decay del portafoglio; la [1.1a] può pertanto riformularsi tenendo separate le due
componenti:
[1.1b]
−−
+−−
=
∆+
∆+
∆+
)(
)()(
shortrialzoaliesposiziondicasonelLWW
longribassoaliesposiziondicasonelLWW
L
tt
tt
tt
ed ovviamente solo la parte non prevedibile misurerà propriamente il rischio.
Ciò premesso, si definisce Value at Risk (VaR) la massima perdita
*
L che il portafoglio
può subire in un periodo di ampiezza t∆ (holding period)
6
con una probabilità
*
p fissata
(usualmente denominata “livello di confidenza”
7
). In termini formali, si afferma che
*
L (il
6
In linea di principio, una volta fissata l’ampiezza t∆ dell’holding period, ci si dovrebbe disinteressare delle
oscillazioni di prezzo che avvengono al suo interno, poiché ciò che rileva è – per definizione – il valore del
portafoglio nell’istante .tt ∆+ Nel corso del periodo ],,[ ttt ∆+ a seguito di particolari movimenti avversi
di mercato, il portafoglio potrebbe sperimentare perdite superiori al VaR, che dovrebbero però essere recepite
come momentanee ed ininfluenti, perché potenzialmente riassorbibili sull’orizzonte temporale residuo. In
questo senso, “the portfolio can be viewed as representing a stock of risk at a given point in the time”
[Cassidy, Gizycki 1997, 16]. È chiaro, tuttavia, che per holding period estesi sorge la necessità di realizzare
sistemi di monitoraggio delle posizioni in grado di tenere sotto controllo eventuali trend negativi, perché
nella pratica “l’oggetto del controllo non è un portafoglio statico, ma un’organizzazione in grado di
modificare la propria esposizione al rischio nel corso del tempo” [Saita 1997a, 450, 483]. Un sistema di
controllo coerente con l’impostazione probabilistica è quello che prevede di suddividere l’ampiezza
dell’holding period in periodi unitari (generalmente giornalieri) e di tenere sotto osservazione l’esposizione
al rischio monitorando il VaR su tali intervalli. Peraltro, il problema del monitoraggio “continuo” resta
significativo anche per holding period minimi, poiché per particolari portafogli potrebbe rilevare il c.d.
rischio infragiornaliero.
7
Dal punto di vista “frequentista” il livello di confidenza
*
p discrimina il numero di “perdite” superiori ad
*
L da quelle inferiori, in un ipotetico processo di campionamento da :
tt
L
∆+
se si effettua un numero
indefinito di ripetizioni dell’esperimento (osservazioni delle realizzazioni di ),
tt
L
∆+
ci si aspetta una
“perdita” minore del VaR nel
*
p dei casi e superiore nel .1
*
p− Nella visione “soggettivista”, invece, il
livello di confidenza è il grado di plausibilità attribuito al verificarsi dell’evento { }
*
LL
tt
≤
∆+
e che non
potendo essere valutato ad intuito o con semplice riflessione richiede il ricorso ad opportuni formalismi
matematici. Usualmente per
*
p viene fissato un valore sensibilmente elevato (variabile tra 0.95 e 0.99),
proprio per dare all’informazione fornita dal VaR un’interpretazione di “sistematicità” e attribuire al risultato
complementare una caratteristica di “accidentalità” o di fatto poco probabile (adverse market move). Sui
criteri di scelta dell’intervallo di confidenza si veda [Sironi 1996, 67-74].
10
VaR) è soluzione dell’equazione {},Pr
**
pILL
ttt
=≤
∆+
dove {}⋅⋅Pr è la misura di
probabilità sul valore futuro del portafoglio – condizionata al set informativo corrente
t
I –
ed
tt
L
∆+
il numero aleatorio definito dalla [1.1b], eventualmente depurato della
componente “anticipata”
8
.
É chiaro che la definizione formale di Value at Risk non è, né può essere
ragionevolmente considerata, come un concreto algoritmo di calcolo, sia perché l’inferenza
diretta sul numero aleatorio
tt
L
∆+
si presenta spesso artificiosa [Fallon 1996, 2], sia perché
si giungerebbe alla situazione (estremamente innaturale) di ritenere che la nozione
elementare di VaR presupponga la conoscenza di una cosa ben più complessa e delicata
quale è la precisa distribuzione di probabilità del valore futuro del portafoglio, quando in
realtà ciò che rileva è solo un “aspetto” della distribuzione, e precisamente quello
posizionale. È manifesto, comunque, che l’adozione di misure VaR richiede la scelta di una
struttura probabilistica per l’operazione finanziaria che si intende valutare: servirà fissare
probabilità di eventi, distribuzioni di probabilità di variabili aleatorie, accogliere
convenienti ipotesi di correlazione o indipendenza (lineare o stocastica).
Per dare effettivamente un senso alla nozione di Value at Risk occorre una definizione
operativa, cioè basata su criteri che permettano di misurarla e di ricondurla ad effettive
esperienze almeno concettualmente possibili. Il primo passo in questa direzione è stato
compiuto dalla banca d’affari J.P. Morgan, la quale, attraverso la pubblicazione di un
manuale più volte aggiornato nel corso del tempo, ha diffuso una metodologia
(RiskMetrics™), corredata di software e data base, che a tutt’oggi rappresenta
8
Il Value at Risk è una misura dichiaratamente probabilistica del downside risk, poiché dà una limitazione
inferiore (downside) al livello di perdita (risk) rinvenibile su un certo orizzonte temporale. Il VaR però non
informa né sul comportamento del valore del portafoglio in situazioni di mercato estreme (essendo sempre
riferito a ciò che le Autorità di Vigilanza chiamano “normale corso degli affari” [Banca d’Italia 1996]), né su
ciò che potrebbe accadere qualora, durante il “normale corso degli affari”, si sforasse la massima perdita
potenziale stimata. Il concetto è ben illustrato da Jorion [1997, 1]: “the purpose of VaR is not describe the
worst possible outcames. It is simply to provide estimate of the range of possible gains and losses”; ribadito
da Brown [1997, 2], “VaR does not measure the worst-case loss, but the loss you have some specified
probability of exceeding”; ironicamente sottolineato da Wiener [1997, 4], “the only genuine answer to the
question ‘What is maximal loss we can suffer over some time horizon?’ is unfortunately, ‘We can lose
everything!’ ”. A voler esprimere l’idea ricorrendo al suggestivo frasario di de Finetti [1970, 150], si può dire
che “se lo schema cambia, se avviene un cataclisma, è certo che cadono le conclusioni stabilite nell’ipotesi
che lo schema non cambi, senza prevedere alcuna possibilità di cataclismi”. Il crollo dei mercati azionari nel
1987, dei mercati valutari nel 1992, degli obbligazionari nel 1994 – solo per citare alcuni esempi –
rappresentano situazioni che sfuggono a qualsiasi logica di misurazione del tipo Value at Risk. L’analisi di
portafogli finanziari in condizioni di “forti tensioni” sui mercati è di spettanza di un’altra metodologia, nota
come stress analysis [cfr., ad es., Berkowitz 1999], da più parti segnalata come integrazione necessaria alla
modellistica VaR, cfr. [Comitato di Basilea 1996a, 46-47], [Mezrich 1998], [Institute of International Finance
1999, 22]. L’analisi delle perdite che oltrepassano il VaR in condizioni di “normalità” dei mercati si basa
invece sul concetto di Conditional Value at Risk (C-VaR), che al momento però ha ricevuto impulsi soltanto
in ambiente accademico.
11
un’importante punto riferimento per il calcolo del Value at Risk di contratti – e portafogli –
finanziari. L’impostazione della J.P. Morgan ha avuto infatti l’indiscusso merito di
prospettare in modo unitario un complesso di argomenti considerati in genere
separatamente, stimolando così il dibattito sugli approcci probabilistici alla misurazione
del rischio. A livello interpretativo e concettuale ne sono derivate due posizioni, non
necessariamente contrapposte
9
, per la realizzazione di una metodologia VaR
10
:
• modelli di tipo parametrico (Analitic Methods);
• modelli di simulazione storica, deterministica (Quasi Monte Carlo) e stocastica (Monte
Carlo).
Attualmente, quindi, lo spettro di tecniche di misurazione del rischio genericamente
chiamato con il termine Value at Risk comprende una varietà molto ampia di metodologie,
alcune delle quali radicalmente diverse dal metodo RiskMetrics™. É significativo però
come i modelli di tipo parametrico, pur essendo notevolmente variegati e spesso basati su
specificazioni formali molto differenti, sono quasi sempre ispirati al concetto di volatilità
come misura di rischio. Questa immediata associazione, frutto proprio dell’originaria
impostazione della J.P. Morgan, porta con sé tutti i vantaggi – ed i pericoli – derivanti da
una macchinale trasposizione dei significati del classico indice delle teorie di portafoglio e
9
Cfr. [Engel, Gizycki 1999, 11-12], [Mina, Ulmer 1999, 1], [J.P. Morgan 1996, 156-159].
10
I risultati forniti da un modello VaR dipendono fortemente non solo dal tipo di approccio utilizzato ma
anche dalle ipotesi adottate, dalle tecniche di stima dei parametri, dall’orizzonte temporale di riferimento, dal
livello di confidenza e dalle modalità di realizzazione del mapping, cfr. [Beder 1995, diffusamente],
[Cassidy, Gizycki 1997, 13]. La costruzione del modello richiede pertanto numerose precauzioni ed una
necessaria cautela per la definizione degli aspetti algoritmici, in rapporto alla corretta interpretazione dei
risultati ottenuti. Peraltro, l’approccio del VaR non può essere considerato in assoluto migliore o peggiore
degli altri, anche se c’è una forte tendenza a radicalizzare questo punto di vista da parte degli operatori. Come
osservato da Wiener [1997, 6], “VaR itself is not the true way to measure risk … there are many other risk
measurement … the major advantage of VaR is that it has became a widely accepted standard!”. D’altra
parte, nel tentativo di definire un metodo che risulti migliore tanto a rapidità di calcoli quanto a precisione
delle stime e a facilità di interpretazione dei risultati, ci si scontra con non pochi problemi di ordine
metodologico nella realizzazione di una esauriente ed esaustiva verifica empirica. La difficoltà ad accertare
quanto sia implicito nei dati di partenza, ovvero a valutare quanto il modello possa essere considerato ben
calibrato sul mercato, dà origine al cosiddetto model risk, la cui essenza può cogliersi nelle parole di Drudi,
Generale e Majnoni [1997, 9]: “the measurement methods based on the notion of VaR do not eliminate the
uncertainties about the precision of different VaR models”. Una misura VaR quindi non implica oggettività, o
autorità, benché in molti abbiano preso la tendenza a vedervi qualcosa di “magico”: essa non è altro che una
diversa forma di linguaggio che permette a giudizi soggettivi di essere tradotti in una forma più precisa e
quindi suscettibile di utilizzazione; né appare giustificato il desiderio di spingere la precisione della misura
oltre un limite ragionevole, anche perché “ogni definizione operativa, a volerla prendere sul serio come
effettivo metodo di misura, comporta il guaio di mescolare alla discussione dei principî tutti i dubbi derivanti
dalle inevitabili imperfezioni pratiche” [de Finetti 1970, 111]. L’immagine di Jorion [1997, 2] in proposito
è illuminate: “VaR is like wobbly speedometer … it gives a rough indication of speed … derivatives disaster
have occurred because drivers or passengers did not worry at all about their speed”.
12
dell’option pricing tradizionali ai problemi di misurazione del Value at Risk
11
. Che questi
approcci, a volte, possano risultare estremamente efficaci, è palesemente vero. Ma al
tempo stesso bisogna prestare attenzione a non restare prigionieri di questa artificiale
associazione quando, anziché giovare, irretisce in una visione insufficiente e distorta, come
spesso avviene per il mercato dei tassi di interesse, dove la modellistica comunemente
utilizzata appare troppo svincolata dalla logica e dalla complessità degli strumenti
negoziati. Tali questioni saranno riprese e sviluppate nella seconda parte sia con
riferimento ai tradizionali modelli varianze/covarianze, sia in riferimento ai più innovativi
modelli stocastici. Gli approcci descritti non esauriranno certamente tutti i metodi possibili,
né ciò sarebbe peraltro interessante, data l’abbondanza della letteratura in tale campo; essi
comunque permetteranno di avere una visione generale del tipo di algoritmi a cui si ricorre
nelle applicazioni.
Per il momento, però, sembra opportuno concentrarsi sui risvolti gestionali e normativi
della modellistica, istituendo fin da subito il collegamento tra il significato teorico del VaR
e le sue implicazioni pratiche: ciò consentirà di evidenziare i motivi profondi ed essenziali
che hanno costituito lo scopo per cui questo concetto è stato introdotto, e che spiegano la
ragione intima della sua utilità. Dal punto di vista critico, la finalità del capitolo è quello di
penetrare il senso e misurare i confini della modellistica: non sempre, infatti, allo sviluppo
dei contributi sul piano teorico ha fatto riscontro la chiara comprensione da parte degli
operatori dei presupposti di tali modelli e del perimetro entro cui limitare la loro
applicazione. Si riterrà pertanto di aver realizzato gli intenti qualora da questa prima parte
dell’esposizione emergano le logiche e le potenzialità di utilizzo del VaR, i possibili ambiti
di sviluppo, le precauzioni da usarsi nelle modalità di impiego, i pericoli derivanti da un
uso acritico.
11
“The principal reason for preferring to work with standard deviation (volatility) is the strong evidence that
the volatility of financial returns is predictable. Therefore, if volatility is predictable, it makes sense to make
forecasts of it to predict future values return distribution” [J.P. Morgan 1996, 7]. Ora, se è vero che
“volatility is a natural measure of market risk” [Duffie, Pan 1997, 36], per cui sembrerebbe ovvio utilizzarla
per l’implementazione di un modello VaR, è altrettanto vero che “VaR calculation can be performed without
using standard deviation or correlation forecasts. These are simply one set of inputs that can be used to
calculate VaR, and RiskMetrics provide for that purpose” [J.P. Morgan 1996, 7]. Ma è chiaro che “the use of
measures such as standard deviation depends upon assumptions about the nature of the data being
measured. If the assumptions are met, use of the measures may be unproblematic. If they are not met, there
may be problems interpreting and using the numbers” [Hoppe 1998, 46].
13
2. La modellistica VaR come strumento di supporto ai processi decisionali
“One as to be careful in interpreting this sort of analysis. A
purely statistical approach does not say anything, for example,
about changes in the business enviroment or in the bank’s
strategy, which could may statistically unlikely outcames more
possibile, or expected outcomes riskier than they might seem at
first sight. This is why it is emphasised that this is a decision
support tool, with the emphasis on the word ‘support’: it is only
one piece of information, albeit a very useful one, in making the
planning decision, and is certainly superior to comparing next
year’s budget with the actual performance of the last year or
two”
Matten [1996, 105-
106]
“The dependece on technology and skilled professional is greater
than ever before. Although this dependence has produced
invaluable advances in financial engineering and risk
management, some firm have been lulled into false sense of
security. Often, firms forget the degree to which the output of the
model depends upon the modeler’s perspective and assumption.
A firm’s senior management and directors or trustees are
shocked to learn that their firm’s rish report can change
dramatically under alternate assumption”
Beder [1995, 23]
“Risk measurement and management continues to be as much a
craft as it is a science ... no amount of sophisticated analitycs
will replace experience and professional judgment in a
managing risk”
J.P. Morgan [1996,
1]
L’introduzione dei modelli di misurazione dei rischi di mercato basati sulla logica del
Value at Risk
12
ha rappresentato una delle più rilevanti svolte nella gestione delle banche e
nella definizione degli schemi di vigilanza sul sistema finanziario. Nel tentativo di
implementare praticamente tali modelli, come strumenti a supporto ai processi decisionali,
ci si è scontrati con non poche questioni di ordine sia teorico che pratico.
Una prima classe di problemi ha fatto riferimento alla determinazione dei modelli da
adottarsi ai fini della quantificazione dei rischi gravanti su un portafoglio finanziario.
Risolvere la questione del VaR nei suoi aspetti analitici costituisce indubbiamente una delle
12
La massima perdita potenziale associata ad una determinata posizione è usualmente denominata Value at
Risk, a voler sottolineare che questa esprime la perdita di valore (valore a rischio, per l’appunto) che il
portafoglio può subire, ad un dato livello di probabilità, in un certo intervallo di tempo. Quando la logica del
VaR è ambientata in contesti operativi il significato economico di questa misura e le finalità con cui si presta
ad essere utilizzata suggeriscono di rinominare il metodo come Capital at Risk (CaR). Non che esista, o sia
opportuno istituire, una distinzione o separazione tra i due termini: si vuole solo alludere alla differente
prospettiva con cui un medesimo campo (il rischio) può essere indagato, ponendo l’attenzione sui problemi
di calcolo (VaR) oppure sull’aspetto organizzativo (CaR), senza peraltro che ciò sottenda alcuna necessità di
mutamento nelle metodologie di misurazione.
14
necessità primarie nel tentativo di rendere funzionante un sistema di controllo e gestione
dei rischi di mercato, e non stupisce pertanto che tali aspetti abbiano catalizzato
l’attenzione sia di chi ricopre ruoli operativi che degli accademici. Ma l’aspetto
computazionale non rappresenta l’unico problema – e forse, almeno in alcuni casi,
nemmeno il principale – che deve essere superato qualora si tenti di tradurre in pratica la
logica dell’approccio VaR: una volta trovata la soluzione accettabile sotto il profilo
metodologico sorge l’esigenza di coniugare i referenti teorici disponibili con le
applicazioni, che hanno spesso evidenziato problematiche nuove, per le quali l’ausilio
fornito dalla letteratura esistente è risultato in qualche modo parziale. Del resto, senza
un’adeguata definizione delle modalità di svolgimento del processo decisionale anche le
metodologie più raffinate non servono, di per sé, a rendere un metodo più utile ed efficace
di un altro, perché in un contesto operativo non sono tanto le tipologie di misure del rischio
prescelte ad essere rilevanti, quanto le decisioni che tali misure possono spingere ad
adottare o a rifiutare. Pertanto, non è più rilevante l’esplicitazione (in maniera dettagliata e
per ogni rischio individuato) dei singoli criteri di calcolo e delle sottostanti basi teoriche,
ma piuttosto la definizione di regole che precisino “come” calare un mero dato numerico
nel processo dinamico e continuativo caratterizzante la gestione bancaria (modello
organizzativo), quali competenze dovrà avere “chi” verrà assegnato allo svolgimento delle
attività (modello delle risorse umane) e, infine, con “quale supporto” saranno svolte
(modello applicativo/tecnologico)
13
.
Se si tenta di individuare le dimensioni chiave che possono definire le modalità di
applicazione della modellistica VaR, e quindi, al tempo stesso, i possibili percorsi di
13
La questione è stata posta con chiarezza da De Felice e Moriconi: “L’intervento del regolamentatore sui
temi del controllo del rischio sta spostando l’attenzione e l’impegno della teoria e della tecnologia dalla
galassia dei micromodelli hi-tech e hi-math (con alto contenuto tecnologico e matematico, in molti casi vere
e proprie black-box, per la valutazione di prodotti finanziari ad alta complessità) alla definizione di un
megamodello – o meglio, di un metamodello – per il risk management ed il controllo del rischio globale.
Nella fase di massima diffusione di modelli hi-math sono stati introdotti modelli di pricing, corredati delle
adeguate misure di rischio, spingendo la metodologia ad un alto livello di complessità matematica. Nella fase
attuale sembra piuttosto prevalere l’esigenza di individuare un quadro metodologico che sia sufficientemente
semplice, per consentire la visibilità e la controllabilità dei processi di formazione del rischio e
sufficientemente flessibile, per consentire di accogliere al suo interno in modo non contraddittorio i vari
micromodelli che guidano le attività di trading. Questa tendenza (combinata con l’esigenza delle adeguate
semplificazioni e della sistematizzazione) sembra garantire la possibilità di progettare linee formative che
non abbiano necessariamente in primo piano il conseguimento di competenze matematiche altamente
specialistiche […]. Le strutture operative cominciano a richiedere figure professionali trasversali, cioè
‘contaminate’. Tutta la problematica del risk management è un volano di domanda di alte professionalità
contaminate. Il processo di controllo del rischio pone problemi che richiedono alte competenze in più ambiti,
tradizionalmente specifici di culture diverse.” Cfr. [M. De Felice, F. Moriconi, Fare e Formare in Finanza,
in “Banche Imprese e Società, n. 3, 1997, 457, 458].
15
sviluppo di un sistema di risk management, due, fra tutte, rivestono un’importanza
decisiva
14
:
• l’ambito di applicazione;
• le finalità di utilizzo.
L’ambito di applicazione riguarda la scelta, all’interno della struttura di intermediazione,
delle aree d’affari su cui rilevare l’entità della massima perdita potenziale, per stabilire il
numero ed il tipo di centri di profitto oggetto di controllo e, conseguentemente, l’ordine di
problemi che ci si troverà ad affrontare. In una prima fase questa scelta viene
necessariamente a cadere all’interno del portafoglio di negoziazione, considerando quindi
la sola esposizione ai rischi di mercato derivanti dall’attività di trading proprietario; un
livello di sviluppo successivo è l’estensione del VaR anche al portafoglio bancario (credit
risk management); il terzo stadio, infine, è rappresentato dall’applicazione di tale
metodologia al complesso della combinazione attivo/passivo della banca in quanto tale
(cioè a tutti i possibili portafogli che la compongono). É chiaro, d’altro canto, come la
metodologia VaR tenda ad estendersi naturalmente anche al di fuori dell’area dei rischi di
mercato, che pure ne rappresenta il primo ed il più naturale ambito di applicazione.
Pertanto essa potrà essere via via adottata anche nell’ambito dei rischi di credito
15
, dei
rischi legati all’attività di finanza straordinaria, di quelli derivanti da servizi offerti alla
clientela
16
e così via. È altrettanto evidente come la tipologia di problemi da affrontare, e le
conseguenti soluzioni proponibili, mutino man mano che ci si muove dalla sola attività di
negoziazione nel breve termine al complesso delle posizioni che determinano l’insorgere di
un rischio (qualunque esso sia).
14
Cfr. [Saita 1997a, 452-455].
15
Negli ambienti operativi più evoluti sta maturando l’esigenza di costruire modelli che forniscano per il
rischio di credito risultati simili a quelli desumibili dal Value at Risk per i rischi finanziari. Sotto questo
profilo, tuttavia, la metodologia VaR sconta, sia sul piano teorico che su quello applicativo, un certo ritardo
rispetto ai rischi finanziari che, pur nella loro elevata complessità, permettono comunque un approccio meno
critico: così il percorso evolutivo di molti intermediari bancari è caratterizzato da una convenienza tra
controllo dei rischi di mercato secondo la logica del VaR e controlli tradizionali per ciò che concerne gli altri
rischi (e quello di credito in primis).
16
La gestione di patrimoni, l’offerta di servizi di consulenza e di pagamento, le operazioni di finanza
straordinaria, e molte altre ancora, non comportano l’assunzione di posizioni in proprio, ma generano
ugualmente flussi di ricavi e dunque di utili (ciò che in bilancio compare sotto la voce commissioni attive). Il
fatto che parte dell’utile complessivo provenga da queste attività fa sì che esse siano comunque caratterizzate
da rischio, poiché se tali flussi venissero improvvisamente a mancare la redditività e conseguentemente il
valore economico dell’impresa bancaria ne risentirebbero negativamente. Dimostrata la validità della
modellistica VaR per il controllo dei rischi di mercato e di credito, è logico attendersi una sua applicazione in
tutte le aree operative ove si gestiscono posizioni finanziarie sensibili alla volatilità delle variabili di mercato.
16
L’estensione dell’ambito di applicazione non rappresenta però che la prima dimensione
rilevante; la seconda è individuata nelle finalità di utilizzo. A riguardo, è possibile
distinguere quattro differenti e progressive finalità con le quali si può far ricorso ai modelli
VaR, e precisamente:
• misurazione del rischio gravante su un portafoglio finanziario (risk measurement o risk
exposure);
• controllo del rischio associato al portafoglio mediante l’imposizione e la revisione di
limiti operativi;
• rilevazione della performance realizzata dal portafoglio, basata sul profilo
rendimento/rischio (Risk Adjusted Performance Measurement);
• gestione efficiente del “capitale proprio” come risorsa chiave dell’intermediario,
finalizzata ad istituire un processo periodico di riallocazione interna del capitale
complessivamente disponibile, in funzione sia delle capacità gestionali di ogni singolo
centro di profitto, che delle opportunità di mercato che si offrono ad ognuno di essi
(tecniche di capital allocation).
Le due dimensioni
17
delineate individuano una vera e propria “mappa” sulla quale è
possibile tracciare i diversi percorsi di sviluppo dei sistemi di risk management, per
valutare il grado di consapevolezza di un intermediario in materia di assunzione dei
rischi
18
. É chiaro che procedere contemporaneamente lungo le due dimensioni tende a
17
Alle due dimensioni ambito di applicazione/finalità ne può essere aggiunta una terza, rappresentata dal
livello di disaggregazione cui si intende giungere nella misurazione del Capital at Risk, nell’assegnazione di
limiti operativi e nella rilevazione delle Risk Adjusted Performance Measurement, e procedendo lungo la
quale si incontrano problemi di integrazione per alcuni profili analoghi a quelli connessi all’estensione del
CaR.
18
Come rilevato da Marsella [1997b, 608-609], socio della società di consulenza finanziaria Arthur
Andersen, ideatrice del modello Business Risk Management, “le criticità legate all’introduzione di un
processo di allocazione del capitale, specialmente in realtà bancarie dimensionalmente significative, sono di
solito collegate all’ampiezza del progetto, da sviluppare necessariamente con riferimento a tutte le Aree di
business di una banca, [e] alla condivisione del modello e all’accettazione degli impatti in termini di struttura
organizzativa, gradi di responsabilità e risorse umane” … “l’introduzione di modelli VaR spesso non
costituisce occasione di ripensamento dell’intero modello di governance del business, ma è limitata alle
necessità di misurazione dei rischi assunti … solo in rarissimi casi il concetto di risk management viene
associato alle modalità con cui è impostato il processo gestionale della banca” [Marsella, Sironi 1997, 16-17].
È questo il caso delle banche italiane, dove la predisposizione delle informazioni necessarie e la formazione
di qualificate figure professionali ha richiesto un impegno di risorse notevoli, con risultati che hanno
condizionato la realizzazione completa di modelli di “governo” del rischio: le applicazioni sono state
numerose ma hanno permeato parzialmente la gestione operativa, sicché non sono riscontrabili a tutt’oggi le
condizioni per affermare che nel sistema bancario italiano la gestione di impresa ispirata alle logiche del risk
management sia una realtà diffusamente consolidata [Marsella 1997b, 575, in particolare nota 5]. Sulla scia
dei pronunciamenti degli Organi di Controllo, l’esigenza di misurare adeguatamente il profilo di rischio è
stata particolarmente avvertita solo nell’attività dell’area finanza (in particolare della finanza innovativa),
anche perché ritenuta portatrice di un rischio di mercato più difficile da gestire rispetto a quello derivante
17
creare problemi di natura in parte differenti: nell’estendere l’ambito di applicazione le
maggiori difficoltà sono connesse all’integrazione tra modalità di assunzione e gestione dei
rischi, orizzonti decisionali e talora “culture” differenti; nell’ampliare le finalità di utilizzo
la maggiore difficoltà è rappresentata, invece, dalla necessità di armonizzare la rilevazione
delle performance “corrette per il rischio” e di riallocazione del capitale con i meccanismi
operativi già in essere all’interno di un intermediario.
Allo sviluppo dei modelli per la misurazione dei rischi di mercato hanno indubbiamente
contribuito in misura rilevante non solo le singole istituzioni finanziarie, sovente meritevoli
di aver reso disponibili pubblicamente i propri risultati, ma anche le Autorità di Vigilanza
nazionali e sovranazionali. Il contributo in questione è riconducibile ad una radicale
trasformazione della “politica del controllo”
19
: si è delineato in proposito uno specifico
orientamento da parte dell’Istituto di Vigilanza che, su iniziativa concertata nell’ambito del
Comitato di Basilea, ha avviato ipotesi di valutazione della stabilità e dell’efficienza delle
imprese bancarie anche in termini del cosiddetto risk management
20
.
dalla cosiddetta area strutturale. Da questo punto di vista, il problema del controllo del rischio è, prima che
tecnico, un problema culturale e richiede, per essere affrontato efficacemente, la disponibilità di tecnologie di
calcolo “agganciate” ai mercati e di presidi organizzativi, preposti all’uso di queste tecnologie, basati su
regole decisionali, modalità di coordinamento e realizzazione di strumenti informativi, finalizzate alla
gestione della struttura dello stato patrimoniale e del conto economico nel breve e nel medio periodo.
19
Gli interessi dell’intervento pubblico nel comparto dell’attività di intermediazione creditizia e finanziaria
sono identificati nella stabilità, efficienza e trasparenza del mercato, e costituiscono gli obiettivi finali della
regolamentazione. Il conseguimento di tali obiettivi rende necessario ricercare le strutture di mercato,
organizzative e istituzionali più idonee alla loro realizzazione (obiettivi intermedi) nonché l’apprestamento
delle condizioni e l’impiego dei mezzi che favoriscano la realizzazione di tali strutture (strumenti).
Recentemente il Comitato di Basilea [1997a] ha diffuso una serie di principî comuni “che rappresentano gli
elementi basilari per un efficace sistema di vigilanza”, a testimonianza della necessità di omogeneizzare le
regole di controllo sul piano internazionale. Per una descrizione delle diverse forme di vigilanza, degli
strumenti, degli obiettivi e dei soggetti vigilati si veda Parente et al. [1996, diffusamente, in particolare 32,
60-61], [Di Noia, Piatti 1998, 35, 39]. Per una sintesi sui diversi modelli di vigilanza, cfr. [Di Noia, Piatti
1998, 14-23].
20
I riferimenti della Vigilanza in proposito sono numerosi (cfr., ad es., Banca d’Italia [1994, LXI.21],
Comitato di Basilea [1997, 15
*
, 21
*
], IOSCO [1995], [1998, 6-7]), e d’altra parte i diversi tasselli di quali si è
venuto formando il nuovo ordinamento bancario possono essere ordinati secondo due precise direttrici:
interventi diretti a garantire nuove libertà alle imprese – allo scopo di assicurane una gestione più efficiente –
ed interventi diretti a precostituire le condizioni necessarie per fronteggiare i rischi connessi con quelle nuove
libertà e a contenere gli effetti negativi degli stessi. In un contesto che valorizza l’autonomia imprenditoriale
del banchiere, all’interno di regole poste a presidio della stabilità e dell’efficienza, si accentua la rilevanza
della conoscenza tempestiva della situazione tecnica complessiva delle banche, per guidare la Vigilanza ad
intraprendere le necessarie azioni correttive. Il processo di analisi si articola in un percorso di indagine che,
attraverso una costante attività di monitoraggio, consente l’individuazione di sintomi di anomalia ovvero la
ricerca delle modalità di superamento delle situazioni problematiche. Il monitoraggio riguarda
essenzialmente tre aspetti: il rispetto dei requisiti di vigilanza prudenziale (cfr. infra nota 23); l’andamento
dei principali aggregati patrimoniali ed economici; la capacità della banca di fronteggiare, sotto il profilo
patrimoniale ed organizzativo, i diversi rischi assunti. Il fulcro dell’intero percorso d’indagine è l’esame della
situazione tecnica, attuale e prospettica, della banca alla luce: delle indicazioni emerse dai controlli periodici;
dalle valutazioni ottenute dai modelli di analisi; dalle altre informazioni circa le caratteristiche operative. In
particolare, i modelli di analisi costituiscono lo strumento per l’esame delle situazioni tecniche, essendo
l’impianto analitico sottostante al sistema di valutazione delle banche. I modelli riguardano cinque profili