8
CAPITOLO 1
REALIZED VOLATILITY
L’analisi e la misura della volatilità hanno attirato un gran interesse negli
ultimi anni, soprattutto da quando è aumentata la disponibilità di dati a nostra
disposizione.
In presenza di dati ad alta frequenza uno dei problemi principali riguarda
appunto la stima della volatilità dei rendimenti di un’attività finanziaria.
Lo studio dei dati ad alta frequenza è una delle attuali tendenze della finanza,
che consiste nell’osservazione dei dati registrati in tempo reale.
A differenza degli studi tradizionali, nei quali si tende a considerare dati
misurati a intervalli equispaziati, nel caso dell’alta frequenza si registra ogni
singola transazione (e anche richiesta di transazione), che avviene sul
mercato.
La possibilità di sfruttare questa enorme mole di informazioni costituisce un
indubbio vantaggio come testimoniano le numerose applicazioni di stime
econometriche ricavate da tali dati. Tali applicazioni si riflettono su una gran
parte della teoria finanziaria: dal prezzaggio delle opzioni, alla previsione
della volatilità infragiornaliera, dal calcolo del Var (Value at risk) alla
gestione della liquidità.
Per ciò che concerne la stima della volatilità, una tecnica frequente consiste
nella stima di quest’ultima, attraverso la somma dei rendimenti al quadrato.
Il nostro interesse verterà quindi sulla stima della variazione quadratica
dall’osservazione dei prezzi delle attività finanziarie che nel campo dei
derivati è definita volatilità storica.
L’importanza della variazione quadratica nell’economia finanziaria è
comunemente riconosciuta.
9
Il maggior contributo proviene esplicitamente dai lavori paralleli di Black and
Scholes (1973) e Merton (1973), i quali presentarono che i prezzi delle
opzioni sono una funzione dell’asset price volatility.
È ben noto che lo studio della volatilità storica viene nettamente distinto da
quello della volatilità implicita a cui ci si riferisce per il prezzaggio delle
opzioni e che ci porta alla definizione dello “ smile effect”.
1.1Analisi storica della volatilità
La volatilità storica è stata oggetto di una notevole attenzione in ambito di
letteratura economica e finanziaria. Qui sono presentati alcuni esempi dei
principali problemi analizzati.
Christie (1982) analizzò la relazione tra varianza e leverage e tra varianza e
tassi di interesse. Il leverage effect è stato a lungo analizzato sin dagli studi di
Black (1976) e Cox e Ross (1976). Il legame asimmetrico tra la volatilità
realizzata e i rendimenti è stato esaminato in un recente lavoro di Bekaert e
Wu (2000).
French e Roll (1986) rilevarono empiricamente che la varianza dei prezzi
delle attività finanziarie durante le contrattazioni sui mercati, fosse più alta di
quella dei periodi di non contrattazione e collegarono tale risultato al ruolo
dell’informazione privata.
Nel 1987 French et al.,stimarono la relazione tra volatilità e il premio per il
rischio atteso per i rendimenti azionari; sulla stessa linea ci fu lo studio di
Schwert(1989), che analizza la volatilità in un periodo secolare, rilevando che
essa sia stocastica e prova a esprimere le sue fluttuazioni in collegamento a
variabili macroeconomiche.
10
La volatilità infragiornaliera, fu invece oggetto di studio di Lockwood e Linn
(1990) e di Andersen e Bollerslev (1997), in cui fu evidenziato il legame tra
periodicità infragiornaliera e persistenza.
Probabilmente il concetto più importante sulla volatilità è la persistenza o
clustering.
Ad essa ci si riferisce quando la funzione di autocorrelazione dei rendimenti
al quadrato è significativamente positiva in un orizzonte temporale ampio e
in particolare indica che se i rendimenti nell’ultima settimana di
contrattazione sono stati molto grandi (o piccoli), nella prossima settimana
continueranno a esserlo.
I rendimenti finanziari nei mercati infatti, sono rappresentati dalle seguenti
caratteristiche:
code grasse (fat tails o leptocurtosi): nel caso di un’asimmetria vicina allo
zero, e curtosi di molto superiore a tre;
random walk: la funzione di autocorrelazione dei rendimenti è statisticamente
nulla;
persistenza in volatilità: la funzione di autocorrelazione dei rendimenti al
quadrato e significativamente positiva, in un range temporale ampio;
leverage effect: i rendimenti al quadrato sono negativamente correlati con i
rendimenti.
L’eteroschedasticità (fenomeno in cui la varianza di una serie storica risulti
variare col tempo) conduce a modellare la persistenza per dare una buona
immagine dell’evoluzione del prezzo di un’attività finanziaria. I risultati di
tale intuizioni sono il modello ARCH di Engle (1982) e il GARCH di
Bollerslev (1986).
Il modello di Engle (1982) ha aperto il campo ad un filone di letteratura molto
ampio su modelli a eteroschedasticità condizionata autoregressiva (ARCH)
per lo studio della varianza dei rendimenti condizionata ad un certo insieme
informativo.
11
Con tali modelli è stato possibile introdurre fenomeni quali la leptocurtosi
(code grasse) e l’eteroschedasticità. Il modello ARCH(p) è rappresentato da:
ε(t) (1)
(2)
con ε(t) variabile casuale iid (identicamente e indipendentemente distribuita),
E
con ε(t) che si distribuisce come una normale N(0,1) e quindi r(t)
si distribuisce come una normale N(0,h) e h(t) che rappresenta la varianza
condizionata:
(3)
Abbiamo inoltre che ω>0 (che rappresenta la varianza minima) e α(i) .
Bollerslev (1986) propose una generalizzazione dei modelli proposti da
Engle; il modello GARCH (Generalized Autoregressive Conditional
Heteroskedasticity) si basa sul fatto che la varianza condizionata al tempo t è
una combinazione lineare di p ritardi dei residui al quadrato, ricavati
dall’equazione della media condizionata, e di q ritardi della varianza
condizionata. In sintesi un GARCH(p,q) può essere espresso come:
ε(t) (4)
(5)
con la condizione di stazionarietà garantita da:
<1 (6)
I modelli GARCH sono compatibili con le evidenze empiriche che si
riscontrano nell’analisi dei rendimenti azionari, co me la presenza di
autocorrelazione in trasformazioni positive dei rendimenti, in particolare il
quadrato, e consentono di interpretare la persistenza della volatilità.
12
Nelson (1992) stimò la relazione tra la varianza stimata di un ARCH e la vera
variazione quadratica, evidenziando che la differenza tra le due converge a
zero quando gli intervalli di tempo si restringono. L’interesse nello studio
della persistenza in volatilità deriva principalmente dalla sua prevedibilità,
infatti è probabilmente la principale applicazione dell’uso del concetto di
variazione quadratica.
Gli studi della letteratura finanziaria sulla variazione quadratica hanno subito
un rinnovamento dopo il contributo di Andersen e Bollerslev (1998), i quali
presentarono che la bassa performance di previsione del GARCH (1,1) non
dipendeva dalla scarsa abilità previsiva di questi modelli, ma dalla scarsa
stima della volatilità integrata.
Partendo dall’idea di Merton (1980), gli autori utilizzando simulazioni e dati
FX hanno dimostrato come fosse possibile stimare la volatilità giornaliera
utilizzando le transazioni infragiornaliere (dati ad alta frequenza), e che tali
stime fossero più precise dei rendimenti al quadrato giornalieri e quindi la
capacità previsionale del GARCH fosse buona. Tale misura di volatilità fu
definita “Realized Volatility”(RV).
Nello stesso ambito vi furono gli studi di Barndoff-Nielsen e Shephard (2002)
che analizzarono le proprietà statistiche di RV, e Andersen et al (2001) che
applicarono tali proprietà ai prezzi azionari e ai tassi di cambio.
1.2 Realized Variance
La volatilità dei rendimenti azionari è generalmente analizzata con modelli
GARCH che gestiscono la volatilità come una variabile latente.
Negli ultimi anni ha preso sempre maggior interesse uno studio alternativo
basato sull’analisi della volatilità con metodi non parametrici utilizzando dati
ad alta frequenza.
13
Tali dati, come descritto precedentemente, dovrebbero rappresentare il primo
obiettivo di ricerca per chi è interessato a capire la dinamica dei mercati
finanziari (come gli operatori finanziari).
Nella vasta letteratura finanziaria a riguardo, tali dati vengono trattati con
bassa frequenza ed equispaziati nel tempo, a causa dell’ingente costo
necessario per reperire e manipolare tali dati.
Originariamente la forma dei prezzi azionari è costituita dai dati tick-by-tick,
dove ogni tick rappresenta un prezzo o quota uno scambio. Tali dati non sono
equispaziati nel tempo e il numero di osservazioni infragiornaliere è elevato.
Negli ultimi anni, con l’evoluzione informatica, la disponibilità di dati ad alta
frequenza è divenuta sempre più agevole e accessibile agli operatori
finanziari, tanto da divenire la base sperimentale per capire la microstruttura
dei mercati.
Un’idea di rilievo riguardo alla stima della volatilità con dati ad alta frequenza
è quella della Realized Variance (RV) sviluppata negli studi quasi
contemporanei di Barndoff-Nielsen e Shephard (2002) e Andersen et al
(2001).
Basandoci sullo studio degli autori, supponiamo di scindere ogni giorno t di
contrattazione sui mercati in intervalli M intervalli di ampiezza ℱ, con
j=1,2,…,M.
Per ogni intervallo osserviamo l’ultimo prezzo H
t,i
e calcoliamo il rendimento
logaritmico:
(log H
ti
– log H
ti-1
) (7)
Gli autori misurano tale variabilità (RV), definita come:
(8)
Mentre la realized volatility è definita come:
(9)
14
dove r
t,j
(t=1,2,… e j=1,2,…M) indica la serie dei rendimenti con prezzi
logaritmici r’
(t).
Obiettivo del loro studio è stato analizzare quindi, e verificare cosa stima la
Realized Volatility e quanto precisa risulta tale stima. La risposta al primo
quesito è chiara e già nota come mostrato precedentemente: essa è uno
stimatore consiste (con M ), della corrispondente variazione quadratica
(QV) per tutte le semimartingale
1
.
Sfortunatamente, sebbene RV sia uno stimatore consistente di QV in generale,
non conosciamo nulla riguardo alla sua precisione. Tale considerazione
presenta ovviamente un ostacolo che potrebbe essere superato nel caso si
utilizzi o si lavori nell’ambito di un modello a volatilità stocastica, che
rappresenta un caso speciale di semimartingale con traiettorie continue.
Per fissare le idee, supponiamo che il processo generatore del logaritmo dei
prezzi di un’attività finanziaria sia il seguente:
(10)
dove W(t) è un moto Browniano standard, noto come il coefficiente
drift, e nota come volatilità istantanea del processo, possono a loro volta
seguire un processo stocastico a tempo continuo.
I concetti di maggior interesse sono la variazione quadratica o volatilità
integrata (IV), calcolata in un determinato periodo di tempo tipicamente un
giorno, ed è definita:
(11)
1
Nella teoria delle probabilità, un processo reale X è definito semimartingala, se è possibile decomporlo in
una somma di una martingala e un processo con variazione finita adattato locale.
15
Lo stimatore usuale di IV, come menzionato precedentemente, è quello basato
sulla somma dei rendimenti al quadrato ed è chiamato volatilità realizzata
(RV).
Barndoff-Nielsen e Shepard (2002) hanno introdotto il concetto di variazione
quadratica precedentemente citata.
Ridefinendo l’equazione (4) come :
(12)
dove il termine di drift, mentre Mt è una martingala
2
locale. La
variazione quadratica di Yt è:
(13)
cumula i cambiamenti lungo uno specifico orizzonte temporale.
Assumendo che sia prevedibile allora .
In particolare, Andersen et al (2001) hanno dimostrato che RV converge in
probabilità a QV quando M, il numero di osservazioni infragiornaliere
diverge.
Campionando i prezzi a intervalli sempre più brevi si annullerà l’errore di
misurazione e RV convergerà a IV (integrated volatility).
Jacod e Protter (1998), e Barndoff-Nielsen e Shepard (2002) in seguito, hanno
derivato l’approssimazione della distribuzione asintotica di RV. Gli autori
hanno mostrato che RV converge a
al tasso derivando tale
distribuzione asintotica:
N(0,1) (14)
2
Nella Teoria della probabilità, una martingala è un processo stocastico X
t
, indicizzato da un parametro
crescente t (spesso interpretabile come tempo), con la seguente proprietà: per ogni s≤t , l'attesa di X
t
condizionata rispetto ai valori diXr, r ≤ s, è uguale ad X
t
. Il più noto esempio di martingala, in cui il
parametro s è continuo, è senz'altro il moto browniano.
16
I risultati ottenuti suggeriscono quindi di scegliere una frequenza di
campionamento più grande possibile. In questo caso, però, si incorre in un
errore causato dalla microstruttura del mercato e ci si trova ad affrontare il
trade-off tra accuratezza, ottenuta attraverso un’alta frequenza di
campionamento, ed errore di microstruttura. Quindi la volatilità realizzata può
essere uno stimatore non robusto di IV in presenza di tali errori.
Un approccio differente dalla stima della volatilità integrata è quello offerto
dai lavori di Malliavin e Mancino(2002) i quali utilizzano la trasformata di
Fourier per costruire un nuovo stimatore definito da:
(15)
Dove a
s
e b
s
sono le stime del coefficient di Fourier, calcolati a partire dai
prezzi dopo averli normalizzati nell’intervallo [o,2π] e S =
dove n è il
numero di transazioni infragiornaliere.
Tale stimatore risulta invece robusto nonostante la presenza di errore che si
manifesta tipicamente alle alte frequenze di campionamento.
Un ulteriore contributo, nell’ambito di ricerca di una soluzione attraverso uno
stimatore efficiente utilizzando tutti i dati a nostra disposizione è offerta da
Zhang et al. (2005) che hanno proposto uno stimatore della volatilità
realizzata (RV
(TTSE)
) che combina due quantità basate su due scale temporali
differenti: RV
(AVG)
che indica la media delle volatilità realizzate calcolate su
una scala temporale “lenta”, ad esempio considerando i prezzi ogni 5 o15
minuti; RV
t
, la volatilità calcolata usando tutti i dati a nostra disposizione
(scala temporale “veloce”), opportunatamente pesata in base a un fattore che
dipende dal numero di osservazioni.
RV
(TTTS)
= RV
(AVG)
–
RVt (16)