3
Introduzione.
La graduale integrazione delle politiche economiche attuate nei paesi
industrializzati e la contestuale liberalizzazione dei movimenti dei capitali
portano inevitabilmente a scaricare sul sistema finanziario una buona parte
delle anomalie che in certe situazioni interessano i rapporti economici
internazionali. Ad esempio si può pensare all’effetto sinergico generato dal
naturale riposizionamento dei creditori comuni dopo uno shock negativo
particolarmente importante su un certo mercato e dalla rilevanza del
contenuto informativo di tale evento per le successive analisi di rischio, ma
in generale si può far riferimento a tutti quei meccanismi che, poichØ
provocano delle alterazioni nei legami di interdipendenza preesistenti,
possono intaccare l’affidabilità delle previsioni fornite da un qualsiasi
modello econometrico costruito in precedenza. I dati finanziari
rappresentano comunque un campo di osservazione privilegiato per
individuare empiricamente questo tipo di fenomeni macroeconomici, e
poichØ non considerano molte delle fluttuazioni dovute alle imperfezioni
dei mercati, le volatilità dei rendimenti settimanali o mensili possono
riuscire a sintetizzare, in un certo senso, anche lo stato delle fondamentali
macroeconomiche.
Le caratteristiche distributive attribuite in letteratura ai rendimenti
delle attività finanziarie hanno ispirato nel tempo numerose delle varianti
comprese nella classe dei modelli ARCH, inizialmente introdotti da Engle
(1982), e l’estrema parsimoniosità dei modelli GARCH(1,1), dovuti invece
a Bollerslev (1986), rende questo particolare tipo di specificazioni un
ottimo punto di partenza per le analisi di una qualsiasi serie storica di dati
di tal genere. Nel primo capitolo della presente dissertazione si è perciò
deciso di riassumere brevemente le proprietà di quelli che tra i modelli
della classe ARCH possono essere considerati i più interessanti dal punto di
vista delle analisi finanziarie, e di delineare anche quelle tecniche per il
trattamento dell’eteroschedasticità condizionata che sono appunto fondate
sull’utilizzo di questo tipo di modelli. Nel secondo capitolo si introducono
invece alcune delle diverse tematiche legate a tutti quei fenomeni che
secondo la letteratura economica e finanziaria possono essere compresi nel
termine “contagio”, prestando particolare attenzione soprattutto al
4
problema della verifica empirica dell’effettiva presenza di questo tipo di
anomalie. La medesima ipotesi è valutata nei successivi capitoli terzo e
quarto su un insieme di dati reali adottando come definizione di contagio lo
spillover sui rendimenti mensili delle dinamiche osservate su un unico
mercato di riferimento fissato a priori secondo criteri di comodo. Nei
modelli bivariati costruiti sulla base dell’ipotesi di questa relazione di
dipendenza sono state introdotte delle variabili dummy in corrispondenza
di ciascuno shock negativo individuato sul mercato benchmark, in modo da
poter dunque verificare l’assenza di fenomeni di contagio semplicemente
controllando la significatività delle stime ottenute per i rispettivi
coefficienti.
La suddivisione dell’analisi empirica su due distinti capitoli è da
ricondurre invece alla difformità esistente tra il modello teorizzato e le
possibilità pratiche offerte dalle sole funzioni effettivamente incluse nel
software adottato: i modelli ad aggregazione degli errori come quello
descritto da Engle, Ito e Lin (1990), richiedono infatti di poter stimare una
regressione con disturbi GARCH, in cui il termine di errore della variabile
indipendente possa essere compreso in entrambe le equazioni, sia quella
per il valore atteso che quella per la varianza condizionata, e sebbene le
potenzialità del linguaggio di programmazione del software econometrico
open-source GRETL di Cottrell e Lucchetti (2000-2008) possano in parte
abbattere i limiti imposti dai comandi inclusi nel pacchetto applicativo
fornito con la versione 1.7.5, alcuni problemi di ordine tecnico legati alla
rigidità richiesta nell’organizzazione delle funzioni avrebbero comunque
influenzato la complessità di un tale algoritmo. I coefficienti per la
valutazione degli spillover possono però essere stimati ricorrendo soltanto
ai comandi inclusi in GRETL secondo una procedura strutturata in due fasi
(il terzo capitolo è dedicato alle applicazioni preliminari per il trattamento
dell’eteroschedasticità basate sulla usuale rappresentazione della volatilità
prevista dai modelli GARCH, mentre la valutazione diretta dei
comovimenti in volatilità trova spazio solo nel quarto capitolo), e
potenzialmente tanto più utile quanto più complessa potrebbe risultare la
programmazione di un modello teorico di dimensioni maggiori.
5
Capitolo Primo: I Modelli ARCH e GARCH nelle Analisi Finanziarie.
1.1: Volatilità e Leptocurtosi.
Buona parte delle misure di incertezza più rilevanti nelle teorie
economiche moderne sono statisticamente traducibili in termini di
momenti condizionati del secondo ordine: nonostante esistano in
letteratura svariati metodi di misurazione delle loro variazioni temporali, le
componenti di eteroschedasticità che spesso si presentano nelle analisi delle
serie storiche macroeconomiche e finanziarie, anche nel contesto di una
matrice di varianze e covarianze costante nel tempo, possono essere prese
in considerazione servendosi più in particolare di modelli appartenenti alla
classe ARCH (acronimo per AutoRegressive Conditional Heteroscedastic,
Engle, 1982). Storicamente la prima applicazione empirica dei modelli
della classe ARCH riguardò il fenomeno dell’inflazione nel Regno Unito,
ma la loro capacità di cogliere la dipendenza seriale della volatilità
(volatility clustering), da tempo ritenuta una delle regolarità empiriche
salienti nei rendimenti delle attività finanziarie (Mandelbrot, 1963), ha
gradualmente portato tali specificazioni a diventare uno strumento molto
diffuso soprattutto nell’ambito delle analisi di rischio, delle scelte di
portafoglio e della derivazione dei prezzi, in cui l’elevata eteroschedasticità
dei dati non è altrettanto controllabile tramite le usuali procedure dei
minimi quadrati. L’adozione di una metodologia black-box, tuttavia,
nonostante permetta sempre di descrivere e di prevedere i dati in modo
molto semplice, sarebbe comunque controproducente nel caso in cui invece
si volesse affrontare anche una loro analisi esplicativa: d’altra parte, una
scelta di questo tipo può sicuramente trovare una sua giustificazione
nell’obiettivo della presente dissertazione così come nell’estrema
complessità del fenomeno da indagare.
L’assunzione fondamentale che è alla base della costruzione di un
qualsiasi modello della classe ARCH riguarda la possibilità di poter
migliorare la previsione introducendo ulteriori informazioni sulle
osservazioni più recenti nella stima di una varianza condizionata, mentre la
6
specificazione nel modello di alcune ipotesi aggiuntive sulla forma della
dipendenza di tale parametro dagli eventi passati permetterebbe inoltre di
calcolarne la funzione di autocorrelazione. Formalmente si può associare
un modello della classe ARCH al generico processo stocastico scalare a
tempo discreto {ε
t
(θ˛ Θ)}, dove Θ˝´ m
, se indicando con θ
0
il vero valore
del parametro θ, sono rispettate le due seguenti condizioni (Bollerslev,
Engle, Nelson, 1994):
ad ogni istante t, il suo valore atteso condizionato dalla storia passata
del processo e dall’informazione disponibile al tempo t-1, è nullo:
E(ε
t
(θ
0
)|` t-1
)=0 " t;
ad ogni istante t, la sua varianza condizionata dipende in modo non
banale dalla sigma-algebra generata dalle osservazioni passate:
σ
2
t
(θ
0
)≡Var(ε
t
(θ
0
)|` t-1
)=E(ε
t
2
(θ
0
)|` t-1
)=h(` t-1
;θ
0
) " t.
Tale definizione può essere estesa anche al processo {ε
t
} che rappresenta
l’innovazione in un modello più complesso {y
t
}, e più precisamente,
l’ipotesi di indipendenza di tale errore dalla storia passata del processo,
completamente nota, permetterebbe di avvalersi in questi casi di una
relazione additiva y
t
=μ
t
(θ
0
)+ε
t
(θ
0
), in cui il termine μ
t
indica il valore atteso
condizionato, ed ε
t
descrive una componente stocastica la cui varianza
condizionata σ
2
t
caratterizza anche il processo {y
t
}.
Considerando innovazioni di tipo ARCH, da queste si può ottenere
facilmente un processo {z
t
} a media condizionata nulla e a varianza
condizionata unitaria e costante nel tempo, standardizzando rispetto alla
varianza condizionata:
z
t
(θ
0
)≡ε
t
(θ
0
)·σ
2
t
(θ
0
)
-1/2
.
Supponendo, per semplicità, che la distribuzione condizionata del processo
standardizzato {z
t
} sia invariante nel tempo, se esiste finito il momento
quarto di tale distribuzione allora la disuguaglianza di Jensen assicura che:
E(ε
t
4
) = E(z
t
4
)·E(σ
t
4
) = E(z
t
4
)·E((σ
2
t
)
2
) ≥ E(z
t
4
)·E(σ
2
t
)
2
= E(ε
t
2
)
2
" t.
Tale disuguaglianza ci dice in particolare che, se le innovazioni
standardizzate si comportano come un processo gaussiano, e cioè se si
assume che z
t
(θ
0
)~ N(0,1) " t, allora la distribuzione non condizionata di ε
t
deve necessariamente essere una distribuzione leptocurtica perchØ risulta
caratterizzata da code più alte di quelle della corrispondente distribuzione
7
normale: di conseguenza, quando σ
2
t
non è costante nel tempo, e la
disuguaglianza di Jensen vale perciò in senso stretto, la curtosi in eccesso
nella distribuzione non condizionata delle innovazioni sarebbe quindi da
imputare proprio alla presenza di questa componente di eteroschedasticità
condizionata nel processo {ε
t
}, ma poichØ è notevole che invece rispetto
alle distribuzioni condizionate il tipo di standardizzazione appena
introdotto non può in alcun modo incidere sull’indice di curtosi in
questione per via della validità, in tale contesto, dell’equivalenza
κ(ε
t
)≡E(ε
t
4
)/E(ε
t
2
)
2
=E(z
t
4
)/E(z
t
2
)
2
=E(z
t
4
) " t, andrebbe sempre considerata
l’eventualità che anche la leptocurtosi nella distribuzione condizionata di z
t
possa essersi trasferita, attraverso le innovazioni condizionate, sulla
distribuzione di ε
t
. La possibilità di collegare la leptocurtosi nei dati alla
dipendenza seriale della volatilità attraverso una standardizzazione della
serie dei residui proprio rispetto a σ
2
t
, in alcuni casi senza avere neanche la
necessità di specificare una particolare distribuzione che sia caratterizzata
da un determinato indice di curtosi κ, può quindi essere ampiamente
sfruttata anche nell’ambito di altre tipologie di modelli per l’analisi della
varianza condizionata, nonostante l’utilità di tale approccio sia però
evidente soprattutto per quanto riguarda i rendimenti finanziari, la cui
leptocurtosi è da tempo nota e documentata (vedi ad esempio Mandelbrot,
1963, e Fama, 1965).
1.2: Componenti ARCH Stazionarie.
Tra le due condizioni utilizzate nel definire i processi ARCH,
un’osservazione importante riguarda l’ipotesi per cui σ
2
t
è noto, ad ogni
istante temporale successivo al tempo t-1, se si conosce completamente la
storia passata del processo {ε
t
}. Ciò implica, infatti, l’indipendenza della
varianza condizionata da z
t+k
" k≥0, e nel caso particolare in cui {z
t
} fosse
un processo i.i.d., si avrebbero dunque innovazioni non autocorrelate:
γ
t
(k) ≡ Corr(ε
t
,ε
t-k
) ≡ E(ε
t
·ε
t-k
) = E(σ
t
·z
t
·σ
t-k
·z
t-k
) =
= E(z
t
) · E(σ
t
·σ
t-k
·z
t-k
) = 0 " k≥0.
8
Sotto l’ipotesi per cui {z
t
}~ i.i.d., se E(ε
t
2
) esiste finito ed è costante nel
tempo, le innovazioni {ε
t
}~ ARCH sono quindi un processo white-noise,
cioè sono incorrelate, a media nulla, e a varianza finita e costante, ma non
sono necessariamente indipendenti tra loro: di conseguenza, le
specificazioni ARCH stazionarie in covarianza possono essere utilizzate in
modo adeguato nel descrivere la componente di varianza condizionata
nell’ambito di un modello più complesso, ma soltanto nei casi in cui la
dipendenza lineare tra i residui può essere considerata assente.
Volendo associare a σ
2
t
una media ponderata basata sulle
informazioni disponibili e sulla loro importanza, si può postulare che la
varianza condizionata, al tempo t, sia una funzione lineare delle precedenti
p innovazioni quadratiche, in modo cioè che i parametri del modello
possano riflettere quindi gli effetti di ciascuna delle osservazioni passate su
tale parametro. La relazione temporale di cui si parla può essere espressa in
forma compatta utilizzando nella notazione un polinomio lineare
nell’operatore ritardo L (per definizione vale che L
i
·x
t
=x
t-i
):
σ
2
t
= w + Σ
i˛ {1..p}
[a i
·ε
t-i
2
] = w + Σ
i˛ {1..p}
[a i
·L
i
·ε
t
2
] ≡ w + a (L)
p
·ε
t-1
2
.
É comunque necessario che la varianza condizionata sia strettamente
positiva, e a questo scopo può essere utile avvalersi nella specificazione del
modello di una nota condizione, sufficiente per σ
2
t
>0, data da un insieme di
vincoli di positività, molto semplici, da imporre ai parametri da stimare:
w >0;
a i
≥0 " i˛ {1..p}.
Osservando l’espressione formale che quindi definisce nella pratica un
modello ARCH, se ne può perciò dedurre la non linearità:
ε
t
= z
t
·σ
t
= z
t
· [w +a (L)
p
·ε
t-1
2
]
1/2
" t;
{z
t
}~ i.i.d.;
w >0; a i
≥0 " i˛ {1..p}.
Inoltre, poichØ σ
2
t
può essere comunque interpretato come un previsore di
ε
t
2
, semplicemente considerando i residui ν
t
≡ε
t
2
-σ
2
t
=(z
t
2
-1)·σ
2
t
si può
dimostrare che una qualsiasi rappresentazione ARCH(p) per {ε
t
} implica
necessariamente che {ε
t
2
}~ AR(p):
ε
t
2
= w + a (L)
p
·ε
t-1
2
+ ν
t
.
9
I residui della previsione sarebbero infatti serialmente incorrelati e a media,
condizionata e non condizionata, nulla, proprio perchØ deve risultare che
{z
t
}~ i.i.d., e la corrispondenza formale si avrebbe quindi nei casi in cui la
varianza non condizionata dei residui appena ottenuti esiste finita ed è
costante. Di conseguenza, sotto l’ipotesi che {ν
t
}~ WN, condizionatamente
eteroschedastico, si avrebbe l’opportunità di sfruttare il fatto che la
stazionarietà in covarianza per {ε
t
2
}~ AR(p) implica la medesima proprietà
anche per le innovazioni {ε
t
}~ ARCH(p):
condizione di stazionarietà in covarianza: un processo {ε
t
}~ ARCH(p)
è stazionario in covarianza se e solo se $a (L)
p
-1
, cioè se e solo se le
radici della corrispondente equazione caratteristica (1-Σ
i˛ {1..p}
[a i
·x
i
]=0)
sono tutte esterne al cerchio immaginario di raggio unitario: |x
j
|>1 " j;
sotto tale condizione la varianza non condizionata del processo {ε
t
} può
essere ottenuta ricorrendo alla sua rappresentazione equivalente come
processo {ε
t
2
}~ AR(p) e alla corrispondente formula per il valore atteso:
E(ε
t
2
)=w /(1-Σ
i˛ {1..p}
a i
)≡w /(1-a (1)
p
) " t.
Per ottenere un processo {ε
t
}~ ARCH(p) stazionario in covarianza
nell’ambito della già citata condizione sufficiente per σ
2
t
>0, è dunque
necessario e sufficiente imporre un valore strettamente positivo anche al
denominatore di E(ε
t
2
):
a (1)
p
<1.
Le caratteristiche teoriche dei processi ARCH, tuttavia, non possono essere
sfruttate pienamente nelle applicazioni empiriche perchØ spesso la
lunghezza del ritardo per cui una data osservazione ha un effetto sulla
varianza condizionata può portare alla proliferazione dei parametri del
modello. Per ovviare a questo inconveniente è però possibile utilizzare una
rappresentazione approssimativa del processo che possa essere
caratterizzata da un numero ridotto di parametri da stimare: ricorrendo ad
esempio ai modelli ARCH generalizzati, meglio noti come modelli
GARCH (Generalized AutoRegressive Conditional Heteroscedastic,
Bollerslev, 1986), le osservazioni meno recenti possono essere incluse
ricorsivamente nella relazione che lega la varianza condizionata alla storia
passata del processo, semplicemente attuando una riparametrizzazione del
modello per σ
t
rispetto anche ai suoi valori passati. Più precisamente,
10
seguendo tale approccio, la varianza condizionata può essere approssimata
considerando la funzione:
σ
2
t
= w +Σ
i˛ {1..p}
[a i
·ε
t-i
2
]+Σ
j˛ {1..q}
[β
j
·σ
2
t-j
] ≡ w +a (L)
p
·ε
t-1
2
+β(L)
q
·σ
2
t-1
.
Per imporre la positività stretta si può ricorrere ad una condizione
sufficiente per σ
2
t
>0 data in questo caso (Nelson e Cao, 1992) dal
contemporaneo verificarsi di:
w >0;
a i
≥0 " i˛ {1..p};
β
j
≥0 " j˛ {1..q}.
Applicando tali vincoli ai parametri, una condizione necessaria e
sufficiente per la stazionarietà in covarianza del processo
{ε
t
}~ GARCH(p,q) è che:
[a (1)
m
+β(1)
m
] < 1.
Ciò deriva dall’osservazione che, poichØ i modelli GARCH possono essere
visti come rappresentazioni parsimoniose di un modello ARCH(∞), sotto
l’ipotesi che {z
t
}~ i.i.d. esiste una corrispondenza formale tra il processo
{ε
t
}~ GARCH(p,q) ed il processo {ε
t
2
}~ ARMA(m≡max{p,q},q):
ε
t
2
= w + a (L)
p
·ε
t-1
2
+ β(L)
q
·(ε
t-1
2
-ν
t-1
) + ν
t
=
= w + [a (L)
p
+β(L)
q
]·ε
t-1
2
+ ν
t
- β(L)
q
·ν
t-1
.
Tale implicazione, che si verifica ancora nei casi in cui i residui {ν
t
} sono a
varianza non condizionata finita e costante, permette di derivare la
seguente:
condizione di stazionarietà in covarianza: un processo
{ε
t
}~ GARCH(p,q) è stazionario in covarianza se e solo se
$ [a (L)
p
+β(L)
q
]
-1
, cioè se e solo, introducendo formalmente i |p-q|
parametri mancanti e ponendoli tutti uguali a zero, le radici
dell’equazione caratteristica (1-Σ
i˛ {1..m}
[(a i
+β
i
)·x
i
]=0) sono tutte esterne
al cerchio immaginario di raggio unitario: |x
j
|>1 " j; sotto tale
condizione la varianza non condizionata del processo {ε
t
} può essere
ottenuta ricorrendo alla sua rappresentazione equivalente come processo
{ε
t
2
}~ ARMA(m,q) e alla corrispondente formula per il valore atteso:
E(ε
t
2
)=w /(1-Σ
i˛ {1..m}
[a i
+β
i
])≡w /(1-[a (1)
m
+β(1)
m
]) " t.
Perciò, applicando i già esposti vincoli di varianza strettamente positiva, se
la somma di tutti i parametri del modello GARCH specificato, esclusa
11
comunque la costante w , risulta strettamente minore all’unità, allora la
varianza non condizionata di {ε
t
} deve necessariamente esistere finita, e per
via dell’assunzione di parametri costanti nel tempo, tali condizioni sono
anche sufficienti. Soprattutto quando si analizzano dati finanziari ad alta
frequenza di campionamento specificandone le componenti di
eteroschedasticità condizionata con un modello di tipo GARCH, può però
accadere che la stima della sommatoria [a (1)
m
+β(1)
m
] sia troppo vicina
all’unità: di conseguenza, mentre la varianza non condizionata risulterebbe
comunque abbastanza elevata per via di un denominatore quasi nullo, la
presenza di almeno una radice unitaria nel polinomio autoregressivo
rispecchierebbe inoltre una teoria di persistenza degli shock su {σ
2
t
}. Per
evitare che ad ogni nuova osservazione sia necessaria una revisione delle
previsioni della varianza condizionata ad ogni orizzonte futuro, e per
ridurne anche la variabilità non condizionata, sarebbe perciò consigliabile
in questi casi il ricorso ai modelli GARCH integrati, anche noti come
modelli IGARCH (Integrated GARCH, Engle e Bollerslev, 1986),
ottenendoli semplicemente considerando l’ulteriore restrizione:
a (1)
m
+ β(1)
m
= 1.
Tale tipo di specificazione riesce a catturare la presenza della componente
di non stazionarietà in covarianza nella forma di un processo integrato per
l’eteroschedasticità condizionata, e più in particolare, considerando ad
esempio un modello GARCH(1,1), la radice unitaria nell’equazione
caratteristica porterebbe, di fatto, all’implicazione di un processo
{ε
t
2
}~ I(1), stazionario nelle differenze prime, la cui componente stocastica
sarebbe data ancora da un processo condizionatamente eteroschedastico del
tipo white-noise.
1.3: Verifica della Presenza di Eteroschedasticità Condizionata.
Esistono svariati metodi che si propongono di accertare l’effettiva
esistenza di componenti di eteroschedasticità condizionata nel processo
generatore dei dati, e tra questi il più noto è riconducibile all’utilizzo dei
moltiplicatori di Lagrange nella costruzione, appunto, di un test LM per il
12
controllo della significatività di almeno uno tra tutti i p parametri ARCH
considerati nel modello per {ε
t
}, escludendo da tale verifica il termine
d’intercetta w (Engle, 1982). La disponibilità delle stime di massima
verosimiglianza per il modello che incorpora gli effetti di eteroschedasticità
condizionata, specificato sotto l’ipotesi alternativa, renderebbe inoltre
possibile il calcolo numerico di un test di Wald, mentre l’applicazione di un
test del rapporto di verosimiglianza, nonostante rappresenti spesso una
soluzione molto potente, può comunque risultare difficoltosa soprattutto
per quanto riguarda la conoscenza della distribuzione della statistica test in
questione sotto l’ipotesi nulla.
Il test LM di Engle si basa fondamentalmente sul calcolo dell’indice
di determinazione lineare R
2
di una regressione lineare degli ultimi T
termini del processo {ε
t
2
}, su una costante c e sui valori ritardati
corrispondenti alle p osservazioni precedenti del medesimo processo, cioè
sulle variabili {c, ε
t-1
2
, ε
t-2
2
, .., ε
t-p
2
}, ed è utilizzabile nei confronti di un
qualsiasi processo {ε
t
}~ WN così come di una serie di residui quadratici
stimati da un eventuale modello più complesso, solamente nei casi in cui la
distribuzione condizionata del processo da valutare risulti essere anche
gaussiana: se, ad esempio, il processo {y
t
} potesse essere approssimato
sotto l’ipotesi nulla con un modello lineare costruito su un insieme di
regressori strettamente esogeni e di variabili dipendenti ritardate, sarebbe
infatti possibile ottenere il vettore dei parametri β, e quindi anche la serie
dei residui ε
t
, avvalendosi delle stime OLS calcolate su un campione di T+p
unità statistiche, o equivalentemente ricorrendo ancora alle stime ML. In
breve, la prova consiste nel considerare una particolare proprietà di
convergenza che è valida nei casi in cui è rispettata H
0
: a i
=0 " i˛ {1..p}:
T·R
2
→ χ
2
(p)
in distribuzione.
Allo stesso modo si può formulare un test F per la verifica della
significatività dei parametri del modello ARCH specificato per le
innovazioni {ε
t
}, sfruttando ancora la regressione ausiliaria da cui è stato
ottenuto R
2
, basandosi su un’altra delle convergenze che sussistono sotto
l’ipotesi nulla di non significatività di tali parametri:
F ≡ (R
2
/p)/[(1-R
2
)/(T-(p+1))] → F
(p, T-p-1)
in distribuzione.