1
INTRODUZIONE
“I believe there is no other proposition in economics which has more solid
empirical evidence supporting it than the Efficient Market Hypothesis.”
Jensen,1978
(Credo che nelle scienze economiche non esista nessun altra asserzione che ha
una più solida evidenza empirica, che le fa da supporto, dell’ Ipotesi di
Mercato Efficiente).
Jensen è rappresentante di un filone di studiosi che, negli anni ’60 e ’70, hanno
sottolineato il concetto di efficienza dei mercati finanziari. All’interno di questi
studi assume fondamentale importanza il concetto di informazione, essa sarà il
pilastro portante di uno dei padri della EMH, Eugene Fama(1966), ma anche di
una delle principali critiche alla suddetta ipotesi, come quella di Grossman e
Stiglitz(1980). Con l’ausilio della matematica e della statistica si è così
teorizzato qualcosa che già preesisteva nei lavori di Bachelier(1900) e nel
concetto di gioco equo. La teoria portante di questi autori, ed in particolare il
lavoro di Fama, per molti anni è stato in letteratura oggetto di forti critiche
oppure di completa accettazione. Questo elaborato nel primo capitolo analizza
uno dei principali lavori di Fama(1970), per poi enumerare anche alcune delle
critiche dei cosiddetti fautori dell’ipotesi di inefficienza dei mercati. Critiche
che hanno ruotato per molto tempo attorno all’ipotesi di Random Walk, la
quale ha dibattuto studiosi a causa della sua non totale evidenza empirica. Il
problema è da inquadrare più generalmente in quella che noi chiamiamo analisi
moderna delle serie storiche, ossia cercare di individuare il processo stocastico
che genera la serie storica stessa, tenendo conto però delle particolari
caratteristiche delle serie storiche finanziarie. Dopo aver inquadrato le
caratteristiche delle serie storiche finanziarie, vengono descritte due particolari
strategie che hanno caratterizzato l’attività di trading negli ultimi 20-30 anni:
2
l’arbitraggio statistico e l’arbitraggio legato agli eventi. Sebbene esista chi
critica queste strategie in quanto basate su relazioni spurie, questi sono stati i
primi passi verso il cosiddetto trading quantitativo e il trading algoritmo. Le
tecniche e le strategie più recenti si distaccano dalla teorica analisi
fondamentale, o dalla empirica analisi tecnica per accogliere nuove
metodologie che fanno uso di metodi statistici di elevato livello.
Il secondo capitolo dell’elaborato evidenzia proprio una di queste metodologie
sorta negli ultimi 20 anni: il Data Mining. Il Data Mining non nasce per essere
utilizzato nella previsione delle serie storiche finanziarie, ma è un processo ben
più ampio, dalla molteplice varietà di utilizzi, che trova fondamento soprattutto
in un contesto tecnologico decisamente moderno. Il problema della moltitudine
di dati, del loro storage e della capacità di trarre informazioni utili, viene posto
all’attenzione di studiosi, i quali danno vita ad una vera e propria disciplina.
Partendo dallo studio di Fayaad, Piatestsky-Shapiro e Smith (1996), vengono
descritti i punti salienti della disciplina, che si articola in un processo
metodologico ben definito e che trova i fondamenti non solo nella statistica,
ma anche nell’intelligenza artificiale. Infatti la locuzione Data Mining è spesso
associata all’applicazione su un set di dati di un algoritmo; questa fase, non
necessariamente la più importante, attinge proprio dall’intelligenza artificiale
alcune tecniche che ruotano intorno al concetto di apprendimento automatico.
Sono quindi analizzati i due tipi di apprendimento più comuni, ossia
l’apprendimento supervisionato e quello non supervisionato, ponendo una
maggiore attenzione su tecniche ad apprendimento supervisionato come le Reti
Neurali e l’algoritmo K-Nearest Neighbour, le quali saranno anche oggetto
della parte applicativa dell’elaborato.
Nel terzo capitolo viene invece descritto, in una maniera maggiormente
approfondita, uno dei processi ad apprendimento supervisionato che negli
ultimi sta ricevendo molte attenzioni per le sue particolari caratteristiche: le
Support Vector Machines. Il vasto background teorico fornito da Vapnik,
3
“padre” dell’algoritmo, rende le Support Vector Machines un algoritmo con
dei tratti salienti diversi dalle altre tecniche ad apprendimento supervisionato.
Si descrivono quindi i concetti focali, quali la dimensione VC e il principio di
minimizzazione del rischio strutturale, per poi passare ad una trattazione
dell’algoritmo in un linguaggio prettamente matematico. Nel tempo questa
tecnica ha avuto numerosi sviluppi, a causa soprattutto del problema di dover
analizzare dati complessi e contenenti rumore. In questo elaborato si prende di
mira il problema di classificazione tramite lo sviluppo di Support Vector
Machines lineari, non lineari e soft margin. L’algoritmo, oggetto di una
massimizzazione vincolata, può essere esteso infatti al caso di non separabilità
dei dati tramite l’utilizzo delle funzioni kernel, oppure si può dare la possibilità
di compiere errori di classificazione gestendo un opportuno parametro di
penalità. Infine si preannunciano i temi che verranno trattati nella sezione
applicativa sottolineando alcuni degli studi che hanno utilizzato questo
algoritmo per la previsione dei mercati finanziari. I lavori di Kim(2003) e
Yuang(2005), in particolare, fungono da base per sviluppare delle
considerazioni sulla accuratezza dei modelli implementati e sulla possibilità di
compiere dei paragoni con altre tecniche simili.
Nella seconda parte dell’elaborato si compie il percorso inverso: si parte
dall’utilizzo delle tecniche sopra menzionate per compiere infine delle
considerazioni sull’ipotesi di mercato efficiente e sulle conseguenze
dell’ipotesi di Random Walk.
Precisamente questa sezione è articolata in una veloce introduzione che fa da
screening all’oggetto dell’analisi. Oggetto di analisi che è composto dalle serie
storiche di ben 12 indici azionari europei, le quali vengono raccolte mediante
osservazioni giornaliere per un periodo di 6 anni (Gennaio 2006-Dicembre
2011). Bisogna già da questo momento sottolineare l’ausilio della piattaforma
R e delle relative estensioni sottoforma di packages: l’utilizzo del software
4
accompagna per l’intera applicazione il lavoro svolto. Tramite R viene fornita
una veloce analisi grafica delle 12 serie storiche per poi passare alla
costruzione dei database utilizzati per l’implementazione delle tecniche di Data
Mining. L’utilizzo delle tecniche analizzate nella sezione teorica è il punto
saliente dell’applicazione, il quale segue alla costruzione del database. Infatti,
una volta provveduto alla scelta delle variabili esplicative, basate soprattutto su
medie mobili e valori ritardati nel tempo, si può finalmente affrontare il
suddetto problema di classificazione. L’implementazione dei vari metodi è
possibile grazie a specifici packages di R che, senza eccessive difficoltà, danno
l’opportunità di calibrare i modelli in base alla scelta dei parametri. Si procede
quindi all’elaborazione dei risultati, forniti in termini di matrice di confusione,
dei vari algoritmi, ponendo l’attenzione sul confronto tra gli algoritmi stessi in
termini di performance. Sui dodici indici analizzati le Support Vector
Machines sovraperformano, in termini di hit ratio(57% circa), le Reti Neurali e
l’algoritmo K-Nearest Neighbour.
Infine si collegano i risultati a veri e propri investimenti caratterizzati da
posizioni lunghe e corte negli indici, continuando la trattazione in termini di
rendimenti. Il trading che nasce dai segnali forniti dal modello classificatore
viene quindi valutato per la sua bontà e comparato con la strategia di
Buy&Hold, conseguenza dell’ipotesi di Random Walk. L’elaborato si conclude
con i risultati forniti dalle simulazioni, significativa per compiere delle
considerazioni è la simulazione che vede le Support Vector Machines
implementare una strategia di trading che ha un rendimento medio del 19%,
sovraperformando di circa 3.4 punti percentuali la Buy&Hold.
Il tema analizzato risulta essere di grande attualità in quanto, nel momento in
cui si scrive, è ben noto l’importante contributo, forse eccessivo, della finanza
nell’economia. Finanza, in questo caso specifico, vuol significare soprattutto
cercare di ottenere una conoscenza maggiore dai mercati finanziari. E’ ben
5
noto quanto sia importante l’attività di trading all’interno delle istituzioni
finanziarie, e non solo. Per questo motivo si è voluto porre un accento su
questo tema, oggetto di numerose analisi a livello empirico e considerato
fondamentale ai giorni d’oggi.
6
CAPITOLO I
LA EFFICIENT MARKET HYPOTHESIS E LE SERIE
STORICHE FINANZIARIE
Sommario: 1. EMH: definizioni ed evidenze empiriche – 2. Le caratteristiche
delle serie storiche finanziarie – 3. Esempi di inefficienza dei mercati:
l’arbitraggio statistico e l’event arbitrage.
7
1. EMH: Definizione e evidenze empiriche
La definizione di Fama
1
di mercato efficiente rappresenta tuttora uno dei
capisaldi della teoria economica sebbene, negli scorsi decenni, da un lato
economisti che sottolineano la rilevanza della finanza comportamentale,
dall’altro econometristi che mettono in risalto la prevedibilità delle serie
storiche finanziarie, abbiano teorizzato e dimostrato come questa definizione
debba essere rivista o, quantomeno, si dovrebbe affermare che i mercati non
possono essere considerati efficienti.
Fama afferma che in un mercato efficiente i prezzi riflettono completamente
l’informazione disponibile in un dato momento. In termini scientifici, se si può
esprimere la condizione di equilibrio in termini di rendimenti attesi, e
considerare il rendimento atteso stesso come una funzione lineare del rischio
(Sharpe, 1964), avremo a livello notazionale che:
t j t t j t t j p O r E O p E , 1 , 1 , ) | ' ( 1 [ ) | ' (
Dove il prezzo p al tempo (t+1) è una variabile casuale, risultato della
capitalizzazione del prezzo p, al tempo t, al tasso di rendimento r
j,t+1
. Anche il
tasso di rendimento è una variabile casuale, condizionata ad O
t
che è
l’informazione disponibile al tempo t. L’informazione in t è quindi la variabile
determinante nella formazione del prezzo. La condizione di efficienza del
mercato risiede nel fatto che la differenza fra il rendimento effettivo e il
rendimento atteso (posto O
t
) sia una variabile casuale che ha valore atteso 0 :
) | ' ( 1 , 1 , 1 , t t j t j t j O r E r z dove 0 ) | ( 1 , t t j O z E .
Fama riconosce quindi che la sequenza delle variabili z
j,t
è un gioco equo
rispetto alla sequenza di informazione O, dove per gioco equo intendiamo un
processo stocastico il cui valore atteso condizionato all’informazione
disponibile è 0.
1
Fama, E. (1970) "Efficient Capital Markets: A Review of Theory and Empirical Work". Journal of
Finance 25 (2): 383–417.
8
Jensen
2
definisce la Efficient Market Hypothesis sottolineando proprio la
conseguenza dell’esistenza di un gioco equo: “un mercato è efficiente rispetto
ad un set di informazioni O
t
se è impossibile fare profitti economici
negoziando sulla base dell’informazione O
t
”. Infatti l’investitore potrà
incorrere in grandi guadagni o in grandi perdite “anormali” ma in media otterrà
0 profitti economici, intendendo per profitti economici il rendimento aggiustato
per il rischio al netto di tutti i costi.
Il modello che si avvicina di più alla definizione di gioco equo, introdotto da
Bachelier
3
e ripreso da una serie di autori (Kendall
(1953)
, Fama
(1965)
,
Samuelson
(1965)
), è il Random Walk. Se il prezzo corrente di un titolo già
riflette completamente l’informazione disponibile, significa che la variazione
del prezzo nel periodo successivo sarà indipendente dall’informazione al
tempo t :
) ( ) | ( 1 , 1 , t j t t j r f O r f
Questa equazione afferma che la distribuzione di probabilità condizionata e
quella marginale sono uguali implicando l’indipendenza del rendimento al
tempo t+1 dall’informazione al tempo t. Inoltre è assunto che i rendimenti
successivi sono identicamente distribuiti: l’indipendenza e quest’ultima
proprietà costituiscono l’ipotesi di Random Walk.
Uno dei primi test sull’ipotesi che i prezzi si comportano secondo un processo
di Random Walk è compiuto dallo stesso Fama. Il test di Fama consiste nel
verificare correlazioni seriali tra i rendimenti di titoli azionari (dell’indice Dow
Jones) in quanto, se le correlazioni sono significativamente uguali allo 0, vuol
dire che non si possono fare previsioni migliori del prezzo corrente, che già
riflette completamente le informazioni disponibili. Egli opera quindi una
trasformazione logaritmica ai prezzi e testa la correlazione tra la differenza dei
logaritmi dei prezzi su base giornaliera, su quattro giorni, nove giorni e sedici
2 Jensen, M.C.(1978) “Some Anomalous Evidence Regarding Market Efficiency” Journal of Financial
Economics, Vol. 6, Nos. 2/3.
3
Bachelier è stato il primo a parlare matematicamente di moto browniano e di random walk nella sua
tesi di dottorato Théorie de la spéculation(1900).
9
giorni. La scelta della trasformazione logaritmica e della successiva differenza
fra i logaritmi sta nel fatto che Fama calcola i rendimenti composti in
capitalizzazione continua che sono un’ottima approssimazione dei rendimenti
calcolati come variazione relativa di prezzo.
I risultati del test mostrano che raramente è possibile trovare una correlazione
significativa nei rendimenti dei titoli azionari e, secondo Fama, seppur fosse
possibile trovare una correlazione bassa non sarebbe possibile sfruttarla e
quindi deve essere considerata non significativa da un punto di vista
economico.
Infatti se non considerassimo i costi di transazione, probabilmente potrebbero
essere validate delle strategie di trading che, attraverso una serie di regole che
indicano i momenti giusti per comprare e vendere un titolo,
sovraperformerebbero la strategia simbolo dell’ipotesi di mercato efficiente,
ossia la Buy and Hold
4
. Se non possiamo aggiungere e prevedere nulla in più
rispetto al prezzo corrente, non possiamo ricavare informazioni dal passato
perché il prezzo corrente già ingloba tutte le informazioni disponibili e non
possiamo ottenere rendimenti maggiori di una strategia che non prevede
movimentazioni di portafoglio. L’ipotesi di Random Walk quindi si configura
nel concetto che è stato definito da Fama (1965) di “efficienza debole dei
mercati” dove non è possibile ottenere maggiori informazioni dall’analisi del
passato e quindi delle serie storiche dei prezzi di un titolo azionario e più in
genere di un’attività finanziaria.
Bisogna, però, dire che Fama già evidenzia un problema fondamentale: è vero
che probabilmente alcune correlazioni seriali non possono essere sfruttate, ma
in ogni caso l’ipotesi di Random Walk non risulta essere valida almeno per
quanto riguarda una piccola, ma comunque significativa, parte. La non validità
dell’ipotesi di Random Walk è stato oggetto di numerosi studi che
sottolineano, attraverso una serie di test statistici che, sebbene non si possa
4
La strategia di “Buy and Hold” è una strategia di lungo termine passiva dove non vi è interesse
riguardo le fluttuazioni di breve termine; il ciò implica una bassa rotazione dei titoli in portafoglio.
10
parlare ancora di inefficienza dei mercati, sicuramente non possiamo dire che
la formazione dei prezzi avvenga tramite un processo Random Walk.
Uno dei principali studi è quello di Lo e MacKinley
5
, i quali sottolineano di
trovare correlazioni seriali positive al primo ordine statisticamente significative
applicando dei test robusti sia nell’ipotesi di omoschedasticità dei disturbi
casuali che nell’ipotesi di eteroschedasticità. Il test di questi due autori si basa
sul concetto che se i prezzi sono generati da un Random Walk (possibilmente
con drift) allora, ad esempio, la varianza campionaria mensile dei rendimenti
deve essere 4 volte maggiore della varianza campionaria settimanale.
Infatti possiamo definire un processo Random Walk come:
t t t X a X 1
Dove a è un drift arbitrario e
t
è uno shock casuale al tempo t. I test degli
autori si riferiscono sia nel caso in cui
t
si distribuisca con media 0 e varianza
costante (è un processo White Noise), sia nel caso in cui la varianza non sia
costante ma cambi in quanto le variabili
t
non sono identicamente distribuite
secondo una distribuzione Gaussiana.
Quindi la proprietà
6
che viene sfruttata per specificare il test è che la varianza
di X
t
-X
t-2
è il doppio della varianza di X
t
-X
t-1
. Nel caso in cui l’ipotesi venga
accettata, allora si può parlare di Random Walk, altrimenti dobbiamo rifiutare
l’ipotesi iniziale.
Il test è compiuto su un arco temporale di ben 23 anni (1216 settimane)
utilizzando serie storiche settimanali dell’indice NYSE (New York Stock
Exchange): l’utilizzo di questo intervallo temporale, secondo gli autori, è
dovuto al fatto che i dati giornalieri vengono distorti da fenomeni legati alla
microstruttura del mercato come il bid-ask spread, oppure il trading poco
frequente di alcuni titoli.
5
Lo, A.W. & MacKinley A.C. (1999) A Non-Random Walk Down Wall Street, Princeton, Princeton
University Press.
6
Se poniamo il drift uguale a 0 e le variabili casuali del processo sono i logaritmi dei prezzi , avremo
che X
t
=X
t-1
+ε
t.
da cui Xt-Xt
-1
=ε
t
. Essendo ε
t
. un processo stocastico White Noise con media 0 e
varianza costante, la varianza sarà proporzionale al tempo.
11
I risultati del test sono tutti a favore di un rifiuto dell’ipotesi di Random Walk a
livelli comuni di significatività
7
. Se vengono analizzati i rendimenti dei singoli
titoli appartenenti all’indice, le correlazioni positive scompaiono diventando
addirittura negative anche se significativamente uguali a 0. Il che, secondo gli
autori, non è sorprendente perché vi è presenza di rumore legato alla
microstruttura del mercato che rende difficile individuare componenti
prevedibili.
Secondo Lo e McKinley l’ipotesi di Random Walk, e quindi di non
prevedibilità dei prezzi, non è una condizione necessaria affinché i mercati
siano efficienti, così come l’ipotesi di efficienza dei mercati non prevede che i
prezzi non debbano essere necessariamente non prevedibili. Il concetto di
efficienza dei mercati si configura come un concetto più ampio che può essere
testato in una serie di modi: riprendendo la definizione di Jensen
considereremo un mercato non efficiente quello in cui un soggetto può
guadagnare sistematicamente di più del rendimento aggiustato per il rischio al
netto di tutti i costi. Il che equivale a dire che se il mercato è efficiente, non c’è
modo di usare l’informazione per aumentare la ricchezza attesa attraverso delle
operazioni di trading frequenti o quantomeno diverse dalla suddetta strategia di
Buy and Hold.
Inefficienze potrebbero esistere nel momento in cui il processo informativo
non avviene in maniera omogenea, Grossman e Stiglitz (1980) trattano questo
quando sottolineano che chi “spende” di più per ottenere informazioni deve
essere ricompensato maggiormente, altrimenti l’intero mercato collasserebbe.
Questo spiegherebbe anche il motivo dell’esistenza di una serie di soggetti che
cercano continuamente di ottenere maggiori informazioni rispetto agli altri
investitori. Se da un lato in numerosi studi viene sottolineato come fondi di
investimento che attuano strategie attive non riescono a sovraperformare altri
7
Il livello di significatività adottato in questo e nella maggior parte dei testi è α=5%, dove α è la
probabilità dell’errore del primo tipo, ossia vi è il 5% di probabilità che stiamo rifiutando ciò che è
vero.