4
propone il metodo per la valutazione delle attività finanziarie attraverso la regola del valore attuale
mettendo le basi per il dividend discount model (DDM).
Successivamente un grande contributo per lo sviluppo della teoria finanziaria moderna è stato
fornito da Harry Markowitz nel 1952 attraverso la pubblicazione dell‟articolo “Portfolio Selection”.
Markowitz concentrando la sua attenzione sulla comune pratica della diversificazione di portafoglio
dimostrò come fosse possibile ridurre lo scarto quadratico medio dei rendimenti del portafoglio
scegliendo azioni che hanno andamenti non perfettamente correlati. Il contributo di Harry
Markowitz non si fermò a questo punto ma si spinse oltre fino a formulare i principi base della
costruzione di un portafoglio e della relazione fra rischio e rendimento.
Il principio base che governa la teoria di Markowitz è che al fine di costruire un portafoglio
efficiente occorre individuare una combinazione di titoli tale da minimizzare il rischio e
massimizzare il rendimento complessivo compensando gli andamenti asincroni dei singoli titoli.
Per far sì che ciò accada, i titoli che compongono il portafoglio dovranno essere incorrelati o,
meglio, non perfettamente correlati. A questa importantissima conclusione è giunto postulando
l‟avversione al rischio e la ricerca della massimizzazione della ricchezza da parte degli investitori,
la scelta di un orizzonte temporale uni periodale, l‟ipotesi di mercato perfetto e perfettamente
concorrenziale, e infine considerando come unici parametri di scelta di investimento il valore atteso
e la deviazione standard.
Partendo dall‟idea di Markowitz, James Tobin contribuì a un notevole perfezionamento della teoria
attraverso un articolo pubblicato nel 1958 dal titolo “ Liquidity Preferences as Behaviour Towards
Risk”. I concetti che egli descrisse in questo articolo sono conosciuti come “Teorema di
Separazione” nel quale, a differenza di Markowitz, combina i titoli rischiosi con le attività prive di
rischio facendo grossi passi avanti nella definizione della frontiera efficiente su cui si fonderanno i
modelli successivi.
Sviluppando gli studi di Markowitz e Tobin nel 1964 William Sharpe, seguito indipendentemente
anche da Lintner nel 1965 e Mossin nel 1966, propose il primo modello di equilibrio dei mercati
finanziari: il Capital Asset Pricing Model (CAPM). Questo modello stabilisce una relazione tra il
rendimento del titolo e la sua rischiosità, misurata tramite un unico fattore di rischio, detto beta del
titolo. Il beta misura quanto il valore del titolo si muova in sintonia col mercato. La definizione di
questa legge, resa possibile mediante l‟inserimento di nuovi assunti rispetto a quelli di Markowitz
dati dall‟omogeneità delle aspettative e dalla presenza di un‟attività priva di rischi, segna di fatto la
nascita della teoria dell‟asset pricing.
Questo modello ha avuto una rapida diffusione e gode tuttora di grande popolarità specialmente in
ambito non accademico. Ciò è dovuto alla sua semplicità e al fatto che attraverso pochi ed intuitivi
passaggi è in grado di spiegare le modalità di misurazione del rischio e la relazione intercorrente
tra il rendimento atteso e il rischio stesso che si traduce in una sorta di trade off.
5
Il CAPM è stato sottoposto subito a delle verifiche empiriche che ne hanno immediatamente
messo in dubbio la veridicità. Infatti, numerose delle ipotesi stringenti e delle assunzioni formulate
per garantirne la validità si sono rivelate incompatibili con la realtà. I primi test effettuati sui fondi
comuni di investimento (Sharpe 1965 e Jensen 1967), pur evidenziando la relazione lineare tra
rischio e rendimento, ne hanno messo in luce le prime debolezze. Un‟importante critica al modello
è quella proposta da Roll nel 1977 il quale argomenta che il CAPM non possa essere oggetto di
verifica empirica in quanto non è possibile definire correttamente il vero portafoglio di mercato che
dovrebbe contenere, in linea di principio, non solo le attività finanziarie, ma anche tutti i beni
durevoli come gli immobili e il capitale umano. I test standard superano la difficoltà di reperire dati
sul portafoglio di mercato ricorrendo a sue proxy (ossia a indici il cui rendimento dovrebbe essere
fortemente legato a quel portafoglio di mercato) quali ampi indici dei mercati finanziari. Un test del
CAPM si tradurrebbe di fatto in un test sull'appartenenza alla frontiera efficiente della particolare
proxy del portafoglio di mercato utilizzata. Per questo motivo secondo Roll il CAPM non può
essere sottoposto a verifica empirica.
Per superare le prime difficoltà si sono susseguite numerose formulazioni alternative che si sono
focalizzate rispettivamente sull‟eliminazione di talune ipotesi, cercando in questo modo di
identificare situazioni che si caratterizzassero per una maggiore aderenza al mondo reale.
Nel 1972 Fisher Black attraverso la pubblicazione dell‟articolo “Capital Market Equilibrium with
Restricted Borrowing” propone una nuova relazione di equilibrio conosciuta come modello “a due
fattori” o CAPM “Zero Beta” che si caratterizza per l‟abolizione dell‟ipotesi chiaramente irrealistica
della possibilità di dare e prendere a prestito senza limiti al medesimo tasso privo di rischio. Il titolo
risk-free viene pertanto sostituito da una generica attività o portafoglio (Rz) che risulti non correlato
col portafoglio di mercato.
Ovviamente anche questa relazione viene immediatamente sottoposta a verifica empirica e sia i
test di Black, Jensen e Scholes del 1972, sia quelli di Fama e Macbeth del 1973 (attraverso il
metodo econometrico della regressione a due stadi, da loro inventato e diventato un riferimento
per le successive verifiche) hanno mostrato una maggiore adattabilità della versione Zero Beta
rispetto al CAPM classico pur continuando a manifestare alcune perplessità sulla linearità della
relazione rischio-rendimento e sulle ancora innumerevoli assunzioni su cui si basano entrambi i
modelli.
I test effettuati sui modelli CAPM hanno alimentato numerose critiche negli anni settanta, tanto da
mettere in discussione lo stesso modello. L‟idea che i rendimenti possano essere spiegati da un
solo coefficiente beta tra il titolo e il portafoglio di mercato inizia ad essere rivista e si comincia ad
ipotizzare ad altri fattori che possano spiegare questa relazione. L‟analisi di modelli multifattoriali
porta nel 1976 Stephen Ross alla formulazione di un nuovo modello di Asset Pricing
completamente rivoluzionario perché prescinde dalle ipotesi troppo stringenti su cui si basava il
CAPM. Con la pubblicazione dell‟articolo “ The Arbitrage of Capital Asset Pricing” nasce l‟Arbitrage
6
Pricing Theory (APT). Questo modello esprime il rendimento di un titolo azionario in funzione dei
rendimenti di una serie di fattori di rischio (ad esempio legati a variabili macroeconomiche). La
sensibilità del rendimento atteso rispetto a variazioni dei fattori economici è noto come factor
loading ed è la controparte dell‟APT del coefficiente beta del CAPM. L‟APT si basa su tre semplici
assunzioni: che i rendimenti azionari siano descritti da un modello fattoriale, che sia possibile
costruire portafogli numerosi a piacere e che non esista la possibilità di arbitraggi privi di rischio. La
semplicità delle assunzioni è compensata dall‟enorme difficoltà nel determinare sia
quantitativamente che qualitativamente i fattori rilevanti.
Negli anni ottanta si sono susseguite ulteriori verifiche empiriche che hanno evidenziato la non-
validità da un punto di vista scientifico del CAPM, ma ciononostante questo modello risulta essere
ancora oggi il più diffuso a causa della sua semplicità e dal fatto che la ricerca degli ultimi decenni
pur riconoscendo i suoi limiti non è riuscita a fornire un modello alternativo idoneo ad un impiego di
massa. Dal rifiuto del CAPM ne sono derivate due scuole di pensiero: la prima ritiene che i
fallimenti del CAPM siano dovuti a una generale inefficienza del mercato, tale per cui la
determinazione dei prezzi delle attività finanziarie rischiose non risponde se non parzialmente a
criteri di logica economica, e per il resto è profondamente influenzata da comportamenti
ricollegabili alla psicologia collettiva dei partecipanti al mercato che contraddicono ipotesi di
razionalità economica (questo è il filone della Behavioural Finance); la seconda ritiene i fallimenti
del CAPM dovuti ad un‟errata quantificazione del rischio. L‟errore del CAPM risulterebbe dovuto
alla pretesa di ricollegare il rischio esclusivamente alla covarianza con il portafoglio di mercato; la
violazione di tale previsione da un punto di vista fattuale può essere dovuta alla non conformità al
reale di una o più stringenti assunzioni del modello.
E‟ proprio questa seconda scuola di pensiero che negli anni ottanta è alla ricerca di altri fattori che
possano influire sui rendimenti dei titoli azionari.
Nel 1977 Basu ha identificato il rapporto Price-Earnings come un possibile indicatore delle
performance future, notando come le imprese con alto rapporto P-E ottenevano rendimenti inferiori
rispetto al mercato, mentre quelle con rapporto P-E basso avevano rendimenti superiori. Nel 1981
Banz e Reinganum, analizzando i dati per il periodo 1936-75, mostrarono che le imprese a bassa
capitalizzazione sul mercato americano presentavano rendimenti in media più alti rispetto a quelli
previsti dal CAPM. Sembra pertanto esistere una nuova variabile, oltre al beta, costituita dalla
dimensione aziendale, in grado di spiegare i rendimenti dei titoli. Nel 1980 Stattman riscontrò una
correlazione positiva tra i rendimenti dei titoli e il book-to-market value di una società. Infine
Bhandari nel 1988 verificò una relazione positiva tra dei rendimenti con il rapporto di indebitamento
delle imprese individuando un‟altra variabile esplicativa in grado di giustificare extra-rendimenti
rispetto al CAPM. L‟evidenza suggeriva che questo “premio” per il rapporto d‟indebitamento non
poteva semplicemente essere spiegato come premio per un maggior rischio.
7
Rigettato il CAPM, almeno in ambiti accademici, si parte alla ricerca dei fattori o delle variabili
sottostanti ad essi in modo da riuscire a raggiungere un modello in grado di sostituire il CAPM.
Nel 1993 Eugene Fama e Kenneth French sottoposero ad analisi statistiche approfondite le
“anomalie” rispetto al CAPM riscontrate negli anni ottanta, cioè il modo in cui si presentano le
variabili aziendali che sembrano essere collegate ai titoli, al fine di verificare quanto queste
possano rappresentare fattori economici sottostanti. Rilevarono innanzitutto come molte di tali
variabili presentavano effetti che si sovrapponevano e, dopo aver verificato quali fossero i
“doppioni”, presentarono il loro modello a tre fattori. In particolare oltre al premio per il rischio di
mercato hanno considerato il premio per la dimensione (dato dalla differenza tra i portafogli
contenenti le società di piccole dimensioni rispetto a quelle più grandi; SMB) e il premio per il book-
to-market (definito dalla differenza tra i rendimenti dei portafogli caratterizzati da un alto valore del
book-to-market rispetto a quelle con un basso valore del rapporto in questione, HML).
Nel 1997 Mark Carhart estese questo modello, aggiungendo un altro fattore collegato al premio
assegnato dal mercato, in termini di rendimento, alle imprese i cui titoli hanno avuto una
performance di mercato particolarmente positiva in passato: il “momentum”. Carhart propose un
modello a quattro fattori caratterizzato per l‟aggiunta di un premio per il rischio di periodo dato dalla
differenza tra le performance dei portafogli contenenti le migliori società in termini di rendimento
del periodo intercorrente tra i tre mesi e l‟anno precedente rispetto alle combinazioni a cui vengono
associati i titoli peggiori (WML).
Nel 2003 Lubos Pastor e Robert Stambaugh dimostrarono che i titoli con poca liquidità erano
maggiormente esposti ai grandi cicli del mercato. In particolare le imprese a bassa capitalizzazione
erano le più esposte alle fluttuazioni di liquidità. Questi titoli tendevano ad avere dei beta molto alti
rispetto alla liquidità, mentre i beta delle imprese a grande capitalizzazione non erano prossimi allo
zero. Riprendendo il modello di Carhart del 1997, aggiunsero un quinto fattore rappresentato dalla
liquidità.
Una diversa letteratura cerca di individuare fattori di rischio collegati a variabili macroeconomiche.
Un punto di vista molto accreditato è quello espresso da Chen, Roll e Ross (1986) e Chan, Chen e
Hsieh (1985), secondo i quali i fattori rilevanti sono rappresentati da cinque variabili
macroeconomiche: la variazione nel tasso mensile di crescita del PIL; la variazione nel premio per
il rischio di fallimento, misurata dallo spread tra il rendimento di titoli di rating AAA e BAA per bond
di pari scadenza, la variazione nel “premio per scadenza”, misurato dallo spread tra il rendimento
di titolo di Stato a lunga (20 o 30 anni) e a breve scadenza (sei mesi o un anno); la variazione
inattesa del tasso d‟inflazione nel periodo; la variazione da un periodo all‟altro dell‟inflazione
attesa.
Con questo lavoro intendo analizzare in modo più dettagliato i vari modelli fattoriali derivanti dalla
formulazione dell‟APT, verificarne la validità e sottoporli ad un‟analisi empirica. In particolare,
riprendendo il lavoro svolto da Pastor e Stambaugh, mi concentrerò sull‟impatto del fattore di
8
liquidità nei modelli di pricing. Col mio lavoro intendo dimostrare che il fattore liquidity ha una forte
rilevanza statistica, soprattutto in fasi recessive dei mercati finanziari come quella che stiamo
vivendo oggigiorno.
Come mercato di riferimento è stato scelto il New York Stock Exchange (NYSE), in quanto ritenuto
un mercato molto liquido e caratterizzato da un elevato grado di efficienza. Queste due
caratteristiche risultano fondamentali per testare un modello così innovativo.
Tutte le procedure econometriche sono state attuate mediante la realizzazione di un‟apposita
programmazione all‟interno del software Stata e attraverso l‟utilizzo del software Gretl, mentre le
operazioni di calcolo e di aggregazione sono state eseguite attraverso l‟utilizzo di Microsoft Excel.
Le informazioni e i dati necessari per lo svolgimento del lavoro sono stati acquisiti da Thompson-
Datastream.
L‟orizzonte temporale su cui è stata svolta l‟analisi empirica è di 12 anni, e più precisamente da
gennaio 1997 a dicembre 2008.
Il lavoro è sostanzialmente divisibile in due parti. Nella prima si cerca di costruire una misura di
liquidità in grado di approssimare i cicli di liquidità aggregata di mercato. Una volta costruito il
fattore si può passare alla seconda parte dove questo viene inserito in un modello multifattoriale
per il calcolo dei rendimenti attesi dei titoli. Attraverso i coefficienti del modello fattoriale si è poi
proseguito classificando i titoli in base alla loro sensibilità rispetto al fattore creato. L‟obiettivo
principale del lavoro consiste proprio nel riscontrare una differenza costante tra i rendimenti dei
portafogli costruiti, dimostrando che la liquidità è un fattore da ritenersi fondamentale nei modelli di
asset pricing. Il rischio di liquidità costituisce quindi una componente dei prezzi dei titoli.
Per quel che riguarda gli altri fattori del modello si è fatto ricorso al sito di Kenneth French dove
sono pubblicati e continuamente aggiornati i fattori MKT, SMB, HML e MOM.
La presente trattazione è articolata in quattro sezioni. Nella prima parte viene ripercorsa
brevemente la storia e l‟evoluzione dei modelli di asset pricing. Si sono pertanto messe a confronto
le due famiglie di modelli: quelle derivanti dal CAPM e i modelli fattoriali. In particolare ci si è
soffermati sui limiti del CAPM, che hanno permesso l‟evoluzione di filoni di studi alternativi quali i
modelli fattoriali.
Nella seconda parte ci si è concentrati solo sui modelli multifattoriali. Si sono analizzate in dettaglio
tutte le anomalie di mercato che hanno portato allo sviluppo di questi modelli. Si è indagato quindi
sulla ricerca del numero esatto di fattori da inserire in tali modelli e sulle loro caratteristiche. Infine
vengono presentati i due modelli multifattoriali più significativi: quello di Fama e French (1993)
basato principalmente su variabili interne all‟impresa e il modello proposto da Chen, Roll e Ross
(1986) basato sull‟introduzione di variabili macroeconomiche.
Il terzo capitolo è da considerarsi la parte principale dal punto di vista teorico dell‟intero elaborato.
Infatti, viene introdotto nello studio dei modelli di asset pricing il fattore di liquidità. Essendo un
argomento trattato solo di recente in ambito accademico non è stata ancora formalizzata una
9
teoria a cui fare riferimento. Si è pertanto cercato di ricostruire l‟evoluzione dello studio di questo
fattore, e dei suoi possibili metodi di misurazione. Si è poi proceduto a presentare nel dettaglio i
due lavori più rappresentativi sull‟argomento: il modello di Pastor e Stambaugh (2003) e il liquidity
adjusted CAPM proposto da Acharya e Pedersen (2005).
L‟ultima sezione costituisce la parte originale dello scritto; in particolare viene svolta una verifica
empirica sul New York Stock Exchange del modello di Pastor e Stambaugh.