2
efficiente, occorre che qualsiasi informazione sia rapidamente diffusa tra
tutti gli investitori e assorbita dal prezzo.
Gli investitori, come qualsiasi operatore economico, necessitano di un
adeguato set informativo per conoscere e valutare correttamente il bene
che scambiano, nella fattispecie le azioni.
E’ proprio un’ asimmetria informativa tra gli scambisti la causa di
inefficienze: alcuni, “più informati”, sfruttano questo vantaggio con
opportune e redditizie operazioni finanziarie.
Sinteticamente, affinché il mercato sia efficiente le informazioni devono
essere distribuite immediatamente a tutti gli operatori, diffuse “a
pioggia”; ma l’ assumere che qualunque tipo di informazioni venga
velocemente comunicato al mercato produce un’ evidente forzatura della
realtà (si pensi ad alcune informazioni che sono necessariamente
riservate). La teoria finanziaria ha pertanto articolato l’ ipotesi di
efficienza in tre forme, differenziate per la tipologia di informazioni che
si assume tempestivamente diffuse. La prima forma, definita debole,
ipotizza che le informazioni deducibili dai corsi passati dei titoli siano
già estese alla totalità del mercato e quindi un loro utilizzo non consenta
di ottenere alcun extra-profitto sistematico. All’ estremo opposto, la
forma forte considera acquisita dagli operatori, attraverso il prezzo,
qualsiasi tipo di informazione, anche la più privata. Tra le due, la teoria
propone una forma intermedia, definita semi-forte, nella quale le
performances superiori al mercato sono impossibili con informazioni
passate e pubbliche, ma possibili con notizie riservate.
Scopo della presente ricerca è verificare l’ ipotesi di efficienza semi-
forte del mercato azionario italiano; a tal fine si esamina la presenza di
alcune anomalie caratteristiche di questa forma, ben note alla dottrina e
alla realtà operativa anglosassone: il rapporto prezzo-utile e la
capitalizzazione di borsa.
Questi fenomeni altro non sono che semplici meccanismi per ottenere
maggiori rendimenti dall’ investimento azionario, criteri per selezionare
titoli contraddistinti da performances superiori al mercato utilizzando
informazioni pubbliche. Entrambi individuano le azioni sottovalutate,
quindi più performanti, attraverso due loro caratteristiche: il rapporto
prezzo-utile (P/U) basso e le ridotte dimensioni di borsa, dati pubblicati
quotidianamente.
La loro verifica si basa sulla formazione di insiemi di titoli, portafogli,
contraddistinti da bassi valori del P/U e della capitalizzazione, e sul
3
calcolo dei rendimenti di questi due gruppi: se i loro risultati sono
superiori al mercato, questo è inefficiente nella forma semi-forte.
L’ indagine si basa sul testare l’ effettiva capacità di questi fenomeni di
produrre risultati superiori (cioè la presenza delle due anomalie), non nel
capirne le cause. Più dettagliatamente, la verifica riflette l’ ottica degli
investitori che si interessano all’ eventuale efficacia di queste strategie
senza ipotizzarne la fisiologia, i.e. considerano i due meccanismi due
black box che “quasi magicamente” consentono eventuali extra-
rendimenti.
Le due anomalie si prestano infatti ad essere valide strategie di
investimento a medio-lungo termine (generalmente annuale) i cui extra-
rendimenti non sono assorbiti da complesse intermediazioni, poiché
basate su una politica di buy and hold, acquisto e mantenimento.
Se la diagnosi della presenza delle anomalie P/U e valore di borsa è
basata sulla determinazione a posteriori delle performances dei
portafogli, precedentemente selezionati con questi metodi, e sulla
verifica di loro eventuali extra-rendimenti, appare cruciale stabilire
quando un rendimento si definisce extra. Le prime ricerche (come
evidenziato nel primo capitolo), attestavano la presenza delle anomalie
nel caso in cui i rendimenti dei portafogli superassero quello del resto del
mercato; una tale determinazione si basa quindi sulla media dei risultati
passati, metodologia mutuata dalla realtà operativa.
Lo sviluppo della teoria economica ha sollevato, successivamente, dubbi
sulla presenza di queste anomalie se testate unicamente in funzione del
rendimento: alcuni portafogli possono ottenere risultati migliori degli
altri unicamente perché più rischiosi. La valutazione di un titolo sulla
duplice relazione rendimento-rischio, intendendo come rischiosità la
variabilità dei risultati, è la base fondamentale su cui si struttura l’ intera
moderna teoria finanziaria; tutte le anomalie, compreso quindi il P/U e la
capitalizzazione di borsa, sono ora osservate alla luce di questa doppia
associazione. Il secondo capitolo espone pertanto una breve
formulazione e lo sviluppo della teoria finanziaria nelle sue accezioni più
diffuse e condivise dalla dottrina economica, forzatamente non esaustive,
e descrive gli strumenti per la valutazione delle performances di
portafogli in questo contesto. La ricerca utilizza principalmente uno dei
metodi di valutazione proposti, perché più completo: l’ indice di Jensen;
questo modello, infatti, non solo consente di diagnosticare la presenza di
eventuali anomalie, ma verifica anche sincronicamente la validità della
struttura teorica in cui si inserisce, il CAPM.
4
Più specificatamente, l’ indice di Jensen, misura quanto la performance
conseguita da un titolo si discosti da quella implicita nella sua specifica
relazione rendimento-rischio totale. Formalmente, questo tipo di analisi
si fonda su una regressione lineare tra rendimenti, in cui l’ indice non è
altro che la stima dell’ intercetta; l’ ottica inferenziale applicata consente
quindi di testare la significatività dei risultati.
L’ applicazione di strumenti econometrici, quali la regressione, non può
che essere preceduta da una loro breve descrizione, esposta nel terzo
capitolo; in questo sono illustrate brevemente le caratteristiche
fondamentali del modello statistico utilizzato, nonché le assunzioni di
base che ne consentono una corretta applicazione. Queste ipotesi
fondamentali sono violate spesso nelle ricerche finanziarie, pertanto la
trattazione ne illustra la diagnostica, le conseguenze e descrive i possibili
modelli alternativi di stima.
L’ approfondimento statistico consente anche una migliore
comprensione delle prime verifiche che valutano l’ efficacia delle
anomalie P/U e valore di borsa in un’ ottica teorica definita (queste per
lo più utilizzano come metodo di valutazione proprio l’ indice di Jensen,
in diverse varianti).
Queste ricerche sono focalizzate unicamente sul mercato statunitense,
ma tratteggiano le modalità di analisi poi applicate universalmente.
Un loro sintetico excursus (tracciato nel quarto capitolo) mostra, oltre ai
primi studi separati sui due effetti, l’ esame di una loro possibile
interazione (anche in funzione del tempo): la dottrina ha evidenziato
come queste due possibili anomalie siano in realtà interpretabili come un
unico elemento di inefficienza del mercato. Le prove a suffragio di una
tale ipotesi sono non soltanto la generale associazione positiva tra le due
caratteristiche in ogni azione (le aziende dimensionalmente minori
mostrano in genere bassi valori del rapporto P/U), ma anche l’ eventuale
verifica, con l’ indice di Jensen, della loro indipendente efficacia, cioè
condizionando reciprocamente un effetto all’ altro.
Lo studio delle precedenti ricerche suggerisce quindi di verificare,
attraverso l’ aggregazione dei titoli in base al loro rapporto P/U e valore
di borsa di fine marzo, non solo la presenza delle anomalie nel mercato
azionario italiano, ma anche le eventuali reciproche interazioni. A tale
scopo i portafogli sono riaggregati condizionando il rapporto P/U al
valore di borsa e quest’ ultimo al primo; questa metodologia consente di
esaminare complessivamente quattro diverse forme di anomalie.
L’ individuazione dei panieri è funzionale al calcolo dei loro rendimenti
5
(effettuato con la media aritmetica delle performances dei titoli
componenti) in un arco temporale determinato, il mese; dal campione
oggetto di studio, l’ andamento dei titoli quotati a Piazza Affari dal
marzo 1986 al marzo 1998, si sono pertanto formate quattro diversi
gruppi di serie temporali di rendimenti dei portafogli, uno per ogni
tipologia di anomalia.
L’ analisi si sviluppa, in primis, in un’ ottica di semplice media
campionaria dei rendimenti, quindi pone in essere un attento esame dei
rendimenti dei panieri con l’ indice di Jensen. Affinché questo modello
di valutazione sia implementato, è necessario determinare, nel contesto
reale italiano, le variabili che lo costituiscono; l’ intera verifica è
pertanto ripetuta in funzione di alcune possibili alternative
(specificatamente il tipo di indice di mercato utilizzato)
Il modello di regressione è applicato diagnosticando le eventuali
violazioni delle ipotesi-base illustrate; poiché gli appositi test
suggeriscono l’ impiego di due diverse metodologie regressive, l’ intera
verifica è quindi eseguita con quattro diversi modelli statistico-
economici (sesto capitolo). Al fine di sintetizzare i risultati dell’ analisi
complessiva, sono proposte alcune tavole riassuntive che riportano le
stime ottenute con i vari metodi, facilitandone il confronto.
La ricerca dei fenomeni rapporto P/U e capitalizzazione si basa sul
determinarne la presenza, non nel quantizzarne gli effetti: mira a indicare
l’ ordine degli indici di Jensen nei portafogli, eventualmente diversi da
zero (quindi evidenziando l’ efficacia e la forma degli effetti) e, soltanto
marginalmente, la loro cardinalità (a questo fine è utilizzata, brevemente,
un’ analisi dei rendimenti capitalizzati, slegata comunque dai modelli
teorici applicati)
L’ interazione tra le varie anomalie è anche esaminata in un contesto
temporale evidenziato dalla ricerca statunitense: più dettagliatamente,
attraverso la stessa metodologia, si verifica l’ influenza del mese di
gennaio nella relazione tra l’ effetto P/U e il valore di borsa.
L’ analisi propone anche un approfondimento delle conseguenze per il
mercato azionario italiano della negoziazione telematica in termini di
efficienza semi-forte, i.e. la determinazione, con gli stessi strumenti di
verifica, della presenza e della forma delle anomalie P/U e
capitalizzazione di borsa prima e dopo questa riorganizzazione operativa.
Al fine di porre in essere uno studio dettagliato e soprattutto rispondente
alla realtà operativa italiana, l’ aggregazione dei portafogli è
completamente reiterata posticipandola a fine giungo, quando è certa la
6
simmetria informativa tra gli investitori, per quanto concerne soprattutto
la misura dell’ utile. L’ intero processo di verifica è pertanto ripetuto nel
suo complesso, affinché siano palesi le influenze di questa
posticipazione non solo per la determinazione generale della presenza
delle anomalie e della loro interazione, ma anche per la loro sensibilità al
mese di gennaio e all’ introduzione del mercato telematico.
Al fine di dedurre conclusioni generali sui presunti effetti rapporto P/U e
capitalizzazione di borsa, i risultati complessivi sono analizzati in una
tavola sintetica generale.
Capitolo 1
L’ ipotesi di efficienza del mercato
1.1 Il mercato azionario efficiente
Un’ azienda esercita la propria attività d’impresa in un ambiente
mutevole: le condizioni macroeconomiche, gli scenari politico-normativi
nazionali e internazionali, l’andamento settoriale e le specifiche
dinamiche interne cambiano continuamente le prospettive economiche,
soprattutto di profitto, della società stessa. Tali prospettive caratterizzano
l’opera di un’ impresa in una moderna economia di mercato, perciò su
queste è centrata la valutazione finanziaria dell’ insieme aziendale. Una
modificata capacità di produrre profitti nel futuro, un diverso contesto
politico o, più generalmente, una qualsiasi variazione dell’ ambiente o
della stessa impresa che altera le dinamiche economiche societarie,
provoca una nuova valutazione dell’azienda, che quindi assume un
nuovo valore. Poiché la Borsa Valori è quel mercato dove l’ impresa
quotata è comprata e venduta, dunque anche valutata, il prezzo, al quale
la rispettiva azione è ceduta, riflette il valore della società nel suo
ininterrotto modificarsi. L’ efficacia di questa continua valutazione
dipende dall’ effettiva e rapida diffusione di ogni informazione relativa
alle variazioni delle prospettive aziendali: affinché gli investitori
scambino ad un prezzo che coincide con il valore effettivo dell’ impresa,
devono sapere, tutti, se e quando quest’ ultimo è cambiato. A livello dei
singoli, ciò implica che qualsiasi operatore possa immediatamente
8
ottenere l’ intero set di informazioni, ponderarle, produrre una nuova
stima della società e su questa basare la propria strategia. Il prezzo di
Borsa è sintesi e specchio di tutte le notizie disponibili: varia in modo da
assorbire velocemente i cambiamenti di valore comunicati da ogni set
informativo. Il mercato azionario si definisce efficiente quando tutto ciò
avviene, i.e. se tutte le informazioni sono trasmesse con una rapidità tale
da non dare adito a sistematici extra-rendimenti da compravendite.
Le condizioni per definire efficiente un mercato, così come esposte da
Fama
1
nel 1965, sono particolarmente restrittive:
1) Esistenza di una pluralità di investitori in continua, perfetta
concorrenza tali da non poter influenzare singolarmente i prezzi, i.e.
price-takers.
2) Operatori con aspettative omogenee oppure, più realisticamente, la
disomogeneità di aspettative permette scambi, ma non consente ad una
parte degli investitori di ottenere maggiori profitti.
3) Costi transattivi o tasse inesistenti oppure, se presenti, tali da
scoraggiare alcuni scambi, ma da permetterne altri che avvengano a
prezzi d’ equilibrio.
4) Investitori razionali, che massimizzano il profitto e sono avversi al
rischio.
5) Illimitata frazionabilità dell’ investimento (i cosiddetti “lotti minimi”
non esistono).
6) Immediata disponibilità e costo zero di ogni set di informazioni per
tutti gli operatori del mercato.
Un mercato efficiente porta ad una perfetta coincidenza tra valore
intrinseco del bene titolo azionario e il suo prezzo, i.e. la quotazione è la
miglior stima economica del complesso aziendale e non esistono titoli
sovra o sotto quotati.
Più dettagliatamente quando un avvenimento cambia la realtà aziendale,
quindi il suo valore, tutti gli operatori hanno la possibilità di conoscere
subito l’ accaduto, ossia ottengono sul mercato il set informativo idoneo,
adeguando immediatamente il prezzo. Nessuno può apprendere le notizie
prima degli altri (c’è simmetria informativa tra gli operatori) e quindi
nessuno può ottenere rendimenti maggiori sistematici.
Esemplare il paradosso di Malkiel
2
per cui, in un mercato efficiente, se
una scimmia lanciasse un dado sulla pagina finanziaria di un quotidiano,
scegliendo quindi a caso dei titoli, il rendimento del paniere di azioni
così ottenuto sarebbe lo stesso di quello accuratamente selezionato dal
miglior analista (salvo differenze casuali).
9
1.2 L’ articolazione della teoria dell‘ efficienza
Punto cruciale di quest’intero impianto teorico che ha il nome di “Ipotesi
di mercato efficiente”, EMH per la dottrina anglosassone (Efficiency
Market Hypothesis), è il set informativo: tutte le notizie, anche le più
riservate e complesse, devono essere immediatamente diffuse a costo
zero tra gli operatori.
Questo è evidentemente irreale e vincolante, perciò la dottrina, con
l’ opera di H.Roberts
3
e Fama
4
, ha proposto un’ articolazione più
elaborata della EMH, definendo tre distinti livelli di efficienza
differenziati a seconda del tipo di informazioni che i prezzi
effettivamente rispecchiano:
-Efficienza debole, il prezzo riflette tutte le informazioni contenute nelle
serie storiche, nell’ andamento passato del titolo. Quindi qualunque
fenomeno ricavabile ex-post dai corsi delle azioni con una potenziale
capacità lucrativa, è riconosciuto dal mercato e tale informazione circola
efficacemente tra gli operatori generando un loro comportamento che
annulla ogni possibile extra-rendimento.
E’ il cosiddetto random walk, per cui gli investitori nel loro continuo
scambiare, creano un andamento casuale del titolo azionario, tale che la
probabilità di un aumento del prezzo al periodo t sia identica a quella
associata ad una diminuzione nello stesso periodo, prescindendo dal
corso dell’ azione nel precedente istante temporale t-1. La conoscenza
dei prezzi passati non consente di prevedere quelli futuri, cosicché il
corso dei titoli è perfettamente casuale. Il comportamento rigorosamente
razionale degli operatori genera un percorso completamente
imprevedibile in un curioso contesto, dove la razionalità non è agli
antipodi della casualità ma anzi la “crea”. Il fenomeno era stato
osservato già nel 1900 da Bachelier
5
in tempi scientificamente non
maturi, anche Working
6
nel 1930 se ne era avveduto, ma solo con il
lavoro di Kendall
7
nel 1953 la comunità finanziaria ne iniziò l’ ela-
borazione teorica assumendo il cammino casuale come pilastro per la
costruzione di tutta la teoria dell’ efficienza.
-Efficienza semiforte, quando il prezzo contiene non solo tutte le infor-
mazioni passate, ma anche quelle pubbliche, cioè quelle disponibili a
basso costo per la pluralità degli operatori. Il campo informativo si am-
plifica, ma il prezzo riesce ugualmente ad incorporarlo: oltre agli even-
tuali fenomeni speculativi diagnosticati dalle serie storiche, sono
annullati anche quelli derivanti dal conoscere dati forniti pubblicamente
10
dai mass media. Quando le notizie vengono diffuse quindi, sono già nel
prezzo e la cosiddetta “analisi fondamentale” (basata sulla rielaborazione
dei dati di bilancio) che tanti operatori pongono in essere, è totalmente
inutile.
- Efficienza forte, il prezzo è sintesi delle informazioni passate,
pubbliche e anche riservate (intendendo quindi anche notizie particolari
non diffondibili in quanto strettamente private e acquisite in contesti
professionali, giudiziali, di partecipazione al capitale, d’ ufficio etc.). Gli
operatori hanno veramente tutti le stesse informazioni ed è impossibile
ottenere rendimenti sistematicamente più elevati. Le notizie sono diffuse
a pioggia, uniformemente su tutto il mercato e non a cerchi concentrici
dalla fonte; il risultato economico della scimmia di Malkiel eguaglia
quello di qualsiasi altro operatore.
Questa teoria, articolata come descritto, è stata sottoposta a diversi
esperimenti, dagli esiti favorevoli nei vari mercati azionari soprattutto
con i puntuali studi degli anni 70. La notevole sperimentazione del
successivo decennio ha supportato i risultati positivi precedenti: i mercati
borsistici dei paesi più sviluppati presentavano forme di efficienza.
L’ evidenza sperimentale quindi consolida il quadro teorico proposto,
creando un paradigma scientifico in grado di cogliere ogni fenomeno,
anche i più particolari; tra questi, alcuni relativi all’ efficienza semi-forte
sono singolari: l’ effetto prezzo-utile e l’ effetto dimensione.
11
1.3 L’ effetto prezzo-utile e l’ effetto dimensione
I fenomeni del rapporto prezzo-utile e della dimensione non sono altro
che semplici meccanismi per ottenere maggiori guadagni con il mercato
dei titoli: per il primo scegliendo i titoli che mostrano un più basso
rapporto prezzo di borsa su utile per azione (Earnings Per Share, EPS,
nella terminologia anglosassone) si ottiene un rendimento sistematica-
mente superiore al mercato, per il secondo l’ extra-rendimento è il
risultato della selezione delle società a più bassa capitalizzazione di
borsa (prezzo di un’ azione per il numero delle azioni), dunque quelle
dimensionalmente più piccole. Si tratta di fenomeni che concernono la
forma semi-forte della EMH perché i dati sul rapporto prezzo / utile per
azione (P/U) e sulla capitalizzazione di borsa, per gli statunitensi MV
(Market Value) sono quotidianamente riportati dai media più diffusi.
In realtà le “proprietà profetiche” del rapporto P/U erano ben note a
livello operativo e non solo accademico già da tempo; base di una tale
argomentazione è la convinzione che il prezzo non rifletta le aspettative
di crescita dell’ utile e conseguentemente del valore dell’ azienda. Un
basso multiplo implica una sottostima del prezzo del titolo rispetto al
valore intrinseco, conseguentemente la strategia è di acquistarlo, vice-
versa un alto rapporto indica una sovrastima quindi ne consiglia la ces-
sione.
La forte connotazione empirica ha fatto sì che le prime verifiche fossero
poste in essere quando ancora non era stato prospettato un con-testo
teorico preciso e coerente: Nicholson
8
, negli anni 60, studiando i
rendimenti di un campione dei titoli statunitensi del periodo 1937-62,
verificò che la regola P/U forniva risultati comprobanti tale meccanismo.
Questa ricerca è pionieristica anche perché traccia la metodologia di base
poi attuata dalle successive: le azioni sono classificate e ordinate secon-
do il loro rapporto P/U e poi aggregate rispetto al loro ordine in quintili,
cinque gruppi di uguale cardinalità, così che ogni insieme, tecnicamente
detto portafoglio, sia composto da titoli con un multiplo abbastanza omo-
geneo. La particolare costruzione dei quintili crea una progressione cre-
scente del valore del multiplo nei portafoglio. L’ output di questa
verifica è sorprendentemente coerente con la regola empirica del P/U:
- Il portafoglio composto da titoli a multiplo minimo ha un rendimento
medio annuo del 13 % superiore a quello del paniere con azioni ad alto
P/U.
12
- I rendimenti dei portafogli manifestano una relazione rigorosamente
negativa con il valore del multiplo dei titoli che li compongono.
- Questa tipologia dell’ ordinamento dei rendimenti si mantiene costante
ogni anno per i successivi 5 dal momento della creazione dei portafogli.
Le evidenze di questo studio sono state poi confermate dagli altri
successivi sempre su un campionario statunitense con metodologie
simili; tra le numerose verifiche, senza pretesa d’esaustività, si ricordano
quelle di McWilliams
9
, Breen
10
, Latanè-Joy-Jones
11
.
A metà degli anni Settanta, con l’ effetto dimensione MV non ancora
verificato, l’ effetto P/U era ancora un meccanismo pratico per cercare di
ottenere extra-rendimenti senza una precisa collocazione teorica unitaria
e come tale era metodologicamente ricercato. Ma la realtà accademica
economica aveva già sviluppato un impianto teorico così solido da
giustificare anche l’ effetto P/U: varie teorie erano a tal punto coese in un
sistema dove l’ EMH si salda alla Moderna Teoria del Portafoglio di
Markowitz, alla determinazione dei rendimenti del Capital Asset Pricing
Model (CAPM), che nessun ricercatore poteva ignorarle.
13
Note:
(1) E. FAMA, The Behaviour of Stock Market Prices, “the Journal of
Business”, gennaio 1965, pp. 34-105.
(2) B.G. MALKIEL, A Random Walk Down Wall Street, Norton, 1965.
(3) H.V. ROBERTS, Statistical Versus Clinical Prediction of the Stock
Market, in Seminar on the Analysis of Security Prices, University of
Chicago, maggio 1967.
(4) E. FAMA, Efficient Capital Markets: a Review of Theory and
Empirical Work, “Journal of Finance”, XXV, No. 2 (marzo 1970), pp.
383-417.
(5) L. BACHELIER, Theorie de la Speculation, Gauthier-Villars, Parigi,
1900, ristampato in P.H. COOTNER, The Random Character of Stock
Market Prices, MIT Press, 1974, pp. 17-78.
(6) H. WORKING, A Random difference Series for Use in the Analysis
of Time-series, “Journal of the American Statistical Association”, 29,
marzo, 1930, pp. 11-24.
(7) M.G. KENDALL, The Analysis of Economic Time-Series, Part I.
Prices, “Journal of the Royal Statistical Society”, 96, 1953, pp. 11-25.
(8) S.F. NICHOLSON, Price-Earnings Ratios, “Financial Analysts
Journal”, luglio-agosto 1960, pp. 43-45 et S.F. NICHOLSON, Price
Ratios in Relation to Investment Results, “Financial Analysts Journal”,
gennaio-febbraio 1968, pp. 105-109.
(9) J.D. McWILLIAMS, Prices Earnings and P.E. Ratios, “Financial
Analysts Journal”, maggio-giugno 1966, pp. 137-142.
(10) W. BREEN, Low Price-Earinings Ratios and Relatives, “Financial
Analysts Journal”, luglio-agosto 1968, pp. 125-127.
(11) H.A. LATANE’, O.M. JOY, C.P. JONES, Quarterly Data, Sort-
Rank Routines and Security Evaluation, “Journal of Business, ottobre
1970.
14
Capitolo 2
Brevi cenni sulla base teorica
Nel capitolo sono illustrate le strutture della teoria economica, la cui
articolazione consente la comprensione e la valutazione degli effetti P/U
e MV; l’ argomentazione proposta è forzatamente stringata e non
esaustiva, ma concerne le basi concettuali più importanti e diffuse nella
dottrina finanziaria mondiale.
2.1 Il rischio
Elemento cruciale e perno del sistema teorico è il concetto di rischio.
Alle sei ipotesi dell' EMH già viste, ne possiamo, infatti, aggiungere
un’ altra, che sembra ovvia ma determina in realtà implicazioni
fondamentali: i titoli sono rischiosi; ossia esiste la possibilità, dunque la
probabilità statistica, di realizzare risultati differenti da quello atteso.
Una tale definizione richiede alcune puntualizzazioni:
- Il rischio si differenzia dall’ incertezza, perché mentre il primo è in
qualche modo prevedibile, quest’ ultima non è quantitativamente
definibile.
- Una simile concezione non distingue i risultati positivi da quelli
negativi, considerandoli entrambi ugualmente incerti, in base ad un
processo puramente logico.
15
La condizione di rischiosità di un generico titolo i implica quindi che il
rendimento sia una variabile casuale con una propria distribuzione di
probabilità caratterizzata da:
- il valore atteso E(R), media aritmetica ponderata delle possibili
realizzazioni con peso le singole probabilità:
E(Ri) = Σ Ri * Pi = R1 * P1 + R2 * P2 + .... + Rn * Pn
ossia media dei diversi possibili rendimenti, gli Ri, per le rispettive
probabilità Pi.
- la varianza σ
2
(Ri) o Var(Ri), media aritmetica delle differenze tra le
realizzazioni e il loro valore atteso ponderata per le singole probabilità,
i.e. grado di dispersione della distribuzione della variabile casuale
attorno al suo valore centrale:
Var(Ri) = E[ Ri-E(Ri) ] = Σ [Ri-E(Ri)]
2
* Pi.
Tale definizione coincide perfettamente con quella di rischio di cui è, di
fatto, la miglior rappresentazione matematico-probabilistica,
indispensabile per la sua misurazione. Talvolta lo scostamento
quadratico medio o deviazione standard σ è preferita alla varianza σ
2
, di
cui è semplicemente la radice quadrata, in quanto è espressa nella stessa
unità di misura dei rendimenti e del valore atteso.
Le ipotesi dell’ EMH, come sopra elencate, possono quindi essere
tradotte in termini propri del linguaggio statistico, in particolare:
- La seconda ipotesi attesta l’ omogeneità delle aspettative degli
operatori : in questo nuovo contesto, ciò è traducibile nella condivisione
tra gli scambisti delle medesime percezioni circa E(Ri) e Var(Ri),
qualunque sia il titolo i.
- La quarta concerne la massimizzazione della ricchezza, l’ avversione al
rischio e la razionalità degli investitori: qualsiasi operatore cerca di
ottenere un maggior rendimento possibile, in termini di E(Ri), ma
ponderandolo con il rispettivo rischio Var(Ri), per cui richiede un
supplemento di valore atteso per un titolo o combinazione di azioni con
maggior varianza.