2
per altro verso costituisce incertezza. Il rigore logico alla base della separazione tra
un’aleatorietà esprimibile in termini di probabilità numeriche e un’incertezza non
quantificabile, pose i cardini teoretici per lo sviluppo della teoria dell’equilibrio
economico generale di Arrow e Debreu che tanta parte era destinata ad avere nello
sviluppo successivo della moderna dottrina di portafoglio.
Durante i tre secoli che ci separano da quel lontano 1738 la teoria finanziaria si è
dunque progressivamente arricchita di numerosi tasselli che hanno dato origine nel loro
complesso un corpus letterario fondato su pochi ma decisivi postulati essenziali,
riconducibili alla tesi dell’efficienza (informativa) dei mercati, alla razionalità degli
investitori e alla continua ricerca di opportunità di arbitraggio e in ultima analisi della
massimizzazione della propria ricchezza.
In un’epoca più recente, collocabile entro le soglie del ventesimo secolo, la scienza
finanziaria fu radicalmente trasformata dalla pubblicazione di un famoso articolo
dedicato alla selezione di portafoglio che valse a Markowitz l’assegnazione del Nobel
Memorial Prize in Economic Science nel 1990. Le sue pionieristiche ricerche intorno
alla stock selection lo portarono a rigettare le radicate posizioni dei suoi contemporanei i
quali ritenevano che potessero esistere dei portafogli in grado di assicurare
contestualmente il massimo rendimento atteso a fronte di un’esposizione al rischio
minima. Egli affermava in proposito: “not only does [portfolio analysis] imply
diversification, it implies the right kind of diversification for the right reason.” Gli studi
condotti in questa direzione misero in luce la rivoluzionaria idea per cui la ricerca degli
investitori dovrebbe essere protesa alla costruzione di portafogli di titoli selezionati non
tanto sulla base del criterio della massimizzazione del rendimento atteso, di per se
distorsivo in quanto all’oscuro del fattore rischio e del principio della diversificazione,
quanto piuttosto sulla base di un’analisi simultanea di media e varianza dei rendimenti,
optando in ultima analisi per quelle combinazioni in grado di fornire la massima
remunerazione per un dato livello di rischio (portafogli efficienti). Ciò che divenne ben
presto noto come diversificazione secondo Markowitz si fondava dunque sul principio in
base al quale la combinazione di attività finanziare caratterizzate da una correlazione
quanto più possibile bassa, meglio se inversa, consentirebbe di operare una riduzione
del rischio complessivo senza intaccare il profilo del rendimento.
3
Il passo successivo fu mosso da Tobin nel 1958, al quale va il merito di aver portato
avanti l’analisi di Markowitz fino all’identificazione di un portafoglio di mercato e alla
razionalizzazione del meglio noto teorema della separazione, in ragione del quale la
composizione della combinazione ottimale di attività rischiose è indipendente dal grado
di avversione al rischio degli individui. Prendendo le mosse dall’osservazione di come
gli agenti economici procedono all’allocazione della propria ricchezza tra liquidità e
attività incerte, Tobin dimostrò che la composizione qualitativa della porzione certa del
portafoglio risultava indipendente dal suo peso nel bilancio complessivo
dell’investimento. Questo risultato aprì la possibilità di scindere il problema della
selezione di portafoglio in stadi differenziati per grado di aggregazione, scegliendo
dapprima le categorie di attività e successivamente all’interno di ciascuna, i singoli
titoli. L’asset mix definitivo che procede dalla costruzione di un portafoglio efficiente
alla sua combinazione con un attività free risk, ha il pregio di riflettere il grado di
tolleranza al rischio dell’investitore.
La comunità finanziaria fu piuttosto lenta nell’abbracciare quelle teorie per certi aspetti
sovversive dello status quo preesistente, introdotte da Markowitz e Tobin, non solo a
causa di un connaturato sentimento di diffidenza verso ciò che è nuovo, ma anche e
soprattutto in ragione di una serie di difficoltà pratiche dettate dalla profusione dei dati
da passare in rassegna. La costruzione di un portafoglio di 100 titoli secondo i precetti
della stock selection alla Markowitz, richiedeva infatti l’elaborazione di qualcosa come
5050 stime di termini di rischio tra varianze e covarianze, compito decisamente arduo se
si pensa all’inadeguatezza degli strumenti a disposizione nel lontano ’52. Una simile
carenza di supporti tecnici sufficientemente evoluti costituiva un limite per molti versi
insormontabile che spinse alcuni entusiasti della nuova teoria a cercare una soluzione.
Un’importante semplificazione sia qualitativa che quantitativa in questo senso, si ebbe
nel decennio seguente grazie al lavoro di Sharpe (1963). Ad egli va riconosciuto il
merito di aver individuato un legame esplicativo di tipo causa effetto tra i movimenti
dei singoli titoli e i movimenti del mercato. I risultati ottenuti vennero razionalizzati
nella stesura di uno dei maggiori capisaldi della moderna teoria finanziaria quale è
divenuto il Single Index Model. Facendo propri i dettami logici della portfolio selection
di Markowitz e Tobin, Sharpe elaborò una teoria di equilibrio di mercato in condizioni
di rischio che fondata su alcune ipotesi semplificatrici, dimostrava come lungo la
4
frontiera efficiente esistesse un solo portafoglio che combinato con qualsivoglia
porzione di attività al tasso certo, dominava tutte le altre aggregazioni efficienti. Si
trattava del portafoglio di mercato, rappresentante il massimo livello possibile di
diversificazione. Sharpe andò oltre postulando l’esistenza di una relazione di tipo
lineare tra l’andamento dei rendimenti e le fluttuazione di un indice di mercato mediata
da un ben noto coefficiente di sensibilità, e rintracciando due principali ed esclusive
fonti di rischio. Delle due la prima veniva ricondotta a cosiddetti fattori sistematici
responsabili del dinamismo dei corsi per mezzo dell’impatto esercitato sul valore del
portafoglio di mercato; la seconda nota come rischio sistematico, era imputata a forze
idiosincratiche interessanti il singolo emittente e in quanto tali responsabili di un rischio
eliminabile tramite la diversificazione. In proposito egli scriveva: “The major
characteristic of the diagonal model is the assumption that the returns of various
securities are related only through common relationships with some basic underlying
factor. The return from any security is determined solely by random factors and this
single outside element…”
Nell’anno in cui la Portfolio Selection di Markowitz entrava in pubblicazione, Treynor
iniziava a lavorare ad un manoscritto la cui importanza è spesso lasciata in secondo
piano in quanto oscurata dal successo arriso alla selezione di portafoglio. Si trattava di
uno studio del 1961, dal titolo “Toward a theory of market value of risky assets ”,
tuttora spesso dimenticato dalla letteratura accademica, che sviluppava una teoria del
valore di mercato in condizioni di rischio e che arrivava autonomamente a dimostrare la
tesi per cui il premio per il rischio remunerato dall’i-esimo investimento risulterebbe
proporzionale alla covarianza esistente tra l’investimento e il mercato, inteso come
macro-investimento aggregato.
Di fatto gli anni sessanta del secolo scorso furono forieri di importanti innovazioni nel
campo della teoria economica che raggiunsero l’apice con la messa a punto da parte di
Sharpe, Lintner e Mossin separatamente, del Capital Asset Pricing Model (CAPM).
Destinato sin dai suoi albori a divenire il massimo credo di accademici e professionisti
almeno fino agli anni ’80, il CAPM riassumeva in un paradigma organico le principali
conquiste dei precedenti due decenni, sviluppando una teoria di equilibrio dei mercati
dei capitali di tipo positivo che sanciva l’esistenza di un legame di proporzionalità
diretta tra rendimento e rischio. L’idea per cui il rendimento in eccesso sul tasso risk
5
free corrisposto dal generico investimento, o portafoglio di investimenti, è commisurato
al rendimento in eccesso del portafoglio di mercato per mezzo di un coefficiente beta
(che riassume in termini di rischiosità, la correlazione esistente tra titolo e mercato)
segnò così il definitivo passaggio alla moderna teoria finanziaria.
Successivamente alla sua pubblicazione il CAPM divenne oggetto preferenziale di
numerosi studi, finalizzati di volta in volta ad estenderne la valenza pratica, a precisarne
le istanze teoretiche e non di rado a confutarne la validità dei presupposti logici. Tra i
lavori più significativi condotti intorno al modello in parola si colloca senza dubbio
quello di Black del 1972 meglio noto come Zero-Beta CAPM, cha adattava le versione
originale al caso in cui non fosse disponibile sul mercato un impiego/finanziamento al
tasso certo, e ancora quello di Treynor e Black del 1973. Di impostazione più
prammatica, quest’ultimo prendeva spunto dalla radicale innovazione introdotta nelle
pratiche dell’investment management dai nuovi paradigmi di mercato e sviluppava
alcune considerazioni sulla costruzione e sulla gestione di portafogli legando il CAPM
al single-index model di Sharpe. Più precisamente, il modello di Treynor e Black
sanciva in via definitiva alcune regole guida fondamentali per la gestione di portafoglio
mediante strategie di benchmark, o in alternativa tramite strategie attive di variazione
del grado di diversificazione, riconducibili ad una serie di scommesse avanzate sulle
performance prospettiche dei singoli titoli.
Non meno risonanza ebbe qualche anno più tardi la teoria dell’Arbitrage Pricing di
Ross (1976), che si pose al centro della scena accademica e professionale come criterio
alternativo di selezione e come soluzione ai limiti soprattutto pratici progressivamente
evidenziati dai test condotti sul CAPM. Si trattava di un modello multifattoriale, che in
antitesi alla singolarità dell’indice che caratterizzava la precedente teoria, proponeva
una molteplicità di fattori esplicativi del rischio sistematico e delle forze motrici dei
corsi azionari, i quali dal canto loro erano supposti sviluppare una data sensibilità verso
non uno ma più moventi pervasivi. In sintesi, ammettendo che il modello noto come
APT risultasse ben specificato e non esistesse alcun rischio diversificabile, la legge del
prezzo unico imponeva l’esistenza di un legame lineare tra il rendimento atteso del
singolo titolo, i fattori di rischio ritenuti significativi e i rendimenti attesi delle altre
attività. Se così non fosse stato gli arbitraggisti avrebbero avuto la possibilità di attivare
6
strategie di negoziazione long-short in grado di produrre risultati positivi a fronte di un
costo nullo se non addirittura negativo.
I progressi compiuti dalla teoria dei mercati dei capitali nel corso degli ultimi decenni
sono stati resi possibili anche da altrettanti traguardi raggiunti con successo in ambiti
differenti ma tra loro strettamente connessi. In particolare lo sviluppo dell’ingegneria
finanziaria e la diffusione di strumenti assolutamente innovativi riconducibili alla
macroclasse dei derivatives, ha radicalmente modificato le tradizionali tecniche di asset
management all’insegna di una maggiore flessibilità ed efficienza nella costruzione e
nella gestione di portafogli dalla complessità crescente. Si tratta di fattispecie
contrattuali il cui payoff dipende dal valore di un cosiddetto sottostante, diversamente
specificato, sulla base di clausole che portano ad una altrettanto diversa
caratterizzazione degli strumenti finanziari in parola. Tra essi i più diffusi sono
essenzialmente riconducibili alle categorie dei forward, dei futures e delle opzioni. Le
ultime in particolare hanno contraddistinto la storia economica della società occidentale
sin dall’antichità classica quando, come riporta Aristotele, Talete di Mileto utilizzò delle
opzioni ante litteram per indurre una stretta sul mercato della spremitura delle olive.
L’impiego diffuso di derivati ha inevitabilmente imposto l’elaborazione di modelli di
pricing per il giusto apprezzamento del loro valore intrinseco, che molto hanno
contribuito allo sviluppo della dottrina finanziaria nei sui più vari segmenti, favorendo
la comprensione degli strumenti in parola e del loro enorme potenziale operativo. Così,
tra gli studi destinati ad entrare a far parte delle torri d’avorio della finanza moderna non
è possibile dimenticare il lavoro di Black e Scholes (1973), Cox e Ross (1976) e Cox,
Ross e Rubinstein (1979), per ciò che riguarda in particolare la valutazione delle
opzioni. Il primo, giunse alla specificazione di una formula di pricing valida per tutti gli
investitori indipendentemente dalla struttura delle preferenze individuali, per cui il
rendimento atteso dell’opzione dipenderebbe dal rendimento atteso del sottostante nella
misura in cui un incremento del prezzo dell’attività genera un incremento del valore
dell’opzione secondo la forma funzionale specificata dagli autori. L’idea fondamentale
alla base del modello di Black e Scholes venne poi ripresa e sviluppata da Cox e Ross i
quali arrivarono a dimostrare per primi che la distribuzione di probabilità sotto la quale
sono considerate le aspettative non è la misura reale, bensì una misura corretta nota
come distribuzione neutrale verso il rischio, per mezzo della quale si attua una
7
trasformazione del contesto probabilistico di riferimento all’insegna dell’indifferenza al
rischio di tutti gli investitori. La valorizzazione del potenziale teorico e pratico insito
nelle conclusioni raggiunte, venne apprezzato appieno solo qualche anno più tardi, nel
1979, da Harrison e Kreps, ai quali va il merito di aver dimostrato che sotto certe
condizioni, l’assenza di arbitraggio è equivalente alla possibilità di specificare delle
probabilità neutrali verso il rischio, nel qual caso il prezzo della generica attività
finanziaria scontato al tasso certo è una martingala. In matematica una martingala è una
variabile aleatoria il cui valore atteso per il periodo successivo è dato precisamente dal
suo valore corrente. Applicato ai titoli azionari, questo significa che in un contesto
probabilistico di neutralità verso il rischio il rendimento atteso del generico titolo
eguaglia il tasso risk free, con la conseguenza per cui gli investitori non potranno
ragionevolmente sperare in sovrarendimenti di segno positivo.
Per certi aspetti ancor più rilevanti sono stati i passi avanti compiuti in campo
obbligazionario, con particolare riferimento all’analisi dei titoli di stato che unitamente
al crescente interesse destato dai derivati sui tassi d’interesse, hanno portato
all’elaborazione di modelli della struttura a termine assolutamente innovativi. Il
contributo più significativo venne da Vasicek (1977), che ne fornì una caratterizzazione
esplicita in condizioni di non arbitraggio. Nelle ipotesi in cui il tasso istantaneo spot
seguisse un processo diffusivo, i mercati fossero efficienti e il prezzo di uno zero
coupon dipendesse in via esclusiva dal tasso spot sulla scadenza, l’autore dimostrava
che il rendimento atteso del titolo in eccesso rispetto al tasso free risk risultava
proporzionale alla sua deviazione standard. Successivamente, il problema della
modellizzazione della struttura a termine dei tassi d’interesse costituì oggetto di studio
da parte di Cox, Ingersoll e Ross nel 1985, i quali svilupparono un modello
intertemporale di equilibrio generale in cui il prezzo di uno zero coupon dipendeva dalle
aspettative, dall’avversione al rischio, dalle alternative d’investimento e dalle preferenze
intertemporali di consumo degli investitori. La faccenda fu affrontata dagli autori in
modo diverso rispetto all’approccio seguito dalla letteratura precedente in cui l’analisi
dei tassi conduceva in ultima analisi alla fissazione di premi per il rischio ad hoc (si
pensi alla teoria delle aspettative, dei mercati segmentati e dell’habitat naturale). Il
lavoro di Cox, Ingersoll e Ross sviluppava al contrario un’analisi più approfondita,
finalizzata ad individuare le determinanti dei differenti risk premia e a precisare
8
analiticamente come la variazione di alcune variabili tradizionalmente ritenute rilevanti
impattasse sulla struttura a termine dei tassi.
Tutti questi risultati faticosamente raggiunti nel passato, e spesso dati per scontati nel
presente, hanno contribuito in modo determinante all’evoluzione della teoria finanziaria
e alla formulazione dei modelli tra i quali rientrano quelli che saranno presentati nelle
pagine che seguono. Non di meno hanno giocato un ruolo di primo piano gli studi
condotti in materia di valutazione specifica dei singoli titoli, che abbandonando una
logica di formazione dei prezzi puramente di mercato, hanno approfondito l’indubitabile
legame esistente tra valore dell’azione e fondamentali aziendali. Accanto alla ricerca
rivolta allo studio dei mercati finanziari complessivamente intesi e all’allestimento di
supporti dottrinali per la costruzione di portafogli efficienti, nel tempo si è così andato
evolvendo un nutrito filone letterario orientato alla comprensione dei meccanismi che
stanno alla base della determinazione del valore del singolo titolo. Una fetta sostanziosa
dei lavori che hanno avuto ad oggetto i mercati dei capitali hanno indagato il legame
esistente tra forze di mercato e corsi azionari e il trade-off rendimento – rischio da esso
indotto tra le diverse classi di attività. Di fatto, data una certa allocazione della ricchezza
tra le possibili alternative d’investimento, i maggiori investitori possono aspettarsi di
guadagnare un rendimento commisurato all’asset mix prescelto e all’esposizione al
rischio ad esso associata. Nello specifico un portafoglio sbilanciato verso classi di
attività rischiose tenderà ad essere premiato con risultati più remunerativi, mentre
combinazioni di titoli più prudenti saranno ricompensate con rendimenti più contenuti.
La conseguenza è che per incrementare il valore della propria posizione gli investitori
potranno procedere in due direzioni: da un lato rivedere la composizione del proprio
portafoglio per classi di attività, dall’altro scegliere le attività ritenute più profittevoli
all’interno della stessa classe, mettendo in atto una gestione attiva orientata al
conseguimento di remunerazioni più consistenti di quelle associate a strategie di
benchmark. È evidente che in questo caso l’abilità nella scelta dei titoli diviene una
condizione assolutamente imprescindibile, una condicio sine qua non per un asset
management di successo. Un valido strumento teorico per la determinazione del fair
value è dunque importante per l’analisi dei titoli possibili candidati all’inclusione nel
portafoglio, per l’identificazione delle attività meno profittevoli e per la comparazione
spazio – temporale degli investimenti alternativi. Una gestione attiva impone la capacità
9
di saper riconoscere eventuali mispricing di mercato ovvero quei disequilibri
temporanei che consentono di aggiungere valore al portafoglio. Si tratta naturalmente di
un compito di difficile conduzione che la modellizzazione teoretica cerca in qualche
modo di agevolare, predisponendo supporti logici che aiutino nella comprensione dei
moventi dei corsi.
La ricerca della via più corretta per l’apprezzamento di una qualsivoglia attività
finanziaria e nello specifico di un titolo azionario, ha così impegnato numerosi
economisti nello sforzo di individuare un criterio di valutazione che sia unanimemente
accettato e generalmente applicabile. I risultati finora raggiunti sono stati tuttavia
deludenti sul piano del consenso in quanto hanno portato a metodi differenti di analisi e
di scelta dei titoli che spaziano da tecniche meramente meccaniche a criteri più
strutturati, fondati sul convincimento per cui le oscillazioni dei prezzi sarebbero indotte
dal dinamismo di alcuni fattori specifici e macroeconomici. Scendendo un po’ più nel
dettaglio, la rottura dottrinale più vistosa si è rivelata essere quella che separa i
sostenitori della teoria efficientista, da quanti ritengono che tutto sommato il mercato sia
un sistema ordinato e parzialmente prevedibile nella sua evoluzione futura. Tra i primi è
diffuso il convincimento che i mercati dei capitali siano efficienti sul fronte informativo
in ragione del fatto che i prezzi rifletterebbero appieno tutta l’informazione disponibile
in un dato momento. Ad un siffatto convincimento fanno seguito l’inutilità dello studio
dei fondamentali aziendali e dell’analisi dell’informazione per l’elaborazione di un
prezzo indipendente, la casualità dei movimenti azionari e l’imprevedibilità dei
rendimenti conseguibili. Dall’altro lato, i più convinti assertori della posizione opposta
ritengono inconfutabile il legame esistente tra prezzi azionari e fondamentali aziendali,
e perseguibile il tentativo di prevederne le oscillazioni prospettiche. Nel corso degli
anni, i numerosi tentativi di tracciare un sentiero logico che conduca ad un
apprezzamento unanime del valore del titolo hanno arricchito la letteratura finanziaria di
una grande varietà di modelli, più o meno complessi, più o meno realistici, ma tutti
accomunati dal medesimo intento: elaborare un paradigma di valutazione che converta
le stime di dati rilevanti relativi alla generica impresa, in un prezzo di mercato atteso per
il titolo della società. Da un punto di vista logico il successo riscontrato dalle tecniche di
valutazione più affidabili unitamente agli sforzi della ricerca, continuamente protesi alla
messa a punto di modelli sempre più precisi, trova giustificazione nel
10
desiderio/necessità degli investitori di corrispondere per il singolo investimento il
“giusto prezzo”, ovvero un prezzo che rifletta il valore effettivo dell’attività acquistata.
La valutazione ha un ruolo fondamentale in svariate aree della finanza che si estendono
dalla gestione di portafoglio al campo del Merger and Aquisition fino al più ampio
settore della corporate finance e questa interdisciplinarità non ha fatto che rendere
sempre più critico il compito della dottrina finanziaria.
Nelle pagine che compongono questo lavoro, si farà propria l’idea per cui i prezzi e
perciò stesso i rendimenti, siano prevedibili o lo siano almeno in parte, in virtù di un
legame diretto tra l’andamento dei fondamentali aziendali e il valore delle azioni
emesse. Alla luce di questo convincimento, verranno proposti alcuni modelli di
valutazione sviluppati nel corso degli ultimi decenni in un contesto dinamico, il cui
scopo ultimo è la predisposizione di formule di pricing in grado di esprimere il fair
value del titolo per mezzo di forme funzionali che ne sanciscano la dipendenza da poste
contabili rilevanti. Si tratta di supporti dottrinali che in comune hanno le medesime
radici teoretiche che possono essere fatte risalire ai tradizionali Dividend Discount
Models, o ancor più in generale alla logica del Net Present Value per la valutazione
degli investimenti.
Potremmo affermare che la valutazione di un generico investimento è effettuabile per
mezzo della capitalizzazione dei flussi di reddito da esso generati nel tempo, cosa che
applicata ai titoli azionari impone che il valore intrinseco di ogni attività dipenda dal
cash flow atteso che l’investitore riceverà nel futuro in ragione della titolarità
dell’investimento. Ora, dal momento che si tratta di un payoff atteso dovrà essere
corretto per mezzo di un processo di allineamento temporale del valore dei flussi che
tenga conto anche del rischio a cui l’investitore si espone. Il valore di un investimento è
perciò definito come il valore attuale di un flusso futuro rilevante – in genere dividendi
o cash flow – attualizzato ad un tasso che riflette il rischio connaturato all’investimento
stesso. Il confronto tra il valore stimato e il prezzo di mercato consente in ultima analisi
di formulare un giudizio complessivo sulla profittabilità del titolo.
Il valore dell’investimento è un concetto universalmente recepito e di grande interesse.
Per molti anni, accademici e professionisti hanno utilizzato differenti terminologie per
indicare il medesimo concetto. Ad esempio anni fa Graham e Dodd si riferivano al
valore intrinseco come a quel “valore giustificato dai fatti”, ossia primariamente dalla
11
capacità dell’impresa di produrre utili. Successivamente Williams definì il valore di un
titolo azionario come il “valore attuale dei dividendi futuri”, mentre in epoca più recente
Molodovsky estese il precedente concetto sviluppando un metodo di attualizzazione dei
dividendi all’infinito.
Il primo, significativo passo verso una razionalizzazione dei metodi di valutazione è
stato compiuto con la trasposizione delle tecniche di valutazione degli investimenti
proprie del capital budgeting al campo finanziario, cosa che ha portato nel tempo al
perfezionamento dei ben noti Dividend Discount Models per cui il valore intrinseco di
un titolo dipenderebbe in via esclusiva dall’attualizzazione dei cash flow da esso
prodotti. Ora, poiché nel caso di un titolo azionario i cash flow in parola sono
riconducibili ai dividendi periodicamente staccati, il modello che origina dalle tecniche
di valutazione su menzionate ha assunto l’appropriato nome di Dividend Discount.
Da un punto di vista analitico, i dettami logici di questo criterio sono riassunti nella
seguente formula di pricing.
ƒ
φ
1
)1(
i
it
it
t
r
D
P
per cui il prezzo corrente del generico titolo è calcolato come la sommatoria all’infinito
dei dividendi prodotti, scontati ad un tasso che per semplicità è posto essere costante,
ma che più appropriatamente dovrebbe presentare una correzione per il rischio oltre che
una data variabilità temporale. Questa versione generalizzata presenta tuttavia alcune
difficoltà specie di tipo applicativo, legate alla necessità di stimare un numero infinito di
flussi di dividendo.
Se si avanza l’ipotesi di costanza dei dividendi, è facile intuire che la formula sopra
presentata si riduce a:
r
D
P
t
La precedente espressione può tuttavia ambire ad una migliore specificazione, specie in
relazione ai flussi rilevanti che vi compaiono. Innanzi tutto le istanze logiche dei DDM,
12
in ragione del fatto che l’impresa è considerata alla stregua di un’organizzazione
potenzialmente perpetua, impongono la stima di un flusso infinito di dividendi, compito
non di certo facile nonostante gli attuali strumenti a disposizione. In secondo luogo è
ragionevole aspettarsi che nel tempo la politica di payout della società vari
parallelamente alle sue capacità di reddito. Ora, introducendo alcuni assunti
semplificatori, possiamo immaginare che la prosecuzione nel tempo dell’attività
caratteristica dell’impresa si svolga in uno stato di crescita in cui i dividendi sono
supposti aumentare ad un tasso annuo, ritenuto costante, indicato con g. Quindi vale:
)1(
1
gDD
tt
Ne fa seguito una siffatta specificazione del prezzo:
ƒ
φ
1
1
)1(
)1(
i
i
it
t
t
r
gD
P
da cui si ricava la più familiare espressione:
)( gr
D
P
t
t
Il principale limite della versione a crescita costante, nota anche come modello di
Gordon, va individuato proprio nelle ipotesi che circondano il tasso g. Di fatto,
assumere che la politica di dividendo adottata dalla generica società rimanga inalterata,
per giunta su di un orizzonte temporale infinitamente lungo, è alquanto riduttivo. La
teoria finanziaria ha così sviluppato delle tecniche di valutazione alternative, più
complesse, sebbene non così tanto quanto la versione generalizzata, che prospettano una
crescita multiperiodale per stadi, ciascuno dei quali risulta contraddistinto da un
differente tasso di crescita dei dividendi. Partendo dal modello a due stadi, la teoria
propone una scissione dell’orizzonte temporale di riferimento in due segmenti, di cui il
primo esteso sino alla data T e caratterizzato dalla prevedibilità dei flussi, vedrà il
payout dell’impresa crescere ad un tasso arbitrariamente specificato pari a
1
g , mentre il
13
secondo, riconducibile ad uno stato stazionario, si protrarrà da T all’infinito in
condizioni di crescita costante ad un tasso perpetuo
2
g . Analiticamente varrà:
ƒ ƒ
φ
T
iTi
i
Ti
T
i
i
t
t
r
g
D
r
gD
P
11
21
)1(
)1(
)1(
)1(
Da cui:
≈
≈
…
≡
↔
↔
←
♠
÷
÷
≠
•
♦
♦
♥
♣
÷
≠
•
♦
♥
♣
2
21
1
1
1
1
1
1
1
)1(
gr
gg
r
g
gr
gD
P
T
t
t
Una maggiore articolazione si raggiunge prima con il modello di crescita a tre fasi e
successivamente con il lavoro di Fuller e Hsia del 1984, meglio noto come modello H.
In entrambi si assume l’esistenza di tre periodi, in corrispondenza dei quali i dividendi
si evolvono secondo diverse specificazioni di g. Più in dettaglio, se consideriamo il
modello a tre stadi, durante il primo periodo la crescita dei dividendi è segnata da un
tasso costante che indichiamo con
A
g , a cui fa seguito un secondo stadio evolutivo che
potremmo definire di transizione, caratterizzato dalla presenza di un saggio di crescita
che “salta” in modo discreto ad un valore
B
g che si manterrà fino all’inizio del terzo ed
ultimo periodo, che sarà a sua volta distinto da un tasso finale e perpetuo pari a
N
g . Più
verosimilmente si può ipotizzare che il tasso
A
g declini gradualmente verso il saggio di
stato stazionario
N
g lungo un periodo di ampiezza 2H, ovvero lungo un periodo durante
il quale il tasso di crescita si trova esattamente a metà via tra
A
g e
N
g dopo H anni.
Questo è l’assunto di base del modello di Fuller e Hsia in cui il prezzo del titolo oggetto
di analisi finisce per essere determinato come:
N
NAt
N
Nt
t
gr
ggD
gr
gD
P
)()1(
14
I presupposti dei modelli in parola possono essere estesi a comprendere un numero
arbitrariamente grande di stadi di ampiezza paria a
j
X , e perciò stesso di tassi di
crescita, nel qual caso si avrà un modello a crescita multipla propriamente detto, in cui il
valore intrinseco dell’investimento è calcolato come:
> ≅)(...)()()1(
2211 nnnnnn
N
t
t
ggXggXggXg
gr
D
P
I Dividend Discount Models forniscono un importante strumento per la produzione di
stime esplicite relative a prezzi e rendimenti dei titoli diffusi sui mercati finanziari che
come sappiamo, rappresentano gli input essenziali per il corretto apprezzamento della
profittabilità relativa dei diversi titoli.
Tuttavia la valenza pratica di un siffatto approccio è pregiudicata da alcuni limiti
teoretici che vanno dalle ipotesi poco realistiche su cui poggia, al fatto di non tenere in
considerazione alcune variabili rilevanti che sono al contrario largamente valorizzate dal
mercato, quali le informazioni contabili in senso lato. Tra i difetti maggiori rientrano poi
gli assunti intorno alla crescita dell’impresa, che in genere tende a presentare un
andamento erratico o nella migliore delle ipotesi ciclico, che molto si discosta dalla
semplicistica ipotesi di costanza di g sopra avanzata. Di fatto, il limite più
ragguardevole che restringe la validità teorica ma soprattutto empirica degli schemi
classici di valutazione, a cui afferisce tra gli altri la logica Dividend Discount, va
individuato sia nella difficoltà riscontrabile nella stima di un processo di dividendo
ragionevolmente continuo per tutti i titoli scambiati, sia nel valore che i partecipanti al
mercato attribuiscono a dati contabili di sintesi, gli utili in primis, e che nei modelli in
parola è del tutto trascurato.
Dunque, sebbene finalità pratiche richiedano una versione del DDM decisamente più
elaborata, la sua formulazione primitiva ha comunque il merito di fornire un
interessante strumento per l’analisi delle determinanti del valore, atto a mettere in
evidenza la dipendenza del fair value di un titolo dalla capacità reddituale dell’impresa,
dalla quale dipende in ultima analisi l’attitudine della società a distribuire dividendi.
Un’analoga relazione di proporzionalità diretta sussiste nei confronti del tasso di
crescita g, nella misura in cui uno sviluppo atteso sostenuto tende ad essere associato ad
15
un valore fondamentale più elevato. Infine nei precetti dei DDM trova conferma
l’esistenza di un legame inverso tra il profilo di rischio della società, apprezzato per
mezzo di una opportuna specificazione del tasso di sconto, e il fair value del titolo. Si
tratta di conclusioni di valenza generale, per certi aspetti intuitive, che ottengono una
prima razionalizzazione proprio grazie ai DDM.
Nonostante le critiche, spesso aspre, ricevute dai modelli in parola, essi hanno
comunque finito per rappresentare il punto di partenza di numerosi altri studi,
sicuramente meglio specificati, più articolati ed efficaci sul fronte della verosimiglianza,
ma tutti (o quasi) accomunati dal generale principio di identità tra prezzo e dividendi
attualizzati. Tra essi rientrano inevitabilmente le tecniche di pricing che saranno tra
breve presentate, le quali condividono una comune matrice neoclassica rincontrabile
nelle fondamenta dottrinali dei DDM.
La premessa alla base di questo lavoro è che lo sviluppo dei numerosi criteri di
valutazione che si sono via, via succeduti e la messa a punto di strumenti teorici
adeguatamente specificati consenta di giungere a delle ragionevoli stime di valore per la
gran parte dei titoli scambiati sui mercati dei capitali. Naturalmente, alcune attività
risultano più semplici da valutare di altre e i dettagli del processo di valutazione variano
da titolo a titolo, mentre il grado di incertezza associato alle singole stime risulta spesso
differente per attività differenti. A questo si aggiunga la molteplicità di elementi spesso
di difficile apprezzamento che influiscono sulla determinazione dei prezzi.
I modelli di pricing che ho preso in considerazione hanno in comune, come dicevo i
presupposti logici dei DDM, dai quali prendono successivamente le distanze attraverso
opportune rielaborazioni dei dati ritenuti rilevanti come indicatori di valore e attraverso
l’avanzamento di alcuni postulati di partenza fondamentali per la definizione delle
forme funzionali che in ultima analisi consentono il pricing del titolo.
Il primo tra i modelli si basa sul concetto di “utile anormale”, in genere utilizzato per
indicare una misura di performance che si compone dell’utile conseguito nell’esercizio,
al netto degli oneri sopportati a seguito dell’utilizzo del capitale impiegato nella
gestione caratteristica dell’impresa. Si tratta di un concetto che per la prima volta è stato
teorizzato dalla General Electric nel corso degli anni ’50, e che tuttavia, nonostante i
suoi pregi e l’ampio consenso ottenuto nella letteratura, ha per lungo tempo lasciato
quasi indifferente la folta schiera di professionisti impegnati nella spinosa questione