6
Introduzione
“Le previsioni sono estremamente difficili, specialmente sul futuro”. Questa
citazione dal senso ironico di Niels Bohr, celebre fisico danese le cui teorie risalgono
alla prima metà del Novecento, racchiude un concetto ancora molto attuale.
L’evoluzione della ricerca e dei sistemi di elaborazione, complice lo sviluppo di
nuove piattaforme informatiche, ha reso possibile un progressivo affinamento delle
tecniche previsionali e computazionali fino a livelli molto avanzati. Tuttavia, quando
si parla di previsioni, ancora oggi l’incertezza assume un ruolo predominante ed
imprescindibile. Ambire a prevedere esattamente il futuro è un lavoro da veggenti,
piuttosto che da studiosi. Di conseguenza, in campo finanziario, molti dei modelli
esistenti prevedono delle ipotesi semplificatrici che contrastano con le reali
condizioni dei mercati. Procedere in questo modo è necessario per assicurarne la
trattabilità analitica, ma allo stesso tempo comporta inevitabili imprecisioni a livello
di risultati. Per cui l’obiettivo ultimo si è spostato dalla ricerca della soluzione giusta,
alla ricerca della soluzione meno erronea. Si tratta di un compromesso che qualunque
modello previsionale deve accettare, per poter funzionare.
È mio interesse specificare che con questo discorso non si vuole affermare che non
esistano tecniche in grado di garantire risultati comunque validi, altrimenti tutto il
lavoro personale sviluppato in questa sede non avrebbe senso.
Tornando al concetto di imprevedibilità dei mercati finanziari, essa è stata
ampiamente dimostrata dalle vicissitudini turbolente degli ultimi anni. La crisi
finanziaria ha messo in luce tutte le debolezze presenti nell’operatività dei soggetti
partecipanti, sia da un punto di vista previsionale e, più in generale modellistico ex-
ante, che da un punto di vista di ricerca delle soluzioni ex-post. Nel tempo si è
sviluppato un meccanismo distorto basato sulla falsa credenza che gli eventi estremi
fossero sinonimo di eventi impossibili, in contrasto proprio con la tendenza del
tempo dell’affermarsi di modelli e tecniche sempre più improntati su misure di
rischio, quali il VaR o il downside-risk, costruiti in modo da enfatizzare proprio il
7
ruolo delle realizzazioni estreme. Nel momento in cui si è raggiunto il limite, il
meccanismo è collassato.
Lo spunto da cui nasce il tema di questo lavoro è basato sui precedenti ragionamenti,
ed in particolare sulla considerazione, a volte controversa, dell’importanza dei valori
statisticamente improbabili. In ambito statistico, gli eventi estremi sono rappresentati
dalle “code” della distribuzione probabilistica cui si fa riferimento, ossia dall’area,
sottesa alla funzione di densità, che si discosta maggiormente dal suo baricentro,
inteso come valore medio. Pertanto, dalla forma di queste “code”, si ricava una
misura probabilistica di rilevanza degli eventi estremi.
I modelli a supporto dei processi finanziari, molto spesso, presentano l’ipotesi di
distribuzione gaussiana dei rendimenti, nel senso che la struttura probabilistica delle
serie storiche dei rendimenti segue una funzione di tipo Normale. In questo modo si
semplificano notevolmente gli aspetti analitici garantendo risultati sufficientemente
validi. Tuttavia, il limite maggiore in questo caso consiste nella forma della
distribuzione Normale, che presenta una sagoma fissa, modellabile solamente su un
piano bidimensionale valore medio-varianza. Inoltre l’ipotesi di normalità dei
rendimenti è attualmente rigettata in numerosi studi empirici, secondo i quali le
distribuzioni empiriche delle serie storiche finanziarie seguono, nella gran parte dei
casi, delle forme fat-tailed e skewness-based. Di conseguenza, utilizzare un modello
probabilistico di tipo gaussiano, con “code” mesocurtiche e asimmetria nulla,
comporta delle imprecisioni nella costruzione dei modelli, soprattutto a livello di
peso assegnato agli eventi estremi.
La mia idea è quella di approfondire inizialmente il discorso probabilistico,
sviluppando uno studio basato sugli higher moments della distribuzione dei
rendimenti, con l’obiettivo di specificare in modo maggiormente preciso la loro
struttura probabilistica. A tal fine sarà necessario fare riferimento a modelli
probabilistici avanzati che garantiscano la possibilità di trattare la forma della
distribuzione su un piano quadridimensionale di media, varianza, asimmetria e
curtosi. Personalmente ho trovato delle soluzioni interessanti nella famiglia di
distribuzioni note con il nome di Normal mean-variance mixtures, che ritengo adatte
ai suddetti scopi. Non a caso, esse sono state già oggetto di studi in campo
finanziario, anche se soprattutto a livello di pricing dei prodotti derivati. Le ricerche
8
personali effettuate fino a questo momento non hanno riscontrato applicazioni
specifiche paragonabili all’ambito di questo lavoro. Nel capitolo 2, quindi, si
offriranno dei cenni statistici riferiti all’ambito multivariato ed alla costruzione di tali
distribuzioni, con lo scopo di inquadrare il problema modellistico. Queste
considerazioni saranno utili per sviluppare il lavoro empirico proposto nell’ultimo
capitolo, in quanto sarà richiesta la simulazione di un gran numero di campioni
statisticamente probabili. Individuare il modello maggiormente appropriato in questo
contesto è fondamentale per ottenere dei risultati sufficientemente precisi.
Ricordando che il fine ultimo di questo lavoro è proporre un metodo approfondito di
costruzione di portafogli di investimento, il primo capitolo sarà quindi destinato alla
descrizione delle principali tecniche e dei modelli di portfolio allocation
maggiormente diffusi in letteratura e nell’operatività degli asset manager. Si seguirà
pertanto un filo evolutivo che partirà dal modello di Markowitz, spesso riconosciuto
come fondamento dell’asset management, per poi analizzare le successive
integrazioni o soluzioni alternative ad esso sviluppate nel tempo. In particolare sarà
descritto il metodo del Resampling, che costituirà il modello di riferimento su cui
sarà costruita l’analisi empirica del terzo capitolo. L’obiettivo è quello di porre le
basi per la costruzione di un portafoglio valido, sia dal punto di vista della
ragionevolezza dei risultati, che da un punto di vista rigoroso.
Per concludere, nel terzo capitolo sarà proposta una applicazione personale dei
concetti fin qua esposti. La considerazione degli higher moments della distribuzione
comporterà delle complicazioni analitiche del problema, sia nella prima fase di
simulazione degli scenari, che nella seconda fase di ottimizzazione
quadridimensionale. In particolare, nella fase finale del lavoro, presenterò una
soluzione personale per la derivazione della frontiera ricampionata, non ancora
riscontrata nei testi attualmente presi in considerazione. Questo perché, come sarà
spiegato successivamente, le soluzioni tradizionali prevedono l’utilizzo di parametri
per la quantificazione delle preferenze dell’investitore, il che contrasta con
l’impronta generale su cui è costruito questo lavoro.
Osservando le considerazioni fatte fino a questo momento, sarà necessario mostrare
se, a fronte di queste complicazioni dal punto di vista analitico, i vantaggi ottenuti in
termini di risultati saranno validi. In poche parole, il gioco vale la candela?
9
Capitolo 1
I principali modelli di Asset
Allocation
1.1 Introduzione
Nell’ultimo decennio abbiamo assistito ad un forte incremento nell’utilizzo dei
prodotti di investimento mobiliare, anche da parte di operatori non qualificati. Uno
dei principali motivi cui è attribuibile questa tendenza è la diffusione di strumenti
informatici di massa che ha reso possibile l’accesso immediato ai mercati finanziari
da parte di chiunque. Oggi, molti individui, che già da tempo hanno preso coscienza
del fatto che detenere liquidità infruttifera è inefficiente, non si accontentano più di
affidare passivamente i propri risparmi ad un istituto finanziario, ma hanno la volontà
di selezionare in maniera indipendente le opportunità di investimento maggiormente
adeguate al proprio profilo. Dal lato dell’offerta di strumenti finanziari, la necessità
di accontentare ogni possibile esigenza degli investitori ha determinato la nascita di
una vasta gamma di prodotti finanziari, più o meno articolati. Ma proprio a causa di
questa evoluzione dimensionale è improbabile riuscire ad orientarsi all’interno dei
mercati finanziari senza un adeguato supporto qualificato. Per questo motivo esistono
delle figure professionali che svolgono la funzione di intermediario. Una di queste è
l’asset manager, ossia il soggetto che si incarica di costruire portafogli di
investimento, tramite un mix composto dalle diverse asset class di prodotti finanziari.
10
La logica che si segue in questo approccio è quella di apportare un valore aggiunto
all’aggregato, tale per cui la valutazione del portafoglio intero risulti maggiore della
somma del valore delle singole attività in esso contenute, mediante una suddivisione
efficiente delle risorse in termini di rendimento e rischio.
La volontà di sovraperformare il mercato per ottenere dei rendimenti straordinari ha
portato a sviluppare una gran quantità di teorie e modelli nel tempo. Ma l’incertezza
che guida i fenomeni finanziari sembra dimostrare, al contrario, che questo obiettivo
non sia perseguibile. Ad iniziare dagli anni ’50 abbiamo evidenza di studi che
analizzano l’imprevedibilità del mercato, grazie al contributo di Kendall (1953), il
quale suggerisce, per la prima volta, la possibilità che i mercati finanziari siano
governati da un andamento puramente casuale. Successivamente si ha una
formalizzazione dello stesso concetto in Cootner (1964). Con questi lavori si
aprirono le porte ad un successivo filone di studi che portò alla definizione delle
teorie dell’efficienza dei mercati e della random walk hypothesis. La teoria dei
mercati efficienti è dovuta a Fama (1970), che prende spunto proprio dal suddetto
articolo di Kendall. Secondo Fama, i mercati dei capitali presentano evidenza di
efficienza, almeno in senso debole. Ciò implica il fatto che le serie storiche degli
asset riflettano istantaneamente tutte le informazioni pubblicamente accessibili.
Qualsiasi forma di efficienza del mercato implicherebbe, pertanto, l’impossibilità di
prevedere il futuro, in quanto i prezzi giornalieri si muoverebbero secondo andamenti
puramente casuali (random walk), che presentano media nulla ed hanno la
caratteristica di essere non stazionari. Ciò significa che, in qualsiasi istante di tempo
t, la migliore previsione per il prezzo degli asset in t+1 è proprio il prezzo al tempo t.
Dal momento che in base a questa teoria non è possibile fare previsioni, nessun
operatore del mercato finanziario può ambire ad ottenere rendimenti in eccesso
rispetto al mercato, in maniera costante, tramite l’attività di trading. In poche parole,
il mercato è un fair game, che segue la stessa logica delle lotterie: se si ottengono dei
risultati positivi, ciò avviene solo per mera casualità.
Un ulteriore contributo letterario a sostegno dell’efficienza dei mercati è dovuta a
Malkiel (1973), basato proprio sulla teoria di Fama. Nel suo elaborato si mostra
come le più diffuse tecniche di trading come l’analisi tecnica e l’analisi
fondamentale portino ad ottenere dei risultati addirittura inferiori rispetto al mercato.
11
Parallelamente a questo filone, in quegli anni, si sviluppa una corrente di pensiero
che porterà alla definizione di importanti teorie note come Modern Portfolio Theory
(MPT)
1
. Il suo ideatore, Harry Markowitz, in un articolo risalente al 1952, espresse
lo studio della asset allocation in termini di un problema di ottimizzazione
matematica. È necessario specificare che i concetti formulati nel suo lavoro non
possono essere considerati del tutto innovativi
2
, tuttavia il suo merito si afferma nel
fatto che egli spostò l’obiettivo dell’investitore da un piano unidimensionale di
esclusiva massimizzazione del rendimento atteso, ad un piano bidimensionale di
massimizzazione del rendimento atteso, per ogni determinato livello di rischio. E lo
strumento utilizzato per risolvere il problema è l’ottimizzazione matematica.
Da Markowitz in poi, il mondo teorico e professionale riguardante l’asset allocation
si divise tra i sostenitori dei metodi quantitativi a supporto della costruzione di
portafoglio, ed i sostenitori dei metodi essenzialmente qualitativi.
In questo capitolo tratterò inizialmente alcuni elementi di Portfolio Theory, allo
scopo di porre le basi necessarie per interpretare i modelli che saranno descritti
successivamente. Ogni particolare modello di asset allocation sarà affiancato da un
esempio pratico in grado di chiarire le divergenze ed analogie rispetto agli altri,
meglio di qualsiasi concetto teorico.
1
La teoria di portafoglio sarà descritta in particolare nel paragrafo 1.2.
2
Roy (1952) sviluppa un processo di costruzione di portafoglio basato sulla combinazione media-
deviazione standard molto simile al lavoro di Markowitz. A detta di quest’ultimo, il suo paper ebbe
più successo molto probabilmente perché il suo nome era già conosciuto nel mondo della finanza
grazie ad altri contributi, a differenza di quello di Roy.
12
1.2 Elementi di Portfolio Theory
Le origini della moderna teoria di portafoglio risalgono al 1952, anno in cui Harry
Markowitz pubblica il suo articolo “Portfolio Selection”
3
. Il lavoro di Markowitz
formalizza un metodo di costruzione dei portafogli di investimento basato su un
approccio innovativo, che seleziona la combinazione ottimale delle asset class di
portafoglio mediante un calcolo matematico. Fino all’introduzione di questo
concetto, infatti, gli approcci maggiormente utilizzati per l’asset management si
focalizzavano su analisi prettamente qualitative. Anche tramite essi si era in grado di
raggiungere risultati validi, tuttavia non si aveva la certezza data dal rigore
matematico. Un ulteriore elemento di innovazione riconosciuto al lavoro di
Markowitz è la considerazione che egli attribuisce al ruolo della diversificazione.
Nonostante egli non fosse stato il primo a parlare di tale idea
4
, l’autore è spesso
indicato come “il padre della diversificazione”; il vero merito di Markowitz, in
realtà, fu quello di applicare il concetto ad un ambito di costruzione di portafoglio
basato sull’analisi media-deviazione standard. L’ipotesi di fondo è che, essendo il
portafoglio costituito da asset class non perfettamente correlate tra loro, è possibile
ridurre il rischio tramite una combinazione dei titoli in grado di compensare le
asincronie esistenti. Questo tipo di rischio, detto specifico, è riconducibile alle
caratteristiche peculiari dei mercati stessi. Si differenzia dal cosiddetto rischio
sistematico, che riguarda l’intera economia, e per il quale la diversificazione non ha
effetto. Il portafoglio ottimale, allora, è quello che massimizza il rendimento, dato un
certo livello di rischio.
Vediamo nel dettaglio l’analisi effettuata da Markowitz, iniziando dalle ipotesi del
modello:
1. Gli investitori sono avversi al rischio ed il loro obiettivo è quello di
massimizzare il rendimento finale.
2. Il periodo di investimento è unico.
3. Assenza di costi di transazione e di imposte.
3
Per maggiori informazioni si veda Markowitz (1952).
4
Si hanno contributi in tal senso risalenti addirittura al diciottesimo secolo, con i lavori di Daniel
Bernoulli. Cfr., ad esempio, Bernoulli (1738).
13
4. Le attività sono perfettamente divisibili.
5. Il mercato è perfettamente concorrenziale.
6. Le decisioni sono prese sul piano valore atteso-deviazione standard.
Nel considerare determinanti per la scelta solo i momenti primo e secondo della
distribuzione dei rendimenti, si riscontra un’ipotesi implicita importante: nel modello
i rendimenti si distribuiscono secondo una funzione gaussiana. Tale ipotesi è
irrealistica, infatti molti risultati della letteratura empirica dimostrano che i
rendimenti seguono generalmente l’andamento di una funzione leptocurtica,
descrivendo il fenomeno delle “fat tails”
5
. Tra i contributi legati a questo argomento
si segnalano Mandelbrot (1963), Fama (1965), Arditti (1967) e Eftekhari & Satchell
(1996).
È importante sottolineare che il fatto di esprimere le preferenze dell’investitore in un
piano bidimensionale media-varianza è solo uno dei tanti modi esistenti. Si potrebbe
sostenere in particolare che il rischio debba essere misurato in modi differenti dalla
varianza, quali il VaR, il downside risk o la expected utility rule
6
. Altri rami della
finanza si concentrano proprio sull’utilizzo di queste grandezze. Tuttavia,
nell’ambito della modern portfolio theory, un’attività finanziaria si considera tanto
più rischiosa quanto più elevata risulta la probabilità che i rendimenti futuri si
disperdano rispetto alla media stimata
7
.
Tornando al modello di Markowitz, è possibile esprimere il principio media-varianza
(M-V) secondo il quale, dati due portafogli A e B, con rendimenti attesi
ed
5
Il momento quarto, la curtosi, misura lo spessore delle “code” asintotiche di una distribuzione. La
funzione normale ha una forma campanulare simmetrica, e presenta un valore della curtosi pari a 3.
Pertanto, una distribuzione si dice leptocurtica se presenta un valore della curtosi maggiore di 3;
graficamente presenterà delle code più spesse. Si dice invece platicurtica se mostra delle code sottili
ed un valore minore di 3.
In finanza, le serie storiche dei rendimenti evidenziano generalmente caratteristiche leptocurtiche; ciò
significa che gli eventi estremi hanno maggiore probabilità di verificarsi rispetto al caso gaussiano.
L’argomento sarà ripreso nel Capitolo 2.
6
Per quanto riguarda la expected utility rule, non si tratta di un vero e proprio modello alternativo, ma
ciò che differisce è la teoria di fondo. Si può comunque trovare una equivalenza tra criterio media-
varianza e utilità attesa, facendo uso di funzioni di utilità che vadano a considerare solo quei due
parametri, come la funzione quadratica. Per ulteriori dettagli si veda Saltari (1997).
7
Sull’argomento si veda anche Sortino & Forsey (1996), che imputano la maggiore irragionevolezza
nell’uso della deviazione standard, come misura di rischio, al fatto che essa penalizzi allo stesso modo
le deviazioni positive e negative.
14
e rischi attesi
e
relativi allo stesso orizzonte temporale t, il portafoglio
A domina il portafoglio B se:
In cui una delle due disuguaglianze è stretta.
I portafogli dominanti in base al criterio M-V sono definiti portafogli efficienti.
Il rendimento ed il rischio di un titolo al tempo T sono grandezze che è possibile
misurare sia ex-ante, in termini di valori attesi, che ex-post, in termini di valori
realizzati. Per un generico titolo X si ha:
Dove
è il rendimento i-esimo del titolo X, e
è la probabilità che esso si
verifichi.
Disponendo di un campione di N osservazioni relative alla serie storica dei
rendimenti di un asset, la teoria statistica offre uno stimatore corretto, efficiente e
consistente del rendimento atteso nella media del campione
8
:
dove
è la i-esima osservazione sul titolo X.
La varianza è calcolata come momento scarto quadratico dalla media:
Uno stimatore corretto e consistente della varianza è:
8
Per maggiori dettagli su stimatori corretti, efficienti e consistenti si veda Piccolo (2010).
15
Sarà utile ricorrere ad una misura alternativa di rischio, la deviazione standard,
calcolata come radice quadrata della varianza:
Questo perché seguirò l’approccio utilizzato in Pomante (2008), che personalmente
considero molto intuitivo e di immediata applicabilità. Egli utilizza come misura di
rischio proprio la deviazione standard, poiché considerata una misura più facilmente
interpretabile rispetto alla varianza.
Spostando il precedente discorso a livello di portafoglio, il quale risulta composto da
una moltitudine di elementi, non sarà più sufficiente la stima di singoli parametri, ma
sarà necessario il calcolo di parametri aggregati. Oltretutto bisognerà considerare
anche gli eventuali legami di dipendenza tra i diversi elementi del portafoglio.
Vediamo una formulazione in termini matriciali. Scelti gli n asset con cui comporre
il portafoglio, gli input da stimare sull’orizzonte temporale t sono:
1. gli n rendimenti attesi:
2. le n deviazioni standard:
16
3. gli coefficienti di correlazione lineare
9
tra le coppie di
parametri:
La matrice rappresenta tutte le possibili interazioni lineari tra gli asset. Ogni
riga mostra l’i-esimo titolo ed ogni colonna il j-esimo. L’elemento generico
della matrice è
. La diagonale principale è unitaria poiché la correlazione
di un titolo con sé stesso è pari ad 1.
4. la matrice delle varianze-covarianze
10
:
9
Il coefficiente di correlazione lineare di Bravais-Pearson è una misura che mostra l’esistenza di
legami di dipendenza tra i parametri. È una grandezza che assume valori nell’intervallo [-1, +1] e si
calcola con la seguente formula:
Un risultato di ρ = 0 indica che i due titoli sono incorrelati tra loro. È bene specificare che ciò non
implica l’indipendenza, pertanto potrebbero esserci in ogni caso legami non lineari tra essi.
Se ρ = 1 i titoli sono perfettamente correlati, nel senso che presentano medesime fluttuazioni nel
tempo. Infine, un ρ = -1 indica che vi è correlazione negativa perfetta, nel senso che gli andamenti nel
tempo sono esattamente speculari.
Di notevole interesse è l’interpretazione geometrica del coefficiente
. Se esprimiamo x e y come
due vettori
e
che rappresentano le coordinate di due punti nello
spazio
, allora ρ misura il coseno dell’angolo tra i due vettori. Nel momento in cui ρ = 0, significa
che i punti sono ortogonali rispetto all’origine. Per ulteriori approfondimenti si veda Piccolo (2010).
10
Conoscendo il vettore ϭ delle deviazioni standard e la matrice ρ delle correlazioni, è possibile
calcolare V tramite il loro rapporto, nel modo seguente:
In cui diag(ϭ) è una matrice diagonale contenente i valori del vettore ϭ:
17
V è una matrice simmetrica di dimensione n x n che presenta sulla diagonale
le varianze
11
degli asset del portafoglio, mentre al di fuori della diagonale vi
sono i termini di covarianza.
Dati questi parametri di input, l’ottimizzazione restituisce il vettore dei pesi assegnati
ad ogni attività finanziaria sul totale, calcolato come allocazione ottimale:
Sotto la condizione fondamentale:
Una volta ottenute le stime di questi parametri si può
procedere con il calcolo degli indicatori di portafoglio:
Analogamente, in termini matriciali:
11
Ricordiamo che Cov(x,x) = Var(x), quindi
. Inoltre, la matrice è simmetrica in quanto
.
18
Ed anche:
Tramite questo processo, e data l’assunzione di attività perfettamente divisibili,
possiamo arrivare a costruire un insieme infinito di portafogli dalle composizioni
diverse. Ognuno di essi presenterà valori propri di rendimento e rischio attesi,
determinando la natura eterogenea dell’insieme.
Data la definizione delle preferenze dell’investitore vista inizialmente, il set di
possibili portafogli tra cui l’investitore può scegliere, è dato dai portafogli dominanti,
ossia quelli che presentano rendimento massimo per ogni dato livello di rischio
(oppure, analogamente, presentano rischio minimo per ogni dato livello di
rendimento). Tale insieme vincolato è indicato come frontiera efficiente.
Si può facilmente ottenere una rappresentazione grafica della frontiera efficiente. Per
fare questo considererò un esempio di combinazione di due titoli rischiosi, in un
contesto di vendite allo scoperto non permesse
12
.
Indichiamo con:
e
le percentuali del portafoglio investite rispettivamente nel titolo A e
nel titolo B. Si ipotizza di investire tutta la ricchezza disponibile, di
conseguenza:
, oppure
;
e
i rendimenti attesi delle attività A e B.
È immediato calcolare il rendimento atteso del portafoglio nel seguente modo:
12
Si può facilmente estendere il discorso ad un contesto in cui le vendite allo scoperto sono ammesse,
ma, data la natura puramente esemplificativa del discorso, non lo tratterò. Per il caso di vendite allo
scoperto permesse si veda, ad esempio, Elton et al. (2007).
19
E la deviazione standard di portafoglio:
Ricordando che
si sostituisce nella formula:
È possibile notare che il parametro che incide in modo fondamentale su
è proprio
. Se supponiamo che le attività siano perfettamente correlate (ρ = 1) otterremo il
rischio di portafoglio come combinazione lineare del rischio di A e del rischio B, in
quanto il termine sotto radice diventa un quadrato di binomio:
In questo caso le combinazioni delle due attività giacciono su una linea retta (fig.
1.1), e non si ricava alcun beneficio dalla diversificazione.
Al contrario, se consideriamo un coefficiente di correlazione perfettamente negativo
(ρ = -1), si ottiene una delle seguenti espressioni:
Esse danno luogo a due linee rette sul piano rendimento-rischio di portafoglio (fig.
1.1), una per ogni equazione.
Tutte le possibili combinazioni tra i titoli, quando è presente un grado di correlazione
intermedio tra gli estremi visti in precedenza, ossia -1 < ρ < +1, generano la frontiera
efficiente. Graficamente essa è rappresentata da una curva concava, che va da un