Capitolo 1
VENTICINQUE ANNI DI RICERCA SULLE SERIE STORICHE
- Lo stato dell’arte -
In questo primo capitolo si focalizza lo stato attuale della ricerca in merito alla
problematica dell’analisi e delle previsioni nell’ambito delle serie storiche. In
particolare si concentra l’attenzione sui metodi basati sullo smorzamento esponenziale
(Exponential Smoothing) e sui modelli ARIMA.
1.1 – Smorzamento Esponenziale
1.1.1 – Introduzione e cenni storici
Venticinque anni fa le metodologie di smorzamento esponenziale erano considerate una
collezione di tecniche ad hoc per l’estrapolazione di vari tipi di dati da serie univariate.
Benchè questi modelli siano stati largamente utilizzati nel campo commerciale e
industriale, hanno ricevuto scarse attenzioni dagli statistici e non sono stati
implementati a dovere da questi ultimi.
Tali metodi nascono fra gli anni ’50 e ’60 grazie al lavoro di Brown (1959,1963) , Holt
(1957) e Winters (1960). Altri studi sono stati quelli svolti da Pegels (1969) e Muth
(1960). Il primo svolse una semplice ma utile classificazione dei principali pattern di
trend e stagionalità a seconda che si abbia a che fare con casi lineari (modelli additivi) o
non lineari (modelli moltiplicativi) mentre Muth fu il primo a suggerire agli statistici il
metodo dello Smorzamento Esponenziale Semplice (SES-Simple Exponential Smoothing)
dimostrando come questo generi le migliori previsioni per una serie ad andamento
casuale (Random walk).
Ulteriori passi in avanti per l’inserimento dei metodi SES nell’ottica statistica si devono
a Box e Jenkins (1970), Roberts (1982), Abraham e Ledolter (1983, 1986) i quali
mostrarono come molte previsioni realizzate con gli smorzamenti esponenziali nascano
da casi speciali dei modelli ARIMA. Tuttavia questi risultati non sono sempre stati
estendibili a casi di smorzamento esponenziale non lineari.
6
La maggior parte del lavoro svolto negli anni ’80 ha coinvolto: lo studio delle proprietà
empiriche di questi metodi, proposte di nuovi parametri di stima, inizializzazione e
valutazione delle previsioni.
In materia di smorzamenti esponenziali i metodi più noti sono:
- SES (senza trend e stagionalità)
- Metodo di Holt lineare (con componente di trend additiva priva di stagionalità)
- Metodo di Holt-Winters additivo (con trend e stagionalità additivi)
- Metodo i Holt-Winters moltiplicativo (trend additivo e stagionalità moltiplicativa)
1.1.2 – La validità della previsione
Le buone performance di previsione dei metodi precedentemente citati sono state
valutate da importanti autori.
Satchell e Timmermann (1995) e Chatfield et al. (2001) hanno dimostrato come il SES sia
ottimale quando si ha a disposizione un ampio range di dati. In un breve studio
simulativo , Hyndman (2001) mostrò che il SES si comporta meglio di un modello ARIMA
del primo ordine soprattutto quando i dati sono distribuiti non normali anche perché non
è soggetto a problemi di modellizzazione e stima.
1.1.3 – La finestra temporale di previsione
Una delle critiche che hanno accompagnato i modelli SES nell’arco di questi 25 anni
riguarda il fatto che non vi sia mai stato alcun modo per definire intervalli previsionali.
Il primo approccio analitico è stato quello di ritenere che la serie storica sia generata da
funzioni di tipo deterministico con l’aggiunta di una componente White noise o Rumore
bianco (nella stesura di questa tesi si approfondirà meglio questo concetto) (Brown,
1963; Gardner, 1985; McKenzie, 1986; Sweet, 1985). Se così fosse allora sarebbe stato
conveniente l’utilizzo di metodi di regressione piuttosto che i modelli a smorzamento
esponenziale ; così , Newbold e Bos (1989) criticarono con forza tutti gli approcci basati
su queste ipotesi.
Altri autori invece hanno cercato di trovare intervalli di previsione attraverso
l’equivalenza tra metodi a lisciamento esponenziale e modelli statistici.
Johnston e Harrison (1986) trovarono delle discrepanze nelle previsioni fatte con il SES e
il metodo di Holt con l’introduzione di molte fonti di errore. Yar e Chatfield (1990)
ottennero intervalli di previsione per il metodo di Holt-Winters nella versione additiva
derivando i modelli ARIMA equivalenti.
7
1.2 – Modelli ARIMA
1.2.1 – Introduzione e cenni storici
I primi tentativi di studio delle serie temporali sono stati generalmente caratterizzati
dall’idea di un mondo “deterministico”. E’ stato il grande contributo di Yule (1927) a
lanciare la nozione di “stocasticità” e quindi a presupporre che ogni serie storica possa
essere considerata come la realizzazione di un processo stocastico. Da allora, sulla base
di questa idea, sono stati sviluppati metodi alternativi a quelli basati sullo smorzamento
esponenziale.
Studiosi come Slutsky, Walker, Yaglom e Yule formularono prima di tutto il concetto di
modello autoregressivo (AR) e di modello a media mobile (MA). Da allora gran parte
delle letteratura si è dedicata a questa problematica. Di grande interesse la
pubblicazione Time series analysis: Forecasting and control del 1970 ad opera di Box e
Jenkins che supporta questa linea di studio e ha permesso agli autori di presentare la
loro famosa procedura di identificazione, stima e verifica dell’appropriatezza di dato un
modello.
Anche il libro di questi famosi autori ha avuto un enorme impatto nella teoria e nella
pratica delle analisi e previsioni relative alle serie storiche.
Con l’avvento dei Personal Computer, che consentono una maggiore facilità nella
gestione delle informazioni, è pubblicizzato l’uso dei modelli autoregressivi integrati a
media mobile (Autoregressive integrated moving average ARIMA) in molti settori
scientifici. Va sottolineato che spesso gli studi fatti su questi modelli sono stati di natura
empirica utilizzando uno o più metodi di riferimento per fare confronti.
Il successo della metodologia introdotta da Box e Jenkins è fondato sul fatto che i vari
modelli possono, tra loro, simulare in modo adeguato il comportamento di diversi tipi di
serie, senza richiedere un numero eccessivo di parametri.
Da allora molte tecniche e metodologie sono state proposte ad aggiungere un rigore
matematico per il processo di ricerca di un modello ARMA o ARIMA, uno dei più famosi è
il criterio di Akaike (AIC). Questi criteri introducono un termine di “penalità” in funzione
dell’errore di previsione e consentono quindi di confrontare più modelli al fine di
scegliere quello migliore.
E’ importante sapere come esistano metodi (cf. Box et al.1994) per stimare i parametri
di un modello ARMA, questi, si dice che siano “equivalenti asintoticamente” nel senso
che tendono a fornire delle stime con la stessa distribuzione pur essendoci grandi
8
differenze nelle loro proprietà. In uno studio comparativo effettuato, con diversi
pacchetti software, da Newbold, Agiakloglou e Miller (1994) è stato dimostrato che
queste differenze sono abbastanza evidenti e di conseguenza influiscono parecchio sulla
previsione. Per questo motivo i suddetti autori raccomandano l’uso del criterio di
massima verosimiglianza (Maximum Likehood). L’effetto che un certo parametro di
stima può avere sull’errore di previsione è stato notato e segnalato anche da Zellner
(1971), il quale attraverso un analisi Bayesiana ha ottenuto una serie di previsioni
trattando i parametri di un modello ARMA come variabili casuali.
1.2.2 – Stagionalità
L’approccio più vecchio alla gestione della stagionalità nelle serie storiche è la
procedura di destagionalizzazione X-11. Nel corso degli ultimi 25 anni il metodo X-11 e
le sue varianti (compresa la sua versione più recente X-12-ARIMA , Findley, Monsell,
Campana, Otto, & Chen, 1998) sono state studiate intensamente.
Una linea di ricerca ha preso in considerazione l’effetto dell’uso della previsione come
verifica della procedura di destagionalizzazione. Per esempio, Dagum (1982) e Huot,
Chiu, e Higginson (1986) hanno esaminato l’effetto di una previsione con il metodo X-11-
ARIMA per ridurre la dimensione delle revisioni di destagionalizzazione dei dati, mentre
Pfeffermann, Morry, e Wong (1995) hanno studiato questo fenomeno sulla varianza dei
dati destagionalizzati con componenti di trend.
Diversi articoli testimoniano gli studi fatti sulla comparazione di più modelli stagionali.
Chen (1997) ha valutato la “robustness” di vari modelli come quelli di regressione
stagionale, ARIMA stagionali (SARIMA) e modelli di Holt-Winters, giungendo alla
conclusione che gli ultimi due sono sicuramente i più affidabili.
Noakes, McLeod, e Hipel (1985), Albertson e Aylen (1996), Kulendran e King (1997), e
Franses e Van Dijk (2005) compararono le performance delle previsioni di diversi modelli
stagionali applicati a dati reali. I risultati migliori non sono stati ottenuti da un singolo
modello ma da più metodi, a seconda della natura dei dati e da come si sono impostati i
parametri del modello.
9
1.2.3 – Intervalli di previsione
L’utilizzo di intervalli previsivi e, più recentemente, della densità di previsione è
diventato sempre più comune nell’arco di questi 25 anni ed è stato produttivo per
rivelare i limiti di alcuni modelli. Un’importante e profonda revisione su tale argomento
è stata fornita da Chatfield (1993) che riassume la letteratura di questo periodo.
Purtroppo, vi è ancora un po’ di confusione nella terminologia con molti autori che
utilizzano “intervallo di confidenza” invece di “intervallo di previsione”. Un intervallo di
confidenza si utilizza nei modelli parametrici mentre si parla di un intervallo
previsionale quando si ha a che fare con una variabile casuale. In gergo statistico si
potrebbe anche affermare che un intervallo di previsione si rapporta ad una
osservazione futura allo stesso modo in cui un intervallo di confidenza si rapporta ad un
parametro inosservabile della popolazione. Gli intervalli di previsione predicono la
distribuzione di punti individuali, mentre gli intervalli di confidenza stimano la vera
media della popolazione o altre qualità di interesse che non possono essere osservate.
La maggior parte dei modelli sono basati sull’intervallo di previsione delle serie
temporali e non viene rappresentata l’incertezza legata alla selezione del modello e alla
stima dei parametri. Parte considerevole della ricerca ha cercato di portare questi
modelli ad avere una copertura e veridicità sempre più realistica.
In una serie di articoli e documenti si utilizzano dei metodi detti di “Bootstrap” al fine
di calcolare i più opportuni intervalli di previsione per un dato modello.
I principali sono:
- modello AR (Masarotto 1990, Grigoletto 1998, McCullough 1994,1996, Clements e
Taylor 2001);
- modello ARIMA (Pascual, Romo, & Ruiz, 2001, 2004, 2005; Wall & Stoffer, 2002);
- modelli di regressione (Lam & Veall, 2002).
Il Bootstrap è una tecnica statistica di ricampionamento per approssimare la
distribuzione campionaria di una variabile. Permette perciò, di approssimare media e
varianza di uno stimatore, costruire intervalli di confidenza e calcolare p-values di test
quando, in particolare, non si conosce la distribuzione della statistica di interesse.
1.2.4 – Uno sguardo al futuro
Nei precedenti paragrafi, sono stati descritti i passi fondamentali che hanno
caratterizzato la storia delle serie temporali, nella speranza che passato e presente
possano far luce sul futuro.
10
In tal modo, è interessante riflettere sulle proposte per la ricerca identificate in una
raccolta di articoli e pubblicazioni di Ord, Cogger e Chatfield pubblicati più di 15 anni
fa. Chatfield (1988) sottolineò la necessità di sviluppare metodi multivariati con
l'auspicio di renderli più di una semplice idea. Ord (1988) rimanendo sulla stessa linea di
pensiero segnalò che gran parte del lavoro doveva essere fatto su più modelli di serie
temporali, compresi quelli di lisciatura esponenziale multivariata.
Diciotto anni più tardi, l’analisi previsionale multivariata delle serie temporali non è
stata ancora implementata a dovere nonostante i notevoli progressi teorici in questo
settore. Si ha il sospetto che alla base di ciò ci siano principalmente due cause: la
mancanza di ricerca empirica su robusti algoritmi di previsione per modelli multivariati,
e quella di software facile da usare. Alcuni dei metodi che sono stati suggeriti (e.g.,
modelli VARIMA) sono difficili da stimare a causa del gran numero di parametri coinvolti.
Altri, come ad esempio quelli di lisciatura esponenziale multivariata, non hanno ricevuto
concetti teorici e applicativi sufficienti per poter essere sviluppati.
Ord (1988) ha anche indicato la necessità di una più profonda ricerca nei metodi di
previsione basati su modelli non lineari. Anche se molti aspetti di questi metodi sono
stati oggetto di indagine in letteratura, essi meritano ulteriore attenzione. Per esempio,
non è ancora chiaro il motivo per cui le previsioni attuate con modelli non lineari
sovrastimino quelle dei modelli lineari (v., ad esempio, Stock & Watson, 1999). Altri
temi suggeriti da Ord (1988) evidenziano la necessità di mettere a punto le procedure di
selezione del modello che rendano chiari i meccanismi che generano la serie e di
specificare gli obiettivi e la qualità delle previsioni che si vogliono conseguire.
Questi settori hanno ancora bisogno di attenzione e c’è la speranza che la ricerca futura
contribuirà con opportuni strumenti a risolvere questi problemi.
Negli ultimi anni anche le serie storiche a distribuzione non gaussiana hanno cominciato
a ricevere una notevole attenzione e i relativi metodi di previsione sono lentamente in
fase di crescita. Una particolare zona di questa classe di serie che ha importanti
applicazioni sono quelle discrete a valori esclusivamente positivi. Tali dati sono molto
comuni in campo industriale, e ci sono molti problemi pratici e teorici irrisolti associati
alle metodologie di previsione; pertanto, ci si aspetta nel prossimo futuro una fase
molto produttiva della ricerca in questo settore, anche grazie alla disponibilità di grandi
set di dati e di computer sempre più ad elevata potenza.
Guardando indietro, la tematica previsionale è molto diversa da quella che era 25 anni
11
fa. Essa si è sviluppata con l'avvento di una maggiore potenza di calcolo, migliori modelli
statistici e approcci più maturi per la valutazione della previsione.
Ma c’è ancora molto da fare, con problemi tuttora irrisolti e altri che ne conseguiranno.
12
Capitolo 2
MODELLI PREVISIONALI PER L’ANALISI DELLE SERIE STORICHE
Questo capitolo si propone di descrivere e analizzare i principali contenuti teorici ed
applicativi che risiedono alla base dell’analisi delle serie storiche.
2.1 - Introduzione e generalità sul concetto di serie storica
Si definisce serie storica (Time Series) un insieme ordinato di numeri reali che misura un
certo fenomeno seguendo un preciso ordine temporale. Lo studio di tale successione
trova la propria utilità nel fatto che la conoscenza di quanto è avvenuto determina ciò
che avverrà secondo un principio generale di inerzia e di stabilità delle leggi che
conosciamo. Nel caso in cui la serie storica oggetto di studio non è di tipo deterministico
ma si basa su una certa distribuzione di probabilità, sarà chiamata processo stocastico.
Si definisce processo stocastico una famiglia di variabili casuali caratterizzate da un
parametro "t" (nel caso delle serie storiche tale parametro consiste nell'unità di tempo
considerata). Tali variabili casuali sono definite tutte nel medesimo spazio fondamentale
"S", insieme degli eventi possibili.
Si può affermare che una data serie temporale è una particolare realizzazione di un
processo stocastico.
0
20
40
60
80
100
120
140
unità di tempo
v
a
l
o
r
e
Figura 2.1: Esempio dell’andamento di una serie storica. Grafico realizzato con MS Excel.
13
2.2 – Previsione e identificazione
Prima di approfondire l’analisi di una serie storica, vanno sottolineati i due principali
obiettivi da raggiungere nello studio di una sequenza di dati osservati nel corso del
tempo:
1) Identificare la natura del fenomeno rappresentato;
2) Operare delle previsioni attendibili sulla base delle informazioni “storiche”.
Tali fattori vengono riportati in letteratura rispettivamente con i termini di
Identification e Forecast. Al fine di raggiungere suddetti obiettivi si assume che i dati
disponibili siano dovuti a una combinazione nota di componenti predefinite più un
termine di errore di natura stocastica che normalmente crea delle difficoltà di
identificazione del modello e che si presta meglio a spiegare il fenomeno osservato. La
maggior parte delle serie storiche possono essere descritte in termini di due componenti
fondamentali: il trend e la stagionalità. Il primo rappresenta una componente della serie
che cambia nel corso del tempo; la componente stagionale, al contrario, esprime delle
variazioni riscontrabili ad intervalli regolari e sistematici. Per quanto riguarda l’analisi
del trend, una semplice osservazione visiva della serie permette di stabilirne la
presenza, e se non si è certi di poter fare affidamento su semplici impressioni, può
essere utile analizzare le funzioni di autocorrelazione in seguito specificate. Spesso è
necessario rimuovere la componente di trend attraverso varie metodologie, tra tutte la
più usata, nonché la più facile da utilizzare, risulta essere quella delle differenze
successive. Questo approccio si rivela molto conveniente nell’ambito della modellistica
ARIMA in seguito analizzata. In generale è meglio minimizzare la presenza di fattori di
“disturbo” che possono “nascondere” la componente di trend: questo può essere
raggiunto attraverso l’applicazione di opportune Medie Mobili. La componente stagionale
è invece facilmente riscontrabile osservando l’eventuale correlazione tra un elemento
della serie e gli elementi successivi. Da un punto di vista formale ciò è possibile
attraverso l’analisi della funzione di autocorrelazione: un utile strumento sia per
l’analisi del trend che per l’analisi di fattori stagionali. Come per il trend, anche per
“smussare” le componenti stagionali, le Medie Mobili rappresentano un metodo efficace
in quanto, per costruzione, tendono a ridimensionare eventuali “valori anomali”.
14