6free pricing. Gli autori giungono ad una condizione da imporre al drift del processo dell tasso
forward istantaneo, in modo da escludere la possibilità di arbitraggi tra bond di tutte le scadenze e il
bank account. Tuttavia trattandossi di un modello quadro, la sua implementazione incontrava non
pochi problemi soprattutto per due ordini di motivi: l’impossibilità di calibrare il modello a dei
strumenti di mercato per via della scelta dei suoi autori di modellare un’intensità di interesse non
collegata a nessun strumnento scambiato sul mercato; l’impossibilità di assumere un andamento
lognormale del tasso istantaneo, per l’inevitabile esplosione del processo in seguito a questa ipotesi,
e la conseguente incompattibilità con la formula di Black per le caplet. Gli autori del Libor Market
Model, Brace, Gatarek e Musiela, (BGM) scegliendo di modellare il tasso forward anziché
l’intensità, danno una risposta efficiente a questi due problemi. Infine, introducendo delle
approssimazione analitiche, è possibile tenere conto della dinamica congiunta del mercato delle
swaption e delle caps, superando quella incompattibilità teorica tra il modello basato sul tasso
forward e quello basato sul tasso swap. Dall’anno di prima pubblicazione del paper di BGM, il
modello ha attirato l’interesse della comunità accademica e di quella dei c.d. prectitioners
soprattutto per quanto riguarda gli aspetti di calibrazione del modello e di accelerazione del pricing
tramite la simulazione Monte Carlo.
Questo lavoro si propone di sviluppare una derivazione rigorosa dal punto di vista
matematico del Libor Market Model, e di ricostruire nelle linee essenziali il quadro teorico di
riferimento dato dal teorema di Heath-Jarrow-Morton. Gli aspetti più interessanti della tesi sono da
individuarsi nell’implementazione che ha riguardato la fase di calibrazione del modello. Usando
dati reali di mercato, e il linguaggio R 2.0.1. in combinazione con Excel, sono stati messi a
confronto diversi approcci per la stima della matrice di correlazione target e per la riduzione del
rango della stessa. Il ritrovato empirico è del tutto in linea con la ricerca precedente [10], [36], [45]
sull’argomento. Si conferma infatti la superiorità del metodo degli angoli per la riduzione del rango,
giudicando sulla base della norma tra la matrice target e quella a rango ridotto. Quanto al
lisciamento della matrice di correlazione storica è emersa la superiorità del metodo dei punti pivot
di Brigo e Mercurio rispetto al metodo classico di minimizzazione della norma, giudicando sulla
base sia della speditezza anlitica che della precisione. Tuttavia non è possibile esprimere un
giudizio finale di preferibilità vista la dipendenza dei risultati dal campione di dati considerato.
Infine, l’ultimo capitolo tratta del pricing in forma chiusa dei ratchet caps e del metodo del single
shot per il pricing tramite Monte Carlo dei derivati strutturati.
7CAPITOLO I
UN MODELLO DEI MERCATI FINANZIARI IN ASSENZA DI
ARBITRAGGIO
Si sa dove si nasce, ma non come si muore
e non se un'ideale ti porterà dolore...
__________________________
(da "I Cento Passi", Modena City Ramblers)
In questo capitolo verranno richiamati alcuni dei risultati fondamentali della teoria della misura,
di calcolo stocastico e della finanza matematica moderna, che si riveleranno utili per il prosieguo
del lavoro.
1.1 INFORMAZIONE E PROBABILITA’
Sia ȍ un insieme di tutti i possibili risultati Ȧ İȍ di un esperimento aleatorio, e sia F una classe
di alcuni o tutti i sottoinsiemi di ȍ.
DEFINIZIONE 1.1 F si dice ı-algebra di ȍ se valgono le seguenti proprietà:
1. Ø, ȍ ɽ F
2. se A ɽ F allora A
c
ɽ F
3. se {A
n
}
{n=1,….N}
F allora
f
1n
A
n
ɽ F
In breve, una ı-algebra contiene sempre l’insieme vuoto Ø e lo spazio campionario ȍ ed inoltre
risulta chiusa rispetto all’operazione di complementare e all’operazione di unione numerabile di
insiemi. Qualsiasi operazione sui sottoinsiemi di F sarà un altro sottoinsieme di F .
Per l’intersezione basta prendere
cc
nnnn
AA )(
11
f
f
Un elemento di F si dice evento ed ogni sottoinsieme F di ȍ appartenente a F si dice
F – misurabile. Un evento A è misurabile rispetto ad una ı-algebra F se l’informazione contenuta
in F è sufficiente per conoscere A, ossia per determinare per ogni Ȧɽȍ se l’evento si è realizzato
(Ȧɽ A) o meno. [2] F è in altre parole lo spazio degli eventi e rappresenta sia l’informazione
disponibile a seguito dell’esecuzione delle prove aleatorie sia la collezione di tutti i possibili eventi
di interesse.
DEFINIZIONE 1.2 Sia F
1
una classe di sottoinsiemi di ȍ. La ı-algebra più piccola contenente F
1
si
dice ı-algebra generata da F
1 ,
in simboli ı(F
1
).
8DEFINIZIONE 1.3 Sia ȍ = R. Chiameremo ı-algebra di Borel B (R) la ı-algebra contenente
tutti gli insiemi aperti di R.
Un modo per costruire una siffatta ı-algebra è quello di considerare un intervallo aperto come
unione di infiniti intervalli chiusi: [52]
(a,b) =
f
1n
[a +
n
1
, b -
n
1
] (1.)
DEFINIZIONE 1.4 Uno spazio di probabilità è una terna (ȍ, F, P) costituita da:
x lo spazio campionario ȍ
x una ı-algebra F su ȍ che rappresenta l’insieme di tutti i possibili eventi
x una misura di probabilità, P, sullo spazio misurabile (ȍ, F ), che è una funzione che
assegna ad ogni evento A ɽ F un numero in [0,1] detta probabilità di A, in simboli P
(A). La funzione P : F ĺ [0,1] deve soddisfare le seguenti proprietà:
(i) P(ȍ) = 1
(ii) (ı-additività) Siano A
1
A
2
…..una sequenza di eventi disgiunti in F , allora,
P
¦
f
f
1
1
)()(
n
nnn
APA (1.2)Ƒ
DEFINIZIONE 1.5 [2] Siano (ȍ, F ) e (E, E ) 2 spazi misurabili e sia f : ȍĺ E una funzione su ȍ
con valori su E. f è detta funzione misurabile se la controimmagine tramite f di un qualsiasi insieme
A ɽ E è un sottoinsieme che appartiene alla ı-algebra F. Ovvero se
Per ogni A ɽ E allora f
--1
(A) ɽ F
La funzione f si dice F – misurabile.
DEFINIZIONE 1.6 (ı-algebra generata da una funzione misurabile) Siano (ȍ, F ) e (E, E ) due
spazi misurabili e sia f : ȍĺ E una funzione F - misurabile. La ı-algebra generata da f, in
simboli ı(f), è la più piccola ı-algebra di ȍ rispetto alla quale f risulti misurabile. In altre parole,
ı(f) è la ı-algebra tale che f è ı(f)-misurabile e per ogni ı-algebra F
f
di ȍ tale che f è F
f
–
misurabile, allora ı(f) F
f
. In modo esplicito la ı-algebra ı(f) può essere scritta come
controimmagine tramite f di insiemi a di E:
ı(f) = {f
—1
(A); A ɽ E } (1.3)
Dal punto di vista logico il concetto di variabile aleatoria è riconducibile a quello di funzione
misurabile. Avremo pertanto la seguente
DEFINIZIONE 1.7 Sia (E, E ) uno spazio misurabile. Una variabile aleatoria X su (ȍ, F,P) è una
funzione
X : (ȍ, F )ĺ (E, E ) (1.4)
9Per le variabili aleatorie continue a valori reali, avremo X : (ȍ, F )ĺ (R, B (R) ) con la scelta di E
= B((R) una ı-algebra di Borel su R. Dunque una v.a. X è semplicemente una funzione su omega a
valori su R o su R
d
che sia F - misurabile.
Quindi avremo che per ogni insieme di Borel B di R, il sottoinsieme di ȍ
{X ɽ B}= {Ȧ ɽ ȍ ; X(Ȧ )ɽ B}
è incluso nella ı-algebra F.
Se nel solito spazio campionario ȍ definiamo F la ı-algebra di tutti i sottoinsiemi di ȍ e X una
v.a. su (ȍ, F ), allora la ı-algebra generata dalla v.a. X, in simboli ı(X), è la classe di tutti gli
insiemi del tipo
{Ȧɽȍ; X(Ȧ) ɽ A}, con A un sottoinsieme di R (1.5)
Se poi indichiamo con G una sub- ı-algebra di F , la v.a. X si dice G – misurabile se ogni insieme di
ı(X) è anche in G .
DEFINIZIONE 1.8 Sia X una v.a. sullo spazio di probabilità (ȍ, F , P). La misura di probabilità µ
x
che assegna ad ogni sottoinsieme di Borel B di R la massa µ
x
(B) = P {X ɽ B} si dice legge di X.
Ci sono tuttavia altri modi per esplicitare la distribuzione di una v.a. Una di queste è la funzione di
ripartizione F(x) = Rĺ [0,1],
F(x) = P {X d x}, x ɽR (1.6)
Se conosciamo la legge di X allora possiamo ricavare anche la sua funzione di ripartizione come
F(x) = µ
x
(-f ,x), e vice versa conoscendo la funzione di ripartizione giungiamo alla legge di X
facendo µ
x
(x,y] = F(y) – F(x) per x < y. Per a < b, abbiamo
[a,b] =
f
1
],
1
(
n
b
n
a
e possiamo quindi calcolare
µ
x
[a,b] = )
1
(lim)(],
1
(lim
n
aFbFb
n
a
n
x
n
fofo
P (1.7)
Una volta che conosciamo la legge di X µ
x
[a,b] per ogni intervallo [a,b]R allora questa è
determinata per ogni insieme di Borel in R. Quindi, in linea di principio, è equivalente conoscere la
legge di X o la sua funzione di ripartizione. Ƒ
DEFINIZIONE 1.9 Sia X una v.a. definita sullo spazio di probabilità (ȍ, F , P). Il valore atteso
della v.a. X, quando ȍ è finito è dato da
E(X) =
¦
:Z
Z)(X P )(Z (1.8)
Se invece ȍ fosse infinito, ma comunque numerabile avremmo
10
E(X) =
¦
f
1
)(
k
k
X Z P )(
k
Z (1.9)
Le difficoltà sorgono, quando abbiamo a che fare con spazi campionari infiniti e non numerabili. In
questo caso si fa ricorso all’integrale.
DEFINIZIONE 1.10 Sia X una v.a. definita sullo spazio di probabilità (ȍ, F , P). Il valore atteso di
X è definito dall’integrale di Lebesgue - Stieltes,
E(X) =
³
:
)(ZX dP )(Z (1.10)
La definizione ha senso se l’integrale è un numero finito. Il problema con questo livello di
astrattezza è che lo spazio astratto ȍ, non è un ambiente piacevole per farci i calcoli, per cui sarebbe
auspicabile lavorare anziché sui Ȧɽȍ, sui reali x ɽ R. A tal fine ricordiamo la definizione di legge
di X come
µ
x
(B) = P {X ɽ B} per ogni insieme di Borel B di R.
la quale è definita su R . Il seguente teorema fondamentale mette in relazione gli integrali su ȍ con
quelli su R..
TEOREMA 1.1. Sia X una v.a. definita sullo spazio di probabilità (ȍ, F , P).E sia g una funzione
Borel-misurabile su R. [21]
E|g(x)| =
³
R
x
xdxg )(|)(| P (1.1)
e se questa quantità e un numero finito
Eg(x) =
³
R
x
xdxg )()( P (1.2)
Data la relazione (1.7) possiamo anche scrivere
Eg(x) =
³
R
x
xdFxg )()( (1.3)
oppure
Eg(x) =
³
R
dxxfxg )()( (1.4)
in cui f(x) è la funzione di densità di X , assolutamente continua, definita come
P { a d X d b} =
³
b
a
dxxf )( (1.15)
Il teorema 1.1 afferma che per calcolare l’integrale di Lebesgue
³
:
)(ZX dP )(Z su ȍ, basta
calcolare l’integrale
³
R
x
xdxg )()( P su R che è ancora un integrale di Lebesgue con la misura µ
x
come integrante. Il passaggio ad un integrale di Riemann (1.14) avviene applicando la standard
macchine, che qui omettiamo.[52] Ƒ
11
In finanza quantitativa si lavora spesso con due misure di probabilità, quella del mondo reale
e quella di un mondo neutrale al rischio. Per cui dato uno spazio di probabilità di partenza (ȍ,F,P),
potrebbe esserci la necessità di passare ad un'altra misura P
~
.
TEOREMA 1.2 (Cambio di misura) Sia (ȍ, F,P) uno spazio di probabilità e Z un v.a. quasi
certamente non negativa con EZ = 1. Per un evento A ɽ F , definiamo
P
~
(A) =
³
A
dZ )(Z P )(Z (1.16)
Allora P
~
è una misura di probabilità. Inoltre se X è una v.a. non negativa avremo
E
~
X = E[XZ] (1.7)
Se poi Z è strettamente positiva allora avremo anche
EY = E
~
»
¼
º
«
¬
ª
Z
Y
(1.8)
per ogni v.a. Y non negativa.
DEFINIZIONE 1.11 Sia ȍ, un insieme non vuoto e sia F una ı-algebra definita su ȍ. Due misura
di probabilità P e P
~
sullo spazio misurabile (ȍ, F) si dicono equivalenti se assegnano probabilità
nulla agli stessi eventi di F. Sotto le ipotesi del teorema 1.2 le due misure ivi considerate sono
equivalenti e concordano dunque su cosa è possibile e cosa non lo è.
Nel modellare i mercati finanziari si parte da uno spazio campionario ȍ che rappresenta l’insieme
di tutti i possibili scenari futuri. In questo insieme di scenari futuri sarà definita una misura effettiva
di probabilità P. Tuttavia ai fini del pricing dei derivati finanziari si usa la misura neutrale al rischio
P
~
, equivalente a quella del mondo reale. Queste misure devono concordare sugli eventi impossibili
e quelli certi, pur assegnando in modo diverso le probabilità agli eventi possibili. In questo modo è
possibile costruire strategie di hedging che funzionano con probabilità 1 sotto entrambe le misure.
TEOREMA 1.3 (Derivata di Radon-Nikodym) Siano P e P
~
due misure equivalenti di probabilità
definite sullo spazio misurabile (ȍ, F ), tali che per ogni evento A ɽ F per cui P(A) = 0 si abbia
anche P
~
(A) = 0. In questo caso si dice che P è assolutamente continua rispetto a P
~
. Sotto queste
ipotesi esiste una v.a. non negativa Z, tale che
P
~
(A) =
³
A
dZ )(Z P )(Z A ɽ F (1.9)
chiamata derivata di Radon-Nikodym data da Z =
dP
Pd
~
. Per costruzione E(Z) = 1.
12
1.2 CONDIZIONAMENTO E PROCESSI DI MARTINGALE
Nella teoria delle probabilità l’informazione viene modellata tramite le ı-algebre. Quando viene
eseguita una prova aleatoria vi sarà un risultato Ȧɽȍ il cui valore non viene rivelato. Ciò che
sappiamo per ogni insieme B della ı-algebra F e se Ȧɽ B o meno. Una v.a. è F - misurabile se
l’insieme {X ɽ B} = { Ȧɽȍ; X(Ȧ) ɽ B} sta in F per ogni sottoinsieme di Borel B in R. In questo
caso l’informazione contenuta in F è sufficiente per determinare il valore della v.a. X(Ȧ). [52]
All’altro estremo si pone il caso in cui l’informazione nella ı-algebra F non è di nessuna rilevanza
ai fini della determinazione del valore di X(Ȧ). La variabile aleatoria è indipendente dalla ı-
algebra. Le relazioni di indipendenza tra ı-algebre e variabili aleatorie possono essere riassunte
nella seguente [55]
DEFINIZIONE1.12 Sia (ȍ, F,P) uno spazio di probabilità con G e H due sub-ı-algebre di F .
Queste due sub-ı-algebre si dicono indipendenti se
P(AB) = P(A) P(B) per ogni A ɽ G e B ɽH (1.20)
Siano poi X e Y due v.a. su (ȍ, F , P). Queste saranno indipendenti se le rispettive ı-algebre da loro
generate ı(X) e ı(Y) sono indipendenti. Una v.a. X è indipendente dalla ı-algebra G se ı(X) e G
sono indipendenti.
Data la solita terna (ȍ, F,P), una v.a. X e una sub-ı-algebra G di F quando X è G - misurabile
l’informazione contenuta in G è sufficiente per determinare il valore della v.a. X(Ȧ). Quando invece
X è indipendente da G l’informazione contenuta in questa non è di nessun aiuto per determinare il
valore di X. Nel caso intermedio, si può usare l’informazione contenuta in G per stimare ma non
determinare con precisione il valore di X. Una tale stima è data dal valore atteso di X condizionato
alla conoscenza di G .
DEFINIZIONE 1.13 Sia (ȍ, F , P) uno spazio di probabilità, G una sub- ı-algebra di F e infine sia
X una v.a. integrabile. Il valore atteso di X dato G , in simboli E(X|G), è una variabile aleatoria che
soddisfa le seguenti proprietà:
(i) E(X|G) è G - misurabile
(ii)
³
A
E(X|G) dP(Ȧ) =
³
A
X(Ȧ) dP(Ȧ) per ogni A ɽ G (1.21)
La prima proprietà ci assicura che nonostante E(X|G) sia essa stessa una v.a. l’informazione
contenuta in G è sufficiente per determinarne il valore.
La seconda proprietà invece afferma che E(X|G) è in effetti una stima di X poiché dà la stessa media
(parziale) di X per ogni A ɽ G. Quanto più insiemi sono inclusi in G , tanto più fine sarà la
risoluzione dell’incertezza intorno a Ȧ, e tanto migliore sarà la stima di X. Se invece G contiene solo
pochi eventi la stima di X sarà alquanto imprecisa.
13
Di seguito vengono elencate alcune delle più importanti proprietà del valore atteso condizionato:
(i) (Linearità) Se X e Y sono due v.a. integrabili e c
1
e c
2
due costanti allora,
E[c
1
X + c
2
Y| G] = c
1
E[X|G] + c
2
E[Y|G] (1.2)
(ii) (Portare fuori ciò che è noto) Se X e Y sono v.a. integrabili, anche XY lo sarà, e se
inoltre X e G – misurabile, allora
E[XY|G] = XE[Y|G] (1.23)
(iii) (Condizionamento iterato) Se H è una sub- ı-algebra di G e X una v.a. integrabile,
allora
E[E[X|G]|H] = E[X|H] (1.24)
Se stimiamo X sulla base dell’informazione in G e poi stimiamo E[X|G] usando una
base informativa più ristretta H, otteniamo la v.a. che avremmo ottenuto se avessimo
stimato X direttamente sulla base di H.
(iv) (Indipendenza) Se X è una v.a. integrabile e indipendente da G , allora
E[X|G] = EX (1.25)
Se X è indipendente dall’informazione in G allora la migliore stima di X è il suo
valore atteso, senza alcuna base informativa condizionante. Ƒ
DEFINIZIONE 1.14 [14] Dato uno spazio di probabilità (ȍ, F,P), un processo stocastico è una
successione di v.a. {X
t
: t ɽ I } con I l’insieme dell’indice , tipicamente un sottoinsieme di R.
Risulta che, per ogni dato t, l’applicazione ȦĺX(Ȧ) è una variabile aleatoria (X
t
) mentre le
applicaioni t ĺX
t
(Ȧ) sono le traiettorie del processo, che può quindi essere pensato come una
“funzione aleatoria” con dominio su [0, f ).
DEFINIZIONE 1.15 Sia ȍ un insieme e T un intero positivo. Se si assume che per ogni t ɽ [0,T]ci
sia una ı-algebra F (t) e che per ogni s<t la ı-algebra F (s) sia compresa in F (t), allora la
collezione crescente di ı-algebre F (t) 0 < t < T costituisce una filtrazione. [52]
DEFINIZIONE 1.16 Un processo stocastico X
t
si dice adattato alla filtrazione F (t), se per ogni t, la
v.a. X
t
è F (t)- misurabile. L’adattamento significa semplicemente che tutta la storia passata del
processo fino all’istante t è contenuta in F(t).
DEFINIZIONE 1.17 Un processo si dice prevedibile rispetto alla filtrazione F
n
se X
n
è F
n-1
–
misurabile. In ambito continuo, invece, un processo si dice prevedibile se è misurabile rispetto alla
ı-algebra prevedibile, che a sua volta è generata dallo spazio dei processi adattati continui a
sinistra su [0, f ). Un processo prevedibile è anche progressivamente misurabile. [59]
Un processo di martingale può essere pensato come una specie di “gioco equo” in cui il guadagno
futuro atteso è esattamente pari al valore corrente del processo, sotto qualsiasi condizione relativa al
passato. Dal punto di vista matematico avremo la seguente
14
DEFINIZIONE 1.18 Un processo X(t) adattato alla filtrazione F (t) è una martingale rispetto alla
stessa filtrazione se
E[X(t)|F(s)] = X(s) per ogni 0 < s < t < T (1.26)
oppure, equivalentemente, E[X(t)- X(s) |F(s)] = 0. [Yo]
1.3 IL MOTO BROWNIANO
Il moto browniano è il più semplice dei processi diffusivi
1
e si ottiene mandando ad infinito il
numero dei passi in una passeggiata aleatoria simmetrica.
DEFINIZIONE 1.19 [Shr] Sia (ȍ, F , P) uno spazio di probabilità. Per ogni Ȧ
2
ɽ ȍ, consideriamo
una funzione continua W(t) con tt 0 che soddisfa W(0) = 0 e che dipende da Ȧ. W(t) è un moto
browniano se per tutte le 0 = t
0
< t
1
……< t
m
gli incrementi
W(t
1
) = W(t
1
) – W(t
0
), W(t
2
) – W(t
1
), …..W(t
m
) – W(
tm-1
)
sono indipendenti e normalmente distribuiti con
E[W(t
i+1
) – W(t
i
)] = 0
Var[W(t
i+
) – W(t
i
)] = t
i+1
– t
i
(1.27)
Poiché gli incrementi della funzione sono normalmente distribuiti, le variabili aleatorie W(t
1
),
W(t
2
)….. W(t
m
) sono congiuntamente normali con una distribuzione descritta in modo compiuto dai
primi due momenti. Ognuna della v.a. W(t
i
) ha media zero, mentre la covarianza tra W(s) e W(t)
con s < t, e considerando che gli incrementi sono indipendenti, sarà
E[W(s) W(t)] = E[W(s)( W(t) - W(s)) + W
2
(s)]
=E[W(s)] E[W(t) - W(s)] + E[W
2
(s)]
=0 +Var[W(s)] =s (1.28)
La matrice di covarianze per un vettore di moti browniani sarà dunque la seguente
»
»
»
»
»
¼
º
«
«
«
«
«
¬
ª
)](tE[W...)] W(t)E[W(t)] W(t)E[W(t
)] W(t)E[W(t...)](tE[W)] W(t)E[W(t
)] W(t)E[W(t...)] W(t)E[W(t)](tE[W
m
2
2m1m
m22
2
12
m1211
2
=
»
»
»
»
¼
º
«
«
«
«
¬
ª
m
ttt
ttt
ttt
...
...
...
21
221
111
(1.29)
DEFINIZIONE 1.20 Sia (ȍ, F , P) uno spazio di probabilità e W(t) un moto brawniano definito
sullo stesso. Una filtrazione per il moto browniano è una collezione di ı-algebre F (t), tali che:
(i) Per 0 d s < t, ogni insieme in F (s),sta anche in F (t). Ciò significa che nell’istante t
successivo ad s c’è almeno la stessa quantità di informazione che c’era in s.
L’informazione, insomma, si accumula col passare del tempo.
1
Vedi infra
2
Possiamo pensare ad Ȧ come la traiettoria del moto browniano, che è il risultato di una prova aleatoria consistente nel
lancio di una moneta a velocità infinita.
15
(ii) Per ogni t t 0, il moto browniano W(t) è F (t) – misurabile, per cui l’informazione al
tempo t è sufficiente per valutare il moto browniano al tempo t.
(iii) Per ogni 0 d t < u, l’incremento W(t) – W(u) è indipendente da F (t), il che significa
che l’informazione accumulatasi fino al tempo t non è di nessun aiuto per prevedere i
movimenti futuri del moto browniano. Questa ipotesi conduce a quella
dell’efficienza dei mercati finanziari.
DEFINIZIONE 1.21 Il moto browniano è un processo di martingala.
Dimostrazione. Sia 0 d s < t. Allora [3]
E[W(t)|F(s)] = E[(W(t) – W(s)) + W(s)|F(s)]
= E[(W(t) – W(s)|F(s)] + E[(W(s)|F(s)]
= E[(W(t) – W(s)] + W(s)
=W(s) (1.30)
Se poi consideriamo il processo M
t
= exp[aW(t) – a
2
t/2], in cui W(t) è il solito moto browniano,
M(t) è una martingale. [34]
E[M
t
|F
s
] = )exp()2/exp(
2
s
aXta E[)(exp(
st
XXa |F
s
]
= )exp()2/exp(
2
s
aXta E (exp(
st
XXa ]
= )exp()2/exp(
2
s
aXta exp( 2/)(
2
sta ) = M
s
(1.31) Ƒ
Una delle proprietà più note delle traiettorie del moto browniano W(·,Ȧ) è quella riguardante
l’accumularsi della variazione quadratica ad un tasso di 1 per unità di tempo, dovuto alla non
differenziabilità delle traiettorie stesse. Prima di passare alla trattazione della variazione quadratica
si vuole introdurre alcune proprietà delle traiettorie del moto browniano
Con probabilità uno, tali traiettorie [60]
(i) soddisfano la condizione di Hölder
J
|||)()(| stcsWtW d per ogni
2
1
dJ
(ii) non soddisfano la condizione di Lipschitz ( 1 J ), per cui non sono differenziabili
per alcun t > 0.
(iii) hanno variazione infinita su ogni intervallo(a,b):
³
f
),(
|)(|
ba
sdW
Per una funzione qualsiasi f, avremo la seguente
DEFINIZIONE 1.22 Data una funzione derivabile f, la variazione di secondo ordine tra 0 e T della
funzione è data da
[f, f](T) =
¦
o3
1
0
2
1
0||||
)]()([lim
n
j
jj
tftf (1.32)