Documente Academic
Documente Profesional
Documente Cultură
Curs Procese Stochastice IDD PDF
Curs Procese Stochastice IDD PDF
Facultatea de Informatică
Departamentul de Invăţământ la Distanţă
PROCESE STOCHASTICE
Anca Vitcu
2005 – 2006
Notă introductivă
Pag.
2
Capitolul 3 – Calcul Stochastic 65
3.1. Integrala stochastică 65
3.2. Ecuaţii diferenţiale stochastice 79
3.3. Exemple de porcese Itô 89
Capitolul 4 – Probleme asociate mişcării browniene 103
4.1. Regula de schimbare a probabilităţii 103
4.2. Timp de lovire 112
4.3.Alte probleme asociate mişcării browniene 124
Exerciţii 137
Dicţionar de termeni financiari 142
3
Capitolul 1
Noţiuni preliminare
4
Observaţie. F reprezintă mulţimea evenimentelor asociate experimentului
aleator sau altfel spus, F conţine toate submulţimile lui Ω .
Exemple de σ -algebre. Fie Ω un spaţiu arbitrar de evenimente elementare.
Cea mai “săracă” σ -algebră a spaţiului Ω este submulţimea {φ , Ω} iar cea mai
“bogată” σ -algebră conţine toate submulţimile spaţiului Ω .
Considerăm experimentul clasic ce constă în aruncarea de două ori a unei
monede perfecte. In acest caz, spaţiul de evenimente elementare este mulţimea
Ω = {HH , HT , TH , TT } şi folosind definiţia este uşor de verificat că mulţimea F
formată din toate submulţimile spaţiului Ω şi mulţimea G = {φ , Ω, {HH , HT }, {TH , TT }}
sunt σ -algebre.
σ -algebra poate fi interpretată ca informaţia pe care o avem la un anumit
moment, ne spune ce evenimente cunoaştem. In exemplul nostru F este σ -algebra în
care ştim toate rezultatele obţinute în urma aruncării monedei, în timp ce G este
σ -algebra în care ştim numai rezultatul primei aruncări. Presupunem că moneda a fost
aruncată de două ori dar nu cunoaştem rezultatul aruncării, ştim numai dacă rezultatul se
află sau nu în G . De exemplu, se spune că rezultatul aruncării nu este φ dar este în Ω .
Mai mult se poate spune că rezultatul aruncării nu se află în {HH , HT } dar se află în
{TH , TT }, cu alte cuvinte ştim doar că rezultatul primei aruncări este T dar nu ştim
nimic despre rezultatul celei de-a doua aruncări. Se spune că σ -algebra G conţine
informaţia până la momentul unu. Analog, putem spune că F conţine informaţia
completă. σ -algebra trivială {φ , Ω} nu conţine informaţii, faptul că rezultatul aruncării
este φ sau se află în Ω nu ne spune nimic despre eveniment.
Ω = A1 ∪ A2 ∪ ... ∪ Dn ∪ ... , Di ∩ D j = φ , i ≠ j , i, j ≥ 1 ,
5
Observaţie. Afirmaţia nu este adevărată pentru reuniunea de σ -algebre. Mai
precis, o reuniune de σ -algebre nu este o întotdeauna o σ -algebră.
Definiţia 4. Fie F şi G două σ -algebre astfel încât G ⊂ F ( A ∈ G implică
A ∈ F ), atunci G este o sub- σ -algebră a σ -algebrei F .
Definiţia 5. σ -algebra generată de familia de mulţimi F este intersecţia
tuturor σ -algebrelor ce conţin F .
Definiţia 6. Dacă F1 şi F2 sunt două σ -algebre, notăm prin F1 ∨ F2 ,
σ -algebra generată de familia F1 ∪ F2 şi reprezintă intersecţia tuturor σ -algebrelor
ce conţin σ - algebrele F1 şi F2 .
Propoziţia 2. Fie F o familie de submulţimi ale lui Ω . Atunci există o
σ -algebră minimală, sau altfel spus σ -algebra generată de familia de mulţimi F ,
notată σ (F ) , ce conţine toate mulţimile din care este formată familia F .
numeşte spaţiu măsurabil sau câmp (borelian) de evenimente şi se notează prin (Ω,F ) .
Definiţia 8. Fie (Ω,F ) şi (E , E ) două spaţii măsurabile. O funcţie f definită
( A) = {ω ∈ Ω f (ω ) ∈ A}.
def
−1
f
6
Revenind la exemplul aruncării monedei de două ori considerăm X numărul de
apariţii ale evenimentului {H } în cele două aruncări. In aceste condiţii X este
F -măsurabilă dar nu este G -măsurabilă. Fie Aa = {ω ∈ Ω , X (ω ) ≥ a} . Atunci rezultatul
experimentului este:
Ω , dacă a≤0
{HH , HT , TH } , dacă 0 < a ≤ 1
{HH } , dacă 1 < a ≤ 2
φ , dacă 2<a
σ -algebra F . Dar, {HH }∉ G , rezultă că există cel puţin o valoare a lui a pentru care
evenimentul Aa nu aparţine lui G şi prin urmare X nu este măsurabilă în raport cu
σ -algebra G .
Propoziţia 3. Dacă X este o variabilă aleatoare reală G -măsurabilă şi f este
7
1.4. Noţiunea de probabilitate
∞ ∞
3. P U An = ∑ P( An ) , pentru A1 , A2 ,..... din F , disjuncte două câte două.
n =1 n =1
B− A= B∩ A ;
3. dacă An este un şir crescător (respectiv descrescător) de mulţimi din F şi
P( A) = lim P( An ) .
8
Definiţia 16. Fie X o variabilă aleatoare definită pe spaţiul probabilistic
(Ω,F , P ) . Legea de probabilitate a variabilei aleatoare X este probabilitatea PX
definită pe (R, B R ) prin PX ( A) = P{ω ; X (ω ) ∈ A} = P( X ∈ A) , pentru orice A din B R .
Definiţia 17. Funcţia de repartiţie a variabilei aleatoare X este o funcţie
crescătoare definită pe R prin F ( x ) = P( X ≤ x ) .
Definiţia 18. Densitatea unei variabile aleatoare X , notată f ( x ) , este derivata
funcţiei de repartiţie în condiţiile în care această derivată există. Putem scrie
P( X ∈ A) = ∫ f ( x )dx .
A
E ( X ) = ∫ xf ( x )dx şi E (Φ ( X )) = ∫ Φ ( x ) f ( x )dx .
R R
9
Cunoaştem legea de probabilitate a variabilei aleatoare X dacă pentru orice
funcţie boreliană mărginită Φ cunoaştem valoarea medie E (Φ ( X )) . Dacă X şi Y sunt
două variabile aleatoare şi Φ este o funcţie boreliană mărginită atunci egalitatea
E (Φ( X )) = E (Φ (Y )) implică egalitatea în lege a variabilelor aleatoare X şi Y .
Observaţie. Egalitatea în lege nu implică egalitatea aproape sigură. De exemplu,
dacă X este o variabilă gaussiană a cărei valoare medie este 0, atunci are loc egalitatea
în lege
X = − X dar nu şi egalitatea aproape sigură. Pentru a avea egalitate în lege este
suficient ca egalitatea E (Φ ( X )) = E (Φ (Y )) să fie verificată pentru o clasă suficient de
lui X ) .
Dacă variabila aleatoare X admite o densitate f (x ) atunci funcţia sa caracteristică este
dată de expresia ∫ e itx f ( x )dx . Funcţia caracteristică descrie legea de probabilitate a unei
R
( )
def
Ψ (λ ) = E e λX . Pentru a cunoaşte legea de probabilitate a unei perechi de variabile
(X ,Y ) este suficient să cunoaştem valoarea medie E (exp(λX + µY )) pentru orice
pereche (λ , µ ) .
Exemplu. X este o variabilă gaussiană a cărei lege de probabilitate este
N (m, σ 2 ) dacă şi numai dacă transformata Laplace este dată de expresia
λ 2σ 2
( )
E e λX = exp λm +
2
.
Proprietăţi ale mediei unei variabile aleatoare:
1. E (aX + bY ) = aE ( X ) + bE (Y ) pentru oricare două constante reale a şi b ;
10
2. Dacă X şi Y sunt două variabile aleatoare astfel încât X ≤ Y aproape sigur
atunci E ( X ) ≤ E (Y ) ;
3. Inegalitatea lui Jensen: dacă X este o variabilă aleatoare şi dacă Φ este o
funcţie convexă astfel încât Φ( X ) este integrabilă atunci E (Φ( X )) ≥ Φ (E ( X )) .
1.7. Independenţă
Definiţia 25. Două sub- σ -algebre F1 şi F2 sunt independente dacă are loc
egalitatea P( A ∩ B ) = P( A)P(B ) , pentru orice A şi B din F1 şi respectiv F2 .
Pentru ca două σ -algebre F1 şi F2 să fie independente este necesar şi suficient să aibă
loc relaţia P( A ∩ B ) = P( A)P(B ) pentru orice A din C 1 şi B din C 2 , unde C i este o
11
Propoziţia 5. Două variabile aleatoare X şi Y sunt independente dacă şi numai
dacă are loc egalitatea P{( X ≤ x ) ∩ (Y ≤ y )} = P( X ≤ x )P(Y ≤ y ) pentru orice x şi y
din R .
Proprietăţi:
1. dacă variabilele aleatoare X şi Y sunt independente atunci E ( XY ) = E ( X )E (Y ) .
Reciproca nu este adevărată;
2. dacă variabilele aleatoare X şi Y sunt independente atunci f ( X ) şi g (Y ) sunt
independente;
3. dacă variabile aleatoare X şi Y sunt independente atunci media E (ϕ ( X , Y )) este
dată de relaţia: E (ϕ ( X , Y )) = E ( f ( X )) = E (g (Y )) , unde f ( x ) = E (ϕ (x, Y )) şi
g ( y ) = E (ϕ ( X , y )) .
P I Ai = ∏ P( Ai ) , pentru orice Ai din Fi şi pentru orice n .
1≤i ≤ n 1≤i ≤ n
Nikodym, astfel încât dQ = YdP , sau altfel scris Q( A) = ∫ YdP . Reciproc, dacă Y este o
A
12
dQ
EQ (Z ) = ∫ ZdQ = ∫ Z dP = ∫ ZYdP = E P (ZY ) .
dP
1
Y o variabilă aleatoare definită prin expresia Y = exph( X − m ) − h 2σ 2 . Dacă
2
dQ = YdP atunci în raport cu Q , X este o variabilă aleatoare repartizată normal după
legea N (m + hσ 2 , σ 2 ) .
Demonstraţie. Este suficient să calculăm EQ {exp(λX )} = E P {Y exp(λX )} şi să
λ 2σ 2
verificăm relaţia EQ (exp λX ) = exp λ (m + hσ 2 ) + .
2
f (x ) =
1
exp−
( x − m )2 .
σ 2π 2σ 2
n
orice combinaţie liniară ∑a X
i =1
i i este o variabilă gaussiană cu valori reale.
13
Propoziţia 8. Dacă două variabile aleatoare X şi Y formează un vector
gaussian de covarianţă 0 atunci cele două variabile aleatoare sunt independente.
Propoziţia 9. Fie ( X , Y ) un vector gaussian. Există atunci o constantă α astfel
încât variabilele aleatoare X şi X − αY sunt independente.
Propoziţia 10. Dacă X şi Y sunt două variabilele aleatoare gaussiene
independente, atunci aX + bY , unde a şi b sunt constante, este o variabilă gaussiană.
In aceste condiţii vectorul ( X , Y ) este gaussian. Afirmaţia are loc numai în cazul în
care cele două variabile sunt independente.
Propoziţia 11. Dacă X este o variabilă gaussiană a cărei lege de probabilitate
λ 2σ 2
este N (m, σ 2 ) , atunci pentru orice λ real are loc relaţia E (e λX ) = exp λm + .
2
Reciproca este adevărată. Adică, dacă pentru orice λ real are loc egalitatea
λ 2σ 2
( )
E e λX = exp λm +
2
( )
, atunci legea variabilei aleatoare X este N m, σ 2 .
({ })
X n converge aproape sigur la X dacă P ω : lim X n (ω ) = X (ω ) = 1 .
n
Observaţie. 1. Dacă pentru orice ω , q(ω ) este o proprietate a lui ω atunci q are loc
aproape sigur dacă P(q ) = 1 . 2. Acest tip de convergenţă depinde de alegerea
probabilităţii P . Dacă probabilitatea Q este echivalentă cu probabilitatea P şi dacă
P as Q as
X n → X atunci X n → X .
14
Teorema convergenţei dominante (Lebesgue): Dacă X n este un şir de
1 n
independente două câte două, identic repartizate cu media finită, atunci ∑ Xi
n i =1
converge aproape sigur la E ( X 1 ) .
Convergenţa în L2 (Ω )
( )
def
= ∫X dP = E X 2 . Spunem că variabila aleatoare
2
Definiţia 32. Fie X 2
Ω
la ∞ .
Observaţie. Convergenţa în L2 depinde de alegerea probabilităţii P .
Propoziţia 12. Dacă ( X n ) converge în L2 (Ω ) la X atunci E X n2 converge la ( )
E (X 2 ) . Reciproca nu este adevărată.
15
Pentru p > 1, notăm cu X p
cantitatea pozitivă definită prin:
(X ) p
p
= ∫ X dP = E X
p
( ).
p
Spaţiul L p (Ω ) poate fi înzestrat cu o normă X p
astfel
Ω
încât X p
< ∞ . Un şir de variabile aleatoare X n din L p (Ω ) este convergent dacă
Convergenţa în probabilitate
Proprietăţi:
1. Convergenţa aproape sigură implică convergenţa în probabilitate.
2. Convergenţa în probabilitate implică convergenţa apropape sigură a unui subşir
al său.
3. Convergenţa în L2 implică convergenţa în probabilitate.
Convergenţa în lege
E (Φ ( X n )) → E (Φ ( X )) pentru n tinzând la ∞ .
16
n
∑X i − nE ( X 1 ) L
i =1
→ N (0,1)
σ n
Definiţia 36. Se numeşte filtrare o familie crescătoare de sub- σ -algebre ale lui
F , adică Ft ⊂ Fs pentru orice t ≤ s .
Definiţia 37. Un proces sochastic sau proces aleatoriu este o familie de
variabile aleatoare ( X t ; t ∈ [0, ∞ )) definite pe acelaşi spaţiu de probabilitate.
Deci, un proces stochastic este format dintr-un şir (de obicei infinit) de variabile
aleatoare X 1 , X 2 , X 3 ,..... dependente de parametrul timp.
In general procesele stochastice pot fi împărţite în patru categorii distincte în
funcţie de tipul variabilei aleatoare Xt , adică de starea procesului (dacă este discretă
sau continuă) şi a parametrului timp (dacă este discret sau continuu):
1. Xt discret, t discret
2. Xt discret, t continuu
• Procesul Poisson – numărul persoanelor care intră într-o bancă din momentul
deschiderii până la momentul t. X(t) are o repartiţie Poisson cu o medie δ ⋅ t ,
unde δ reprezintă rata sosirilor. X nu sunt independnente iar spaţiul de selecţie
este format din toate numerele întregi nenegative.
17
• Procesul firelor de aşteptare (queuing) – persoanele nu numai intră în bancă dar
şi ies – este necesară cunoaşterea distribuţiei timpului pe care o persoană îl
petrece în bancă.
3. Xt continuă, t continuu
Definiţia 39. Spunem că un proces stochastic are traiectorii continui sau este
continuu dacă aplicaţiile t → X t (ω ) sunt continue pentru aproape toţi ω .
Definiţia 40. Un proces stochastic este numit càdlàg dacă traiectoriile sale sunt
continui la dreapta şi au limită la stânga. Un proces stochastic este numit càglàd dacă
traiectoriile sale sunt continui la stânga şi au limită la dreapta.
Definiţia 41. Dat un proces stochastic X , îi putem asocia filtrarea naturală
Ft X , adică familia crescătoare de σ -algebre Ft X = σ {X s , s ≤ t} .
Definiţia 42. Un proces stochastic A = ( At , t ≥ 0 ) este crescător dacă A0 = 0 şi
t ≤ s.
Definiţia 43. Spunem că un proces stochastic V = (Vt , t ≥ 0 ) este cu variaţie
mărginită pe [0, t ] dacă sup ∑ Vti +1 − Vti ≤ K ,unde sup este considerat pentru t i ,
ti i
0 ≤ t 0 ≤ ... ≤ t i ≤ t i +1 ≤ t .
18
finită pe [0, t ] dacă sup ∑ Vti +1 − Vti < ∞ ,unde sup este considerat pentru t i ,
ti i
0 ≤ t 0 ≤ ... ≤ t i ≤ t i +1 ≤ t .
gaussiană.
Un proces gaussian este descris de medie şi de matricea de covarianţă.
Un spaţiu gaussian este un sub-spaţiu vectorial închis din L2 (Ω ) de variabile
aleatoare reale gaussiene centrate (cu media 0). Spaţiul gaussian generat de un proces
stochastic este sub-spaţiul lui L2 (Ω ) generat de variabilele aleatoare reale centrate
( X t − E ( X t ) , t ≥ 0) .
Cazul discret
P (X = x j ∩ B )
EQ ( X ) = ∑ x j Q (X = x j ) = ∑ x j .
j j P (B )
19
Putem scrie P (X = x j ∩ B ) = ∫ 1 X = x j dP unde 1 X = x j ia valoarea 1 dacă ω ∈ (X = x j ) şi 0
B
P (X = x j ∩ B ) 1
∑x
j
j
P (B )
=
P(B ) ∫B
XdP . Mai precis, relaţia poate fi rescrisă astfel:
Notaţie. E (X B ) = EQ ( X ) .
( )
E (X B ) = E (X B ) ⋅ 1B + E X B c ⋅ 1B c , atunci are loc relaţia ∫ E (X B )dP = ∫ XdP , pentru
D D
orice D din B .
Caz particular: Fie X şi Y variabile aleatoare ale căror valori sunt
(x1 , x2 ,..., xn ) şi respectiv ( y1 , y 2 ,..., y d ) astfel încât oricare ar fi i , P(Y = y i ) ≠ 0 .
E (X Y = y i ) = ∑ x j P (X = x j Y = y i ) = ∑ x j µ (x j ; y i ) =
1
P (Y = y i ) Y =∫yi
XdP .
j j
20
Definiţia 47. Media condiţionată E (X G ) este unica variabilă aleatoare,
∫ E (X G )dP = ∫ XdP
A A
, oricare ar fi A din G .
Definiţia 50. Fie un şir finit sau numărabil de mulţimi B1 , B2 , B3 ,..... , disjuncte
două câte două, a căror reuniune este spaţiul Ω , cu P (Bi ) pozitive. Fie G , σ -algebra
formată din toate reuniunile finite sau numărabile de mulţimi Bi . Atunci probabilitatea
P( A ∩ Bi )
P(AG ) = ∑ 1Bi (ω ) .
i P(Bi )
{φ , Ω, {HHH , HHT , HTH , HTT }, {THH , THT , TTH , TTT }} , deci evenimentele ce pot fi
determinate ştiind rezultatul primei aruncări. Fie F 2 σ -algebra formată din
evenimentele ce pot fi determinate ştiind rezultatele primelor două aruncări, adică
21
φ , Ω, {HHH , HHT }, {HTH , HTT }, {THH , THT }, {TTH , TTT } şi toate mulţimile obţinute
din reuniunea acestora.
Fie A = {HHH } . Calculăm P ( AF1 ) , P ( AF2 ) , P (AF3 ) .
Fie C1 = {HHH , HHT , HTH , HTT } şi C 2 = {THH , THT , TTH , TTT }. Pe mulţimea C1
P( A ∩ C1 )
probabilitatea condiţionată este dată de formula P (A C1 ) = . Prin înlocuiri
P(C1 )
P(HHH ) 1 8 1
corespunzătoare obţinem = = . Pe mulţimea C2 probabilitatea
P(C1 ) 12 4
P( A ∩ C 2 ) P(φ )
condiţionată este dată de formula P ( A C 2 ) = . Inlocuind obţinem = 0.
P (C 2 ) P(C 2 )
D4 = {TTH , TTT } . σ -algebra F2 este formată din toate reuniunile posibile formate cu
P(HHH ) 1 8 1
mulţimile Di , i = 1,4 . Atunci P (A D1 ) = = = şi P ( A Di ) = 0 pentru
P(D1 ) 14 2
1
i = 2,4 . Prin urmare P( AF2 ) = 1 D1 , altfel spus probabilitatea ca evenimentul
2
A = {HHH } să aibă loc cunoscând rezultatul primelor două aruncări este 1 2 dacă
rezultatul primelor două aruncări este H şi 0 în caz contrar.
Propoziţia 14. E ( X G ) este G -măsurabilă, adică dacă Y = E (X G ) atunci
(Y ≥ a ) = B3 ∪ B4 ∈ G .
22
Propoziţia 15. Dacă C ∈ G şi Y = E ( X G ) atunci E (Y ∩ C ) = E ( X ∩ C )
E ( X ∩ Bi )
Demonstraţie. Cum Y = ∑ ⋅ 1 Bi şi Bi sunt disjuncte două câte două atunci,
i P(Bi )
E (X ∩ B j )
E (Y ∩ B j ) = E1 B j = E (X ∩ B j ) .
P (B j )
obţinem E (Y ∩ C ) = E ( X ∩ C ) .
Propoziţia 16. Fie Zo variabilă aleatoare G -măsurabilă şi
Bi . Fie z i valoarea lui Z pe Bi , atunci putem scrie Z = ∑ z i 1 Bi . Prin urmare, are loc
i
egalitatea z i P(Bi ) = E (Z ∩ Bi ) = E ( X ∩ Bi ) .
mai mare decât X atunci valoarea estimată pentru Y este mai mare decât valoarea
estimată pentru X .
2. Fie a şi b două constante atunci E (aX + bY G ) = aE (X G ) + bE (Y G )
X este G -măsurabilă atunci ştim X şi cel mai bun estimator al variabilei aleatoare
X este X .
4. E [E ( X G )] = E ( X ) , adică media valorii estimate pentru X este valoarea medie a
variabilei aleatoare X .
5. X este independentă de G , E (X G ) = E ( X ) , adică dacă cunoaşterea lui G nu ne
oferă alte informaţii despre X , atunci cea mai bună estimare a variabilei aleatoare X
este EX .
Demonstraţie. Afirmaţiile 1 şi 2 rezultă din definiţie. Pentru a demonstra afirmaţia 3
observăm că dacă Z = X atunci Z este G - măsurabilă şi E ( X ∩ C ) = E (Z ∩ C )
23
Pentru a demonstra afirmaţia 4 considerăm C = Ω şi Y = E (X G ). Atunci au loc
E (XY G ) = YE ( X G ) .
G -măsurabilă. Prima egalitate rezultă din afirmaţia 3 a propoziţiei 17. Fie acum W
expresia din membrul drept. W este H -măsurabilă şi dacă C ∈ H ⊂ G atunci
E (W ∩ C ) = E (E (X G ) ∩ C ) = E ( X ∩ C ) .
Propoziţia 20. Dacă X este o variabilă aleatoare atunci cel mai bun estimator
al său din mulţimea de variabile aleatoare G -măsurabile este Y = E (X G ).
= E (X 2 G ) − 2 ZY + Z 2 = E (X 2 G ) − Y 2 + (Y − Z ) = E (X 2 G ) − 2YE (X G ) + Y 2 + (Y − Z ) =
2 2
2
(
= E (X 2 G ) − 2 E ( XY G ) + E (Y 2 G ) + (Y − Z ) = E ( X − Y ) G + (Y − Z ) .
2
) 2
( ) ( ) (
E ( X − Z ) = E ( X − Y ) + E (Y − Z )
2 2
) . Membrul drept este mai mare sau egal cu
2
prin Z este mai mare decât eroarea estimării lui X prin Y , iar aceste erori vor fi egale
dacă şi numai dacă Y = Z . Deci Y este estimarea cea mai bună.
Observaţie. Mulţimea variabilelor aleatoare formează un spaţiu liniar iar
mulţimea variabilelor aleatoare G -măsurabile este un subspaţiu al acestuia. Dată
24
subspaţiul variabilelor aleatoare G -măsurabile. Pentru a demonstra acest lucru
verificăm faptul că Y şi X − Y sunt ortogonale, altfel spus produsul scalar dintre Y şi
X − Y este 0. Cum X = Y + ( X − Y ) iar produsul scalar dintre Y şi X − Y este definit
prin E (Y ( X − Y )) trebuie să demonstrăm E (Y ( X − Y )) = 0 . Deoarece
E (Y ( X − Y )G ) = YE (X − Y G ) = Y (E (X G ) − Y ) = Y (Y − Y ) = 0
rezultă E (Y ( X − Y )) = E (E (Y ( X − Y )G )) = 0 .
E P (LX G )
definită prin dQ = LdP . Atunci are loc următoarea relaţie: EQ (X G ) = .
E P (L G )
25
reprezintă pentru orice y media unei variabile aleatoare de lege µ ( y, dx ) . Dacă f ( x, y )
este densitatea unei perechi de variabile aleatoare (X ,Y ) atunci are loc formula
f ( x, y )dx
µ ( y, dx ) = .
∫ f (u, y )du
R
Cazul gaussian
( )
E ( X ) = aE (Y ) + b şi E ( XY ) = E (YE ( X Y )) = E aY 2 + bE (Y ) . De unde rezultă relaţiile:
Cov( X , Y )
a=
VarY
[ ]
, b = E ( X ) − aE (Y ) , c = E (X 2 Y ) − E 2 (X Y ) = E (X 2 ) − E (aY + b ) .
2
1.13. Martingale
Cazul discret
Fn -martingal dacă:
1. X n este integrabilă pentru orice n din N
26
Exemple. 1. Fie X 1 , X 2 ,..... un şir de variabile aleatoare independente cu media
n
0 şi fie Fn = σ ( X 1 ,..., X n ) , σ -algebra generată de X 1 , X 2 ,..... , atunci M n = ∑ X i este
i =1
un martingal. Pentru a demonstra acest lucru este suficient să verificăm axiomele din
n n
definiţia 52. Cum E M n = E ∑ X i ≤ ∑ E X i rezultă că axioma 1 este verificată.
i =1 i
E (M n +1 Fn ) = X 1 + X 2 + ... + X n + E ( X n +1 Fn ) = M n + EX n +1 = M n .
( )
3: E (M n +1 Fn ) = E S n2 + 2 X n +1 S n + X n2+1 Fn − (n + 1) . Cum S n este Fn -măsurabil rezultă
relaţia E (S n2 Fn ) = S n2 . Deoarece E (2 X n +1 S n Fn ) = 2 S n E (X n +1 Fn ) = 2 S n EX n +1 = 0 şi
E (M n +1 Fn ) = M n .
3. Considerăm o serie de aruncări independente ale unei monede perfecte şi fie 1 euro
capitalul iniţial de care dispunem. Considerăm că dacă rezultatul aruncării este
evenimentul H capitalul se dublează iar dacă rezultatul aruncării este evenimentul T
capitalul devine 0. Fie M n capitalul de care dispunem la momentul n . Altfel spus fie
E (M n +1 Fn ) = M n E ( X n +1 Fn ) = M n EX n +1 = M n .
27
Propoziţia 22. E ( X F ) ≤ E ( X F ) .
Propoziţia 23. Fie F1 ,F2 ,.... σ -algebre date şi fie X o variabilă aleatoare
E (M n +1 Fn ) = E (E (X Fn +1 )Fn ) = E (X Fn ) = M n .
Cazul continuu
3. E (X t Fs ) = X s pentru orice s ≤ t .
28
Propoziţia 25. Dacă X este un martingal atunci are loc relaţia E ( X t ) = E ( X 0 )
pentru orice t .
Propoziţia 26. Dacă (X t , t ≤ T ) este un martingal, procesul este complet
( )
E M t2 = E [(∑ (M t i +1 − M ti )) ] ≤ E [V sup M
2
t t i +1 ] [ ]
− M ti ≤ KE sup M ti +1 − M ti ,
unde membrul drept converge aproape sigur la 0 în cazul unei partiţii rafinate.
Inegalitatea lui Doob: Dacă X este un martingal continuu atunci are loc
inegalitatea: E sup X s2 ≤ 4 E (X T2 ) .
s ≤T
Propoziţia 27. Dacă g este o funcţie convexă atunci are loc inegalitatea:
E (g (M n +1 )Fn ) ≥ g (E (M n +1 Fn )) = g (M n ) .
Considerăm un spaţiu înzestrat cu o filtrare Ft . Notăm F∞ = σ UFt .
t
Definiţia 54. Un timp de oprire, sau regulă de oprire sau variabilă de oprire
este o variabilă aleatoare τ cu valori în R ∪ {+ ∞} astfel încât {τ ≤ t}∈ Ft pentru orice
t din R .
Exemplu. O constantă pozitivă este un timp de oprire.
Unui timp de oprire τ îi asociem o σ -algebra Fτ , numită σ -algebra
29
Proprietăţi:
1. Dacă T este un timp de oprire, atunci variabila aleatoare T este FT -măsurabilă;
2. Dacă S şi T sunt timpi de oprire atunci S ∧ T este un timp de oprire. In
particular, T ∧ t este timp de oprire.
3. Dacă S şi T sunt timpi de oprire astfel încât S ≤ T atunci are loc
incluziunea F S ⊂ FT .
X T este FT -măsurabilă.
Dacă T este un timp de oprire şi M este un (Ft ) -martingal, procesul Z definit
Propoziţia 29. Dacă pentru orice timp de oprire mărginit are loc relaţia
E ( X T ) = E ( X 0 ) atunci, procesul X este un martingal.
M ∞2 < ∞ .
Definiţia 56. M t este un martingal local dacă există un şir de timpi de oprire
integrabil.
Definiţia 57. Un proces M adaptat càglàd este un martingal local dacă există
( )
un şir crescător de timpi de oprire τ n astfel încât τ n tinde la ∞ şi M t ∧τ n , t ≥ 0 este un
30
Timp de oprire optim
măsoară recompensa medie asociată regulii de oprire τ . Fie C clasa tuturor regulilor de
oprire pentru care E ( X τ ) < ∞ . V = sup E ( X τ ) valoarea şirului {X n } şi dacă τ este o
τ ∈C
optimă.
n
Considerăm funcţia definită prin X n = min{1, Y1 + Y2 + ... + Yn } − , pentru
n +1
n ≥ 1 . Ca regulă de oprire τ considerăm primul întreg n ≥ 1 astfel încât
Y1 + Y2 + ... + Yn = 1 (1). In aceste condiţii are loc relaţia:
τ τ
E ( X τ ) = E (min{1, Y1 + Y2 + ... + Yτ }) − E = 1 − E > 0 (2).
τ + 1 τ +1
Pentru a arăta că regula de oprire (1) este optimă demonstrăm că pentru orice altă regulă
de oprire valoarea medie E ( X τ ) este negativă. Pentru a demonstra acest lucru folosim
lema lui Wald.
31
Lema lui Wald. Fie Y1 , Y2 ,..... variabile aleatoare independente, identic
repartizate, astfel încât E (Yi ) = µ < ∞ . De asemenea fie τ orice timp de oprire al
τ
şirului Y1 , Y2 ,..... pentru care E (τ ) < ∞ . Atunci E ∑ Yi există întotdeauna şi are loc
i =1
τ
relaţia E ∑ Yi = µE (τ ) .
i =1
Revenind la exemplul nostru aplicăm lema lui Wald variabilelor aleatoare Y1 , Y2 ,.....
reprezentând aruncările succesive ale unei monede perfecte. Y1 , Y2 ,..... sunt variabile
1 1
aleatoare independente identic repartizate ce verifică relaţia µE (Yi ) = 1 ⋅ + (− 1) ⋅ = 0 .
2 2
Mai mult τ reprezintă orice regulă de oprire pentru care E (τ ) < ∞ , deci în particular
dacă τ ∈ C atunci E (Y1 + Y2 + ... + Yτ ) = 0 . Acest lucru implică :
τ 1
E ( X τ ) ≤ E (Y1 + Y2 + ... + Yτ ) − E ≤− .
τ +1 2
Deci, pentru alte legi de oprire E ( X τ ) < 0 , iar sup E ( X τ ) este dat de relaţia (2).
τ ∈C
n 2 n 1 (n + 1)2 n +1 2n (n + 1)
E X n +1 X n = = = > Xn .
n + 1 2 n + 2 n+2
32
Această relaţie sugerează să nu ne oprim deoarece recompensa după încă o aruncare
X n +1 condiţionată de X n este mai mare decât recompensa obţinută în absenţa unei alte
aruncări. Dar dacă în urma unei noi aruncări rezultatul este T atunci câştigul final este
0. Deci în acest caz nu există o regulă de orpire optimă dar există totuşi o regulă de
oprire. Considerăm regulile de oprire {τ k }, k = 1,2,3,.... unde τ k impune oprirea după
( )
are loc relaţia E X τ k =
1 k 2k
⋅
1
+ 1 − k ⋅ 0 =
2 k +1 2
k
k
k +1
. Pentru k tinzând la ∞ în relaţia
sunt măsurabile în raport cu σ -algebrele F1 ,F2 ,.... . O regulă de oprire (sau variabilă de
oprire sau timp de oprire) este o variabilă aleatoare τ = τ (ω ) definită pe (Ω,F , P ) cu
valori întregi pozitive ce verifică următoarele două condiţii:
1. P(ω : τ (ω ) < ∞ ) = 1 , adică regula de oprire ia valori finite cu probabilitatea 1;
2. {ω : τ (ω ) = n}∈Fn pentru orice n , adică decizia de oprire la momentul n
33
funcţia indicator ce ia valoarea 1 pe mulţimea {ω ,τ (ω ) = n} şi 0 în rest. Ca şi în cazul
precedent valoarea V reprezintă sup E ( X τ ) .
τ ∈C
Pentru o regulă de oprire τ dată, valoarea medie E ( X τ ) este finită ( E ( X τ ) < ∞ ) dacă şi
∞
numai dacă: E ( X τ ) = ∑ E ( X n {τ = n})P(τ = n ) < ∞ . Având în vedere aceste lucruri, ne
n =1
de variabile aleatoare pe (Ω,F , P ) astfel încât: (1) relaţia E sup X n < ∞ are loc cu
n
probabilitate 1 şi (2) pentru n tinzând la ∞ , lim X n tinde la − ∞ cu probabilitate 1.
( )
E Yn2 < ∞ pentru n = 1,2,3,... atunci există o regulă de oprire care maximizează
∫ (Y − V )dF (Y ) = c .
Y
Exemplu (Căutarea unui loc de muncă). Considerăm cazul unei persoane care
este în căutarea unui loc de muncă. Presupunem că persoana primeşte o ofertă în fiecare
zi, iar căutarea are loc zilnic până în clipa în care acceptă o ofertă. Fie c > 0 costul
generării unei oferte. Există două posibilităţi de selecţie a ofertei: selecţie cu revenire
adică toate ofertele sunt reţinute sau selecţie fără revenire atunci când ofertele care nu
sunt acceptate sunt eliminate. Fie Yn variabile aleatoare ce reprezintă ofertele la
34
repartiţie F a salariului corespunzător. De asemenea, presupunem că persoana se află
în condiţii de risc neutru şi are ca obiectiv maximizarea câştigului net. Decizia se referă
la oprirea procesului de căutare, deci la acceptarea unei oferte. Funcţia de recompensă
este definită prin:
X n = max{Y1 , Y2 ,..., Yn } − nc pentru n = 1,2,3,... şi c > 0 pentru cazul în care
selecţia este cu revenire;
X n = Yn − nc pentru cazul în care selecţia este fără revenire, altfel spus,
recompensa este diferenţa dintre oferta curentă şi costul total de căutare.
Considerăm cazul căutării cu revenire.
Propoziţia 31. Fie Y1 , Y2 ,...... un şir de variabile aleatoare identic repartizate,
cu funcţia de repartiţie F . Fie c > 0 un număr dat şi definim Z = sup X n , unde
n
implică existenţa unei reguli de optimizare în cazul problemei studiate. Natura regului
de optimizare în modelul căutării unui loc de muncă este descrisă de propoziţia 30. Mai
precis, pentru orice ofertă de salariu Y , regula de oprire optimă este de forma:
1. se acceptă oferta dacă Y ≥ V ;
2. se continuă căutarea dacă Y < V
valoarea V este cunoscută sub numele de „reservation wage” iar regula de oprire este
cunoscută sub numele de „reservation wage property”.
Considerăm prima observaţie Y1 din şirul de variabile aleatoare independente,
identic repartizate Y1 , Y2 ,...... In acest caz, câştigul mediu ce are la bază „reservation
wage property” este E (max{V , Y1}) − c . Din definiţia lui V câştigul mediu optim
satisface relaţia : V = E max(V , Y1 ) − c (3). Dar:
35
V ∞ V ∞ ∞
E max(V , Y1 ) = V ∫ dF (Y ) + ∫ YdF (Y ) = V ∫ dF (Y ) ± V ∫ dF (Y ) + ∫ YdF (Y ) =
0 V 0 V V
V ∞ ∞ ∞ ∞ ∞
= V ∫ dF (Y ) + V ∫ dF (Y ) + ∫ YdF (Y ) − V ∫ dF (Y ) = V ∫ dF (Y ) + ∫ (Y − V )dF (Y ) =
0 V V V 0 V
∞
= V + ∫ (Y − V )dF (Y ) . (4)
V
∞
Inlocuind relaţia (4) în relaţia (3) obţinem ecuaţia ∫ (Y − V )dF (Y ) = c (din propoziţia
Y
30).
∞
Fie H (V ) = ∫ (Y − V )dF (Y ) . Funcţia H este convexă, nenegativă, strict descrescătoare şi
V
Spunem că X este un proces Markov dacă pentru orice t şi orice variabilă aleatoare
mărginită Y din F∞ are loc egalitatea E (Y o θ t Ft ) = E (Y o θ t X t ) , unde θ este un
i = 1,2,..., n astfel încât t1 < t 2 < ... < t n are loc egalitatea:
( ( ) ) ( ( ) )
E F X s + t1 , X s + t2 ,..., X s +tn Fs = E F X s +t1 , X s + t2 ,..., X s +tn X s .
In particular, pentru orice funcţie boreliană mărginită f şi orice t > s are loc egalitatea:
E ( f ( X t )Fs ) = E ( f ( X t ) X s ) .
36
Observaţie. Un proces stochastic este proces Markov dacă comportamentul său ulterior
poate fi estimat numai pe baza informaţiei din prezent, fără a cunoaşte modul în care s-
a ajuns la ea. De exemplu, este posibil ca pe piaţa de capital evoluţia preţului acţiunilor
să nu fie markoviană dar procesul cumulat să aibă proprietatea Markov.
Bibliografie
37
Capitolul 2
Mişcarea Browniană
Mişcarea browniană reprezintă cel mai important proces stochastic ce stă la baza
construirii modelelor matematice de pe piaţa de capital. Asocierea acestui proces cu
evoluţia pieţei a fost făcută la începutul secolului 20 când Bachalier a pus în evidenţă
caracterul markovian al mişcării browniene.
(Btn )
− Btn −1 ,....., Bt1 − Bt0 , Bt0 sunt independnente.
1. B0 = 0 aproape sigur;
t − s pentru s < t ;
3. Bt − Bs este independentă de σ -algebra generată de {Br ; r ≤ s};
Deci pentru s ≤ t , Cov(Bs , Bt ) = s . Atunci pentru r < s < t are loc relaţia:
38
Dacă, de asemenea, presupunem că variabilele aleatoare Bt cumulate sunt gausiene
( )
Fie Ω = C R + , R spaţiul funcţiilor continue definite pe R + cu valori în R . Pe
Ω construim funcţiile Bt definite prin Bt (ω ) = ω (t ) şi înzestrăm acest spaţiu cu o
( )
2. Variabilele aleatoare X ti +1 − X ti , t 0 ≤ t1 ≤ .... ≤ t n sunt independnente.
∫e = 1 pentru i = j şi ∫e e = 0 pentru i ≠ j .
2
sistem ortogonal complet dacă i i j
Combinaţii liniare finite ale acestor funcţii formează o submulţime densă în L2 [0,1] .
1
Notăm f , g = ∫ fg şi f = f , f
12
.
0
n ∞
∑ = ∑ f , ei
2 2
Propoziţia 2.1. 1. f , e1 ei converge în L2 la f ; 2. f ;
i =1 i =1
∞
Dacă f şi g sunt din L2 atunci f , g = ∑ f , ei g , ei .
i =1
39
n
Demonstraţie. Fie g n = f − ∑ f , ei ei . Cum ei formează un sistem ortogonal rezultă
i =1
n 2 n
∑ a i ei
i =1
= ∑ ai2 . Având în vedere acest lucru obţinem inegalitatea:
i =1
n 2 n n n
∑ − 2 f , ∑ f , ei ei = f + ∑ f , ei − 2∑ f , e i
2 2 2 2 2
0 ≤ gn = f + f , ei ei =
i =1 i =1 i =1 i =1
n
− ∑ f , ei
2 2
= f . Trecem la limită şi pentru n → ∞ obţinem inegalitatea lui Bessel:
i =1
∑
2 2
f , ei ≤ f . Din inegalitatea lui Bessel rezultată că pentru n, m → ∞ seria
i =1
∑
2 2
gn − gm = f , ei tinde la 0. Cum L2 este un spaţiu complet rezultă că g n este
i = m +1
g ∞ , ei = 0 pentru orice i . Cum sistemul ei este complet rezultă g ∞ = 0 , deci are loc
axioma (1).
n
− ∑ f , ei
2 2 2
Axioma (2) rezultă din relaţia g n = f şi din faptul că g n → 0 .
i =1
0 în rest.
40
Este uşor de verificat faptul că ϕ ij , ϕ kl = 1 pentru i = k şi j = l şi 0 în rest.
Definim acum o mişcare browniană pentru cazul în care t ∈ [0,1] . Fie atunci
t
funcţia ψ ij (t ) = ∫ ϕ ij (s )ds . Fie Yij un şir de variabile aleatoare independente, identic
0
2i −1
repartizate, cu o repartiţie normală standard. Fie V0 (t ) = Y00ψ 00 (t ) şi Vi (t ) = ∑ Yijψ ij (t ) .
j =1
∞
Fie X t = ∑ Vi (t ) . Atunci X t , cu t ∈ [0,1] este o mişcare browniană.
i =0
Demonstrăm mai întâi convergenţa seriei. Fie Ai = sup Vi (t ) ≥ i −2 . Atunci are loc
t
relaţia:
( ) (
P( Ai ) ≤ P ∃ j ≤ 2 i −1 : Yij ψ ij (t ) > i − 2 pentru t ∈ [0,1] ≤ P ∃ j ≤ 2 i −1 : Yij 2 -(i-1) 2 > i − 2 ≤ )
( )
≤ 2 i −1 P Yij > 2 (i +1) 2 i −2 ≤ 2 i − 2 e −2
i
i4
,
din care rezultă că ∑ P( A ) < ∞ . Având în vedere acest rezultat putem aplica lema
i
i
∞ ∞
Borel-Cantelli. Prin urmare P IU An = 0 . Deci dat ω , există I cu i ≥ I pentru
j =1 n = j
care ω ∉ Ai . Astfel pentru i ≥ I , sup Vi (t )(ω ) ≤ i −2 pentru orice t . Cum seria ∑i −2
t i
continuă pentru fiecare i rezultă că nu numai seria converge uniform pentru fiecare ω
dar şi limita este o funcţie continuă de t .
Mai departe, cum X t este o combinaţie liniară de variabile Yij rezultă X t este
Cov( X s , X t ) = E ∑ Yij ϕ ij ,1[0, s ] , ∑ Ykl ϕ kl 1[0,t ] = ∑ ϕ ij ,1[0, s ] ϕ ij ,1[0,t ] .
i, j k ,l i, j
Din propoziţia 2.1. rezultă că pentru s < t ultimul termen al egalităţii de mai sus este
1[0, s ] ,1[0,t ] = s .
41
Pentru a construi o mişcare browniană pentru orice t ≥ 0 procedăm în felul
următor: fie X t şi X t′ două mişcări browniene independente, unde t ≤ 1 . Fie Yt = tX 1′ t .
X t pentru t ≤ 1
Atunci definim variabila aleatoare Z t astfel: Z t = . Pentru
X 1 + (Yt − Y1 ) pentru t > 1
t ≥ 0 , Z t este o mişcare browniană.
1
caracterizată prin P( X i = 1) = P( X i = −1) = , i ∈ N * . Acestei familii de variabile
2
n
aleatoare îi asociem şirul (S n , n ≥ 0 ) definit prin S 0 = 0 , S n = ∑ X i (Fig.1). Spunem că
i =1
S n este un mers aleatoriu simetric simplu. Printr-un calcul simplu se arată că valoarea
Fig. 1
S m− n au aceeaşi lege.
42
1
Fie N fixat. Definim o familie de variabile aleatoare U k = S k , indexată prin
N N
k
numere reale de forma , unde k ∈ N . Pentru această variabilă media
N
k
este E U k = 0 iar varianţa Var U k
= .
N
N N
Verificăm proprietăţile de independenţă şi staţionaritate:
1. dacă k ≥ k ' , U k − U k ' este independent de U p ; p ≤ k ' ;
N N N
2. dacă k ≥ k ' , U k − U k ' şi U k −k ' au aceeaşi lege .
N N N
k k +1
(U t , t ≥ 0) impunând funcţiei t → U t condiţia de afinitate între şi (Fig.2).
N N
Fig. 2
In acest scop, N fiind fixat, se observă că pentru orice t din R+ există un unic k (t ) în
k (t ) k (t ) + 1
N , astfel încât ≤t< . Definim variabila aleatoare
N N
43
k
U tN = U k + N t − U k +1 − U k ,
N N N N
S N − NE ( X 1 ) 1
unde k = k (t ) . Pentru t = 1 obţinem U 1N = = S N . Atunci din
NVar ( X 1 ) N
la N (0, t ) pentru orice t din [0,1] . In aceste condiţii putem spune că U N converge în
∑
n
i =0
( )
ai Bti = ∑i =0 bi Bti +1 − Bti , unde ai = bi − bi +1 pentru i ≤ n − 1 şi a n = bn . Deoarece
n
procesul este centrat covarianţa este egală cu E (Bt Bs ) . Dacă s ≤ t atunci are loc relaţia:
( ) ( )
E (Bt Bs ) = E (Bt − Bs )Bs + Bs2 = E (Bt − Bs )E (Bs ) + E Bs2 = s .
Notaţie. Fie E x ( f (Bs )) = E ( f ( x + Bs )) media lui f (Bs ) atunci când B este o mişcare
44
Propoziţia 2.3. Dacă (Bt , t ≥ 0) este o mişcare browniană atunci Bt are
următoarele proprietăţi:
1. Bˆ t = − Bt este o mişcare browniană;
~
2. Bt = cBt c 2 , c > 0 , este o mişcare browniană;
~ ~
( ) ( 1
Cov Bs , Bt = c 2 Cov Bs c 2 Bt c 2 = c 2 s 2 = s .
c
)
~ ~
(
Creşterile Bt + s − Bs = cB(t + s ) c 2 − cBs c 2 = c Bt c 2 + s c 2 − Bs c 2 ) fiind multipli de variabile
aleatoare normal repartizate admit o repartiţie normală. Cum creşterile Bt c 2 + s c 2 − Bs c 2
~ ~
au media 0, rezultă şi creşterile Bt + s − Bs au media 0 iar varianţa este dată de expresia:
(
~ ~
E Bt + s − Bs )
2
(
= E cB(t + s ) c 2 − cBs c 2 )
2
(
= c 2 E Bt c 2 + s c 2 − Bs c 2 )
2
= c 2t
1
c2
=t.
[t
1 ] [ ]
c 2 , t 2 c 2 şi t 3 c 2 , t 4 c 2 sunt disjuncte, prin urmare creşterile corespunzătoare
45
Demonstraţie. Având în vedere faptul că u>t putem construi creşterile
corespunzătoare procesului şi aplicăm proprietăţile mediei condiţionate:
repatiţie N (0, u − t ) .
Φ (s , x ) =
1
f ( y ) exp−
( y − x )2 dy .
2πs
∫
R
2s
( ) ( ) (
Bt şi varianţă u − t . Atunci E 1 Bu ≤ x Ft = E 1 Bu ≤ x σ (Bt ) = E 1 Bu ≤ s Bt , pentru t ≤ u . )
Propoziţia 2.5. (Proprietatea tare Markov). Fie T timp de oprire cu valori
finite. Atunci are loc relaţia E ( f (BT + s )FT ) = E ( f (BT + s )σ (BT )) . In particular, pentru
def
orice timp de oprire finit T , procesul (Wt , t ≥ 0 ) definit prin Wt = Bt +T − BT este o
varianţă t . Fie q (t , x, y ) =
1
exp−
( y − x )2 = g (t , x − y ) densitatea de tranziţie a
2πt 2t
∂q
(t , x, y ) = 1 ∂ q2 (t , x, y ) .
2
∂t 2 ∂y
Derivata la stânga a densităţii de tranziţie q este dată de ecuaţia:
∂q
(t , x, y ) = 1 ∂ q2 (t , x, y ) .
2
∂t 2 ∂x
46
Având în vedere proprietatea de staţionaritate a creşterilor unei mişcări browniene,
putem afirma că pentru orice funcţie boreliană mărginită are loc relaţia:
∞
E ( f (BT ) Bt = x ) = ∫ f ( y )q(T − t , x, y )dy .
−∞
Fie
∞ ∞
u (t , x, f ) = ∫ f ( y )q(t , x, y )dy = E ( f (Bt + x )) = E ( f (Bt + s ) Bs = x ) = ∫ f (x + y )g (t , y )dy
−∞ −∞
u (0, x, f ) = f ( x )
soluţia sistemul ∂u 1 ∂ 2 u . (1)
− + =0
∂t 2 ∂x 2
Pentru a calcula valoarea medie E ( f (BT )) este suficient să rezolvăm sistemul (1) şi să
observăm că E ( f (BT )) = u (T ,0, f ) . De asemenea, obţinem E ( f (BT + x )) = u (T , x, f ) .
∞
∂ 2u
Mai mult, (t , x, f ) = ∫ f ′′(x + y )g (t , y )dy = u (t , x, f ′′) = E ( f ′′(Bt + x )) (2).
∂x 2 −∞
T
1
de unde rezultă relaţia E ( f (BT + x )) = f (x ) + E ( f ′′(Bs + x ))ds .
2 ∫0
v(T , x ) = f ( x )
∂v 1 ∂ 2 v
+ =0
∂t 2 ∂x 2
t
1
E ( f (t , x + Bt )) = f (0, x ) + ∫ E f xx′′ (s, x + Bs ) + f t′(s, x + Bs ) ds .
0 2
47
Demonstraţie. Fie u (t , x, f ) = E ( f (t , x + Bt )) . Din relaţiile (1) şi (2) rezultă
du
(t , x, f ) = u (t , x, ∂ t f ) + 1 u (t , x, ∂ xx f ) . Prin urmare putem scrie
dt 2
u (t , x, f ) = F (t , t , x, f ) , unde F (s, t , x, f ) = E ( f (s, x + Bt )) . Aplicând teorema de
du
(t , x, f ) = ∂F (t , t , x, f ) + ∂F (t , t , x, f ) = E ∂f (s, x + Bt ) + 1 u (t , x, ∂ xx f ) .
dt ∂s ∂t ∂t 2
t
1
u (t , x, f ) − u (0, x, f ) = ∫ E f t (s, x + Bs ) + ∂ xx f (s, x + Bs ) ds .
0 2
du
(t , x, f ) = 1 σ 2 u (t , x, ∂ xx f ) + µu (t , x, ∂ x f ) + u (t , x, ∂ t f ) şi u (0, x, f ) = f (x ) .
dt 2
1
Fie L operatorul definit prin L ( f ) = σ 2 ∂ xx f + µ∂ x f .
2
Propoziţia 2.7. Dacă f este o funcţie de clasă Cb1 în parametrul timp şi de
t
E ( f (t , x + µt + σBt )) = f (0, x ) + ∫ E [Lf (s, x + µs + σBs ) + ∂ t f (s, x + µs + σBs )]ds .
0
E (u (t , Bt ) F s ) = E (u (s + t − s, x + Bt − s )) x = Bs = E (u s , x (t − s, Bt − s )) x = Bs ,
unde u s , x (t , y ) = u (s + t , x + y ) . De asemenea,
t
E (u s , x (t − s, Bt = s )) = u s , x (0,0 ) + ∫ Lu s , x (ω , Bω )dω .
0
48
Din ipoteză L (u ) = 0 deci Lu s , x = 0 . Prin urmare axioma 3 din definiţia martingalului
∑ [B(t ) − B(t )]
a.s.
2
j j −1 → t pentru n → ∞ .
j =1
2n
[ ]
Demonstraţie. Fie Z = ∑ B (t j ) − B (t j −1 ) , atunci E Z tn = t . Dorim să arătăm că
t
n 2
( )
j =1
((
E Z tn − t ) ) → 0 . Avem în vedere faptul că dacă X este o variabilă a cărei lege de
2
2n 2n 2
∞ 2
Prin urmare E ∑ (Z tn − t ) = ∑ n < ∞ . Deci ∑ (Z )
∞ ∞
t 2
t
n
−t < ∞ şi termenul general
n =1 n =1 2 n =1
Vt (ω ) = sup σ ∑ i
Bti +1 (ω ) − Bti (ω ) . Atunci Vt (ω ) = ∞ aproape sigur.
2n
Demonstraţie. sup σ ∑ i
Bti +1 − Bti ≥ sup n ∑ Yk
k =0
, unde Yk = Bt * − Bt * iar punctele
k +1 k
n
2
k
sunt definite astfel: t = n t . Majorând Z tn obţinem Z tn ≤ sup Bt * − Bt * ∑ Yk .
*
k
2 k k +1 k
k =0
Cum traiectoriile sunt uniform continue pe intervalul [0, t ] , pentru n tinzând la ∞ ,
49
2n
termenul Btk +1 − Btk tinde la 0 aproape sigur. Seria ∑Y
k =0
k este crescătoare şi nu poate
(Bt
2
)
− t , t ≥ 0 este un martingal. Reciproc, dacă X este un proces continuu astfel încât
( )
egalităţile: E (Bt − Bs ) F s = t − s şi
2
( ) ( ) ( ) (
E (Bt − Bs ) F s = E Bt2 + Bs2 − 2 Bt Bs F s = E Bt2 Fs + Bs2 − 2 Bs E (Bt F s ) = E Bt2 F s − Bs2
2
)
Prin urmare obţinem E (B − t Fs ) = B − s .
t
2 2
s
1
Altă metodă: utilizăm faptul că (B1 + B2 ) este un proces gaussian de covarianţă t ∧ s
2
1
deci o mişcare browniană. Prin urmare (B1 (t ) + B2 (t ))2 − t este un martingal. Dar cum
2
1
(B1 (t ) + B2 (t ))2 − t = 1 (B12 (t ) − t ) + 1 (B22 (t ) − t ) + B1 (t )B2 (t ) obţinem rezultatul căutat.
2 2 2
50
Definiţia 2.4. Spunem că procesul B este o (G t ) - mişcare browniană dacă B şi
(B t
2
)
− t , t ≥ 0 sunt (G t ) -martingale.
1
Propoziţia 2.13. Pentru orice λ real, procesul exp λBt − λ2 t , t ≥ 0 este
2
un martingal. Reciproc, dacă X este un proces continuu astfel încât
1
exp λX t − λ2 t , t ≥ 0 este un martingal, atunci pentru orice λ real procesul X
2
este o mişcare browniană.
Demonstraţie. Independenţa implică egalitate:
1 1
E expλ (Bt − Bs ) − λ2 (t − s ) F s = E expλ (Bt − Bs ) − λ2 (t − s ) . Media din
2 2
membrul drept se calculează ca transformata Laplace a unei variabile gaussiene.
Obţinem
1 1 1
E expλ (Bt − Bs ) − λ2 (t − s ) = 1 şi E expλBt − λ2 t F s = expλBs − λ2 s .
2 2 2
Pentru a demonstra reciproca se ţine cont de caracterizarea variabilei gaussiene prin
intermediul transformatei Laplace.
Generalizare
exp β X t − µβ + σ 2 β 2 t , t ≥ 0 este un Ft - martingal. Reciproc, dacă X este un
1
2
1
proces stochastic continuu astfel încât exp β X t − µβ + σ 2 β 2 t , t ≥ 0 este un
2
Ft -martingal, există atunci B o Ft - mişcare browniană astfel încât X t = µt + σBt .
1
Demonstraţie. Cum exp λBt − λ2 t , t ≥ 0 este un martingal, trebuie doar să ţinem
2
1
cont de faptul că Bt = ( X t − µt ) şi să facem subtituţia λ = βσ .
σ
51
2.6. Timp de lovire
Propoziţia 2.15. Fie (Bt , t ≥ 0) o mişcare browniană şi fie a un număr real. Fie
{Ta ≤ t} = sup Bs
s ≤t
( )
≥ a = {∀ε∃s ∈ Q : Bs > a − ε } = ∩ ε ∈Q + ∪ s ≤t , s∈Q {Bs > a − ε }
care spune că {Ta ≤ t} se obţine din reuniuni şi intersecţii numărabile de elemente din
( )
E e − λTa , utilizăm faptul că t ∧ Ta este timp de oprire mărginit şi teorema de orpire a lui
λ2
Doob. Astfel, pentru orice t avem E exp λBt ∧Ta − (t ∧ Ta ) = 1 . Cum t tinde la ∞ ,
2
şi Ta este finit are loc relaţia Bt ∧Ta → BTa = a . De asemenea putem scrie:
λ2 λ2
exp λBt ∧Ta − (t ∧ Ta ) → exp λa − Ta .
2 2
λ2
Prin urmare exp λBt ∧Ta − (t ∧ Ta ) → 0 . Trecând la limită şi utilizând teorema
2
λ2
convergenţei dominante a lui Lebesgue, E 1Ta <∞ exp − Ta = exp(− aλ ) . Pentru a
2
obţine E (Ta ) derivăm în raport cu λ şi punem condiţia λ = 0 .
52
Se observă că pentru a < 0 , Ta = inf {t ≥ 0 ; Bt = a} = inf {t ≥ 0 ;Wt = − a}, unde
(
W = − B . Egalitatea E (exp − λTa ) = exp − a 2λ ) nu este adevărată pentru orice a.
Dacă a < 0 şi λ > 0 , termenul din membrul stâng este mai mic decât 1 în timp ce
termenul din membrul drept este mai mare decât 1.
Densitatea variabilei aleatoare Ta pentru a > 0 este dată de formula
a a2
exp − şi se determină aplicând inversa transformatei Laplace.
2πt 3 2t
In mod analog se obţin următoarele rezultate:
• ( ) [ (
Fie Tˆa = inf {t ≥ 0 ; Bt = a}, cu a > 0 atunci E exp− λTˆa = cosh a 2λ )]−1
.
b
• Dacă a ≤ 0 ≤ b atunci P(Ta < Tb ) = .
b−a
• Dacă c şi d sunt reali pozitivi şi T = Tc ∧ T− d atunci
Generalizare
exp β X t − µβ + σ 2 β 2 t , t ≥ 0 putem spune că pentru µ > 0 şi λ > 0 are loc
1
2
relaţia
( ) (
E exp− λTaµ = exp µa − a µ 2 + 2λ , )
1
unde λ = µβ + σ 2 β 2 .
2
Pentru λ = 0 obţinem P(Ta < ∞ ) . Dacă a şi µ au acelaşi semn atunci această cantitate
este 1.
53
2.7. Mişcarea browniană multidimensională
Pentru fiecare pereche (a, b ) procesul aBt(1) + bBt(2 ) este un proces gaussian. Este uşor de
1
(aB ( ) + bB ( ) ) este o mişcare browniană.
def
verificat faptul că Bt = t
1
t
2
a +b
2 2
(B3 (t ))2 − t = 1
1− ρ 2
[
(B2 (t ))2 + ρ 2 (B1 (t ))2 − 2 ρB2 (t )B1 (t ) − t (1 − ρ 2 ) = ]
=
1
1− ρ 2
[ [ ]
(B2 (t ))2 − t + ρ 2 (B1 (t ))2 − t − 2 ρ [B2 (t )B1 (t ) − ρt ] ]
rezultă (B3 (t )) − t este un martingal şi deci B3 este o mişcare browniană. Se poate
2
procesul Bt =
1
(aB ( ) + bB ( ) ) este o mişcare browniană.
1 2
a + b + 2 ρab
2 2
54
2.8. Integrala Weiner
( )
Definiţia 2.5. Fie L2 R + mulţimea funcţiilor boreliene f definite pe R + cu
∞
∫ f (s )
2
valori în R de pătrat integrabile, adică ds < ∞ . Acest spaţiu înzestrat cu norma
0
12
∞
f 2
= ∫ f 2
(s )ds este un spaţiu Hilbert.
0
Funcţii scară
∞
Pentru f = 1(u ,v ] , avem ∫ f (s )dBs = B(v ) − B(u ) .
0
∞ n
Fie f o funcţie scară, atunci putem scrie ∫ f (s )dBs = ∑ f i −1 (B(t i ) − B(t i −1 )) .
0 i =1
def ∞
Variabila aleatoare I ( f ) = ∫ f (s )dB s este o variabilă gaussiană de medie 0 şi varianţă
0
n n ∞
Var (I ( f )) = ∑ f i −21Var (B(t i ) − B(t i −1 )) = ∑ f i −21 (t i − t i −1 ) = ∫ f 2
(s )ds .
i =1 i =1 0
∞ ∞ ∞ ∞
= ∫ ( f + g ) (s )ds + ∫ f (s )ds + ∫ g 2 (s )ds + 2∫ f (s )g (s )ds .
2 2
0 0 0 0
55
Cazul general
∞
şir Cauchy în L2 (R + ) . Şirul de variabile aleatoare Fn = ∫ f n (s )dBs este un şir Cauchy în
0
Proprietăţi
Aplicaţia f → I ( f ) definită pe L2 (R + ) cu valori în L2 (Ω ) este liniară şi
verifică proprietatea de izometrie. Liniaritatea se referă la relaţia I ( f + g ) = I ( f ) + I ( g )
iar izometria se referă la faptul că norma lui I ( f ) este egală cu norma lui f . Norma lui
t
verifică relaţia: E Bt ∫ f (s )dBs = ∫ f (s )ds . Acestă relaţie este o caracterizare a
R+ 0
56
t
integralei stochastice în sensul următor: dacă pentru orice t , E (ZBt ) = ∫ f (s )ds atunci
0
∞
Z = ∫ f (s )dBs .
0
t
E B(t ) ∫ f (s )dBs = E ∫ dBs ∫ f (s )dBs .
R+ 0 R+
t ∞
Fie f din L2 (R + ) . Definim variabila aleatoare ∫ f (s )dBs = ∫ 1[0,t ] (s ) f (s )dBs .
0 0
∫ f (s )
2
Analog, pentru orice T şi pentru funcţii f care verifică condiţia ds < ∞ ,
0
t
putem defini ∫ f (s )dB
0
s ceea ce permite definirea integralei stochastice pentru o clasă
∫ f (s )ds .
2
are media 0 şi varianţa
0
∫ f (u )du .
2
covarianţă este
0
t
3. procesul M t2 − ∫ f 2
(s )ds, t ≥ 0 este un martingal.
0
4. dacă f şi g sunt din L2loc atunci are loc relaţia
t s
t ∧s
E ∫ f (u )dBu ∫ g (u )dBu = ∫ f (u )g (u )du .
0 0 0
57
Demonstraţie. Considerăm cazul în care f este o funcţie elementară şi trecem la
limită. Pentru a verifica faptul că M un martingal demonstrăm că pentru
n t
f = ∑ f i −1 1(ti −1 ,ti ] are loc relaţia : 0 = E (M t − M s F s ) = E ∫ f (u )dBu F s .
i =1 s
t
Presupunem t i < s < t ≤ t i +1 , atunci E ∫ f (u )dBu F s = f i E ((Bt − Bs ) F s ) şi relaţia
s
precedentă este demonstrată.
Presupunem t i < s ≤ t i +1 ≤ t j < t ≤ t j +1 , atunci
t
( )
j −1
(
E ∫ f (u )dBu F s = E f j Bt − Bt j + ∑ f k Btk +1 − Btk + f i Bti +1 − Bs F s = ) ( )
s k =i +1
( ) ∑ f E (B
j −1
= f j E Bt − Bt j F s + k t k +1 ) (
− Btk F s + f i E Bti +1 − Bs F s = 0 )
k = i +1
t 2
( )
E M − M F s = E (M t − M s )
t
2 2
s ( 2
)
Fs = E ∫ f (u )dBu Fs =
s
( (
= E ∑ f (t k ) Btk +1 ∧t − Btk ∧t Fs = ∑ f )
2
) 2
(t k )((t k +1 ∧ t ) − (t k ∧ t )) .
Propoziţia 2.17. Dacă f este o funcţie de clasă C 1 atunci are loc formula:
t t
Demonstraţie. Pentru a demonstra formula este suficient să arătăm că are loc egalitatea:
t t
t ∧u
E Bu ∫ f (s )dBs = E Bu f (t )Bt − ∫ f (s )Bs ds . Membrul stâng este egal cu ∫ f (s )ds .
′
0 0 0
t t
E (Bu f (t )Bt ) = f (t )(t ∧ u ) şi E Bu ∫ f ′(s )Bs ds = ∫ f ′(s )(s ∧ u )ds .
0 0
58
In aceste condiţii relaţia căutată rezultă aplicând formula clasică de integrare prin părţi
b
pentru o expresie de tipul ∫ sf ′(s )ds .
0
1
Din expresia X t = X s exp b − σ 2 (t − s ) + σ (Bt − Bs ) rezultă caracterul markovian
2
al lui X . Caracterul markovian al lui X şi proprietăţile mişcării browniene permit
calcularea următoarei medii condiţionate:
1
E (X t F s ) = X s E exp b − σ 2 (t − s ) + σ (Bt − Bs ) F s =
2
1
= X s exp(b(t − s ))E exp − σ 2 (t − s ) + σ (Bt − Bs ) F s =
2
1
= X s exp(b(t − s ))E exp − σ 2 (t − s ) + σBt − s = X s e b (t − s ) = E ( X t X s ) .
2
Analog, fie G o variabilă aleatoare cu legea de repartiţie N (0,1) , atunci are loc relaţia:
1
E ( f ( X t )F s ) = E ( f ( X t ) X s ) = E f x exp b − σ 2 (t − s ) + σ (Bt − Bs ) =
2 x = X s
1
= E f x exp b − σ 2 (t − s ) + σG t − s =
2 x = X s
∞
1
= ∫ f X s exp b − σ 2 (t − s ) + σy t − s q (1,0, y )dy
−∞ 2
59
Observaţie. Acest proces este deseori utilizat pentru modelarea preţului activelor.
Randamentul unui activ între două date fixate este dat de variabila gaussiană
1 2
b − σ (t − s ) + σ (Bt − Bs ) .
2
2
[( )]
= X 02 exp 2b + σ 2 t . Prin urmare VarX t = x 2 e 2bt e σ t − 1 . ( 2
)
E(X t ) − x
Raportul lui Sharp este dat de formula .
VarX t
Proces Ornstein-Uhlenbeck
t
Propoziţia 2.19. Ecuaţia lui Langevin Vt = − ∫ aVs ds + σBt + V0 (sau altfel scris
0
t
Vt = e V0 + ∫ e −(t − s )aσdBs .
−ta
Verificăm faptul că X este soluţie a ecuaţiei lui Langevin. Aplicând formula integrării
t t
t
prin părţi obţinem: ∫ e −(t − s )aσdBs = σe − at ∫ e sa dBs = σe − at e at Bt − a ∫ e sa Bs ds .
0 0 0
t
Atunci are loc relaţia: X t = e −taV0 + σBt − σe − at a ∫ e sa Bs ds .
0
60
t t t t
s ua
∫0 ∫0 σ ∫0 σ ∫0 ∫0 ds . Calculând integrala
− sa − as
Calculăm X s ds = e V 0 ds + B s ds − a e e Bu du
1
t t t t
∫ due Bu ∫ dse = ∫ Bs ds − e ∫ e − as ds .
ua − as − at
dublă din membrul drept rezultă
0 u
a 0 0
Inlocuirea rezultatului obţinut în relaţia precedentă implică:
t t
(
a ∫ X s ds = V0 1 − e − at
) + σa ∫ e ( a s −t )
Bs ds = − X t + σBt + V0 .
0 0
s t
cov[Vs , Vt ] = covV0 e − as + σe − as ∫ e au dBu , V0 e − at + σe − at ∫ e au dBu =
0 0
s t
( )
= cov V0 e − as , V0 e − at + σ 2 e − as e − at cov ∫ e au dBu , ∫ e au dBu =
0 0
s ∧t
= ve − as e − at + σ 2 e − as e − at ∫ e 2 au du .
0
Caracterul gaussian este uşor de stabilit iar unicitatea se demonstrează prin reducere la
absurd.
61
σ2
In particular, dacă V0 este o constantă ( v = 0 ) atunci cov[Vs ,Vt ] =
2a
( )
e − a ( s +t ) e 2 as − 1 şi
σ2
Var (Vt ) = (1 − exp− 2at ) .
2a
s s
Scriind Vs = e − saV0 + ∫ e −( s −u )aσdBu şi Vs e ( s −t )a = e −taV0 + ∫ e −(t −u )aσdBu obţinem pentru
0 0
s ≤ t relaţia:
t t
~
Vt = Vs e −(t − s )a + ∫ e −(t −u )aσdBu sau Vt + s = Vs e −ta + ∫ e −(t −u )aσdBu ,
s 0
~
unde Bu = Bs +u − Bs este o mişcare browniană independentă de F s şi deci de Vs . In
( ( ) )
particular, E ( f (Vt + s )F s ) = E f Vs e − ta + Y F s = E ( f (Vt + s )Vs ) , unde Y este o variabilă
t
Propoziţia 2.21. Variabila aleatoare ∫ V ds ,
0
s este o variabilă aleatoare
1 − e − at σ2 σ 2 1 − e − at
şi varianţa − 3 (1 − e − at ) + 2 t −
2
gaussiană, cu media V0 .
a 2a a a
Modelul Vasicek
această formă el este utilizat pentru studierea fluctuaţiei ratei dobânzii şi este cunoscut
sub numele de modelul lui Vasicek.
t
Forma explicită a soluţiei ecuaţiei este rt = (r0 − b )e − at
+ b + σ ∫ e − a (t −u ) dBu .
0
62
Dacă r0 este constantă, atunci rt este o variabilă gaussiană cu media (r0 − b )e − at + b şi
σ2
varianţa (1 − exp− 2at ) . Procesul r este gaussian cu covarianţa:
2a
σ2
Cov(rs , rt ) =
2a
( )
e − a ( s + t ) e 2 as − 1 , s ≤ t .
Propoziţia 2.22. Pentru s < t , şi pentru procesul r definit mai sus au loc
următoarele formulele:
σ2
E (rt rs ) = (rs − b )e − a (t − s ) + b şi var(rt rs ) =
2a
(1 − e − 2 a (t − s )
).
t
Propoziţia 2.23. Variabila aleatoare ∫ r ds este o variabilă gaussiană cu media
0
s
t 1 − e − at σ2 σ 2 1 − e − at
E ∫ rs ds = bt + (r0 − b ) şi varianţa − 3 (1 − e − at ) + 2 t −
2
.
0 a 2a a a
t
Demonstraţie. Prin definiţie rt = r0 + abt − a ∫ rs ds + σBt . De unde rezultă relaţia:
0
t
1 t
∫ rs ds = [− rt + r0 + abt + σBt ] = 1 − (r0 − b )e −at − b − σ ∫ e −a (t −u ) dBu + r0 + abt + σBt .
0
a a 0
t 1 − e − a (t − s )
E ∫ ru du F s = b(t − s ) + (rs − b ) = M (t , s )
s a
t σ2 σ2 1 − e − a (t − s )
(
Var ∫ ru du F s = − 3 1 − e − a (t − s ) )2
+ t − s − = V (t , s ) .
s 2a a 2 a
t
Cum variabila ∫ ru du este gaussiană cu media şi varianţa condiţionate de F s cunoscute
s
t
1
E exp− ∫ ru du F s = exp − M (t , s ) + V (t , s ) .
s 2
63
Observaţie. Acest calcul este utilizat pentru evaluarea obligaţiunilor cu cupon zero:
dacă B(t , T ) este valoarea unei obligaţiuni cu cupon zero a cărei termen de scadenţă
este T , atunci
T
B(t , T ) = E exp − ∫ ru du Ft
t
şi
1 − e − a (t − s ) σ 2 σ2 1 − e − a (t − s )
B(t , T ) = exp b(t − s ) + (rs − b ) (
− 3 1 − e − a (t − s ) )
2
+ t − s −
a 4a 2 sa 2 a
Bibliografie
64
Capitolul 3
Calcul stochastic
t
ω → Yt (ω ) = ∫ X s dBs (ω ) ,
0
browniană. Problema care apare este legată de elementul diferenţial dBs , deoarece
3.1.1. Definiţie
Ft -măsurabile, cu
j
proprietatea θ t = θ j pentru orice t ∈ (t j , t j +1 , mai precis ]
n −1
θ s (ω ) = ∑ θ j (ω )1(t j , t j +1 ] (s ) .
j =0
65
∞ ∞ ∞ 2
Atunci au loc relaţiile: E ∫ θ s dBs = 0 şi Var ∫ θ s dBs = E ∫ θ s dBs .
0 0 0
Obţinem:
t n −1
t
de unde rezultă cotinuitatea aplicaţiei t → ∫ θ s dBs . Fie T j un şir crescător de timpi de
0
n −1
oprire 0 ≤ T0 ≤ T1 ≤ .... ≤ Tn , şi fie θ s (ω ) = ∑ θ j (ω )1 (T j ,T j +1 ] (s ) , unde θ j este un şir de
j =0
următoarea integrală:
t n −1
Cazul general
def ∞
= E ∫ θ t2 dt < ∞ , se numesc procese càglàd de pătrat integrabile,
2
pentru care θ
0
( )
adică procese din L2 Ω × R + . Notăm cu Γ mulţimea acestor procese.
Observaţie. Procesele elementare aparţin mulţimii Γ .
pentru n → ∞ .
Observaţie. Aplicaţia θ → θ defineşte o normă care face din Γ un spaţiu complet.
∞
Putem defini ∫ θ dB
0
s s pentru orice proces θ din Γ : privim θ prin prisma
k (n )
~ ~
proceselor elementare. In acest sens, fie θ = lim θ n , unde θ n = ∑ θ jn 1 (t j ,t j +1 ] cu θ jn din
n →∞
j =1
66
∞
Ft , limita fiind considerată în L2 (Ω × R + ) . Atunci integrala ∫ θ s dBs este limita în
j
0
k (n )
~
E ∑ θ j2 (t j +1 − t j ) . Atunci au loc relaţiile:
j
2
∞ ∞ ∞
. E ∫ θ s dBs = 0 şi E ∫ θ s dBs = E ∫ θ s2 ds
0 0 0
t ∞
Notăm ∫ θ dB = ∫ θ 1[ ] (s )dB
0
s s
0
s 0 ,t s . Dacă θ este un proces elementar atunci
∫ θ dB = ∑θ (B
0
s s
i
i t i +1 ∧ t )
− Bti ∧t . Mai general, dacă τ este timp de oprire procesul 1(0,τ ] (t )
τ ∧t t
este adaptat şi definim ∫ θ dB = ∫ θ 1( τ ] (s )dB
0
s s
0
s 0, s .
3.1.2. Proprietăţi
Proprietatea de martingal
t
Propoziţia 3.1. Fie M t = ∫ θ s dBs , unde θ aparţine Λ . Atunci:
0
Demonstraţie. Demonstraţiile celor două proprietăţi se fac mai întâi pentru cazul în
care procesele sunt elementare şi apoi prin trecere la limită pentru procese din Λ .
67
t s
Proprietatea de martingal se transcrie astfel: E ∫ θ u dBu F s = ∫ θ u dBu , pentru
0 0
t t
orice t ≥ s , sau E ∫ θ u dBu F s = 0 şi în particular rezultă E ∫ θ u dBu = 0 .
s s
t
2
t
Proprietatea 2 este echivalentă cu relaţia E ∫ θ u dBu F s = E ∫ θ u2 du Fs .
s s
T
din L2 (Ω × [0, T ]) , adică să fie adaptat şi E ∫ θ t2 dt < ∞ . In aceste condiţii (M t , t ≤ T )
0
este un martingal.
Propoziţia 3.2. Media procesului M t este E (M t ) = 0 iar varianţa este
t
Var (M t ) = ∫ E (θ s ) ds . Fie φ din Λ , atunci are loc relaţia:
2
t t
t
E ∫ θ s dBs ∫ φ s dBs = E ∫ θ sφ s ds .
0 0 0
t t t
Dacă M t (θ ) = ∫ θ s dBs şi M t (ϕ ) = ∫ ϕ s dBs atunci procesul M t (θ )M t (ϕ ) − ∫ θ sϕ s ds
0 0 0
este un martingal.
t
Demonstraţie. Este suficient să observăm faptul că ∫ (θ
0
s + φ s )dBs şi
2
t t
∫ (θ s + φ s )dBs − ∫ (θ s + φ s )2 ds sunt martingale.
0 0
68
t
Demonstraţie. Prin definiţie ∫ B dB
s s (
= lim ∑ Bt i Bti +1 − Bti . Egalitatea )
0
( ) ( ) ( )
n n n
2∑ Bti Bti +1 − Bti = ∑ Bt2i +1 − Bt2i − ∑ Bti +1 − Bti
2
i =0 i =0 i =0
implică relaţia:
[ ]
t
1 2
(2
)
n
1
∫ Bs dBs =
2
Bt − lim
n
∑
i =0
Bti +1 − Bti = Bt2 − t .
2
0
2
T
2
[ ]
s T
E sup ∫ θ u dBu ≤ 4 E ∫ θ u dBu = 4 ∫ E θ u2 du .
s ≤T
0 0 0
t t
Definiţia 3.5. Un proces X este un proces Itô dacă X t = x + ∫ bs ds + ∫ σ s dBs ,
0 0
t
unde b este un proces adaptat astfel încât ∫b
0
s ds există (în sens Lebesque) aproape
dX t = bt dt + σ t dBt
Procesul Itô poate fi scris şi în forma .
X 0 = x
Coeficientul b este cunoscut sub numele de derivă iar σ este coeficientul de difuzie.
~
Scrierea dX t = bt dt + σ t dBt este unică. Adică dacă dX t = bt dt +σ tdBt = bt dt + σ~t dBt
~
atunci b = b şi σ = σ~ . In particular, dacă X este un martingal local b = 0 şi reciproc.
Proprietăţi. 1. Dacă σ este un proces din Λ atunci
t
E ( X t ) = E ( X 0 ) + ∫ E (bs )ds şi pentru orice t ≥ s are loc relaţia:
0
s
t s t
E (X t F s ) = X 0 + ∫ bu du + E ∫ bu du Fs + ∫ σ u dBu = X s + E ∫ bu du Fs .
0 s 0 s
69
2. Dacă b ≡ 0 şi σ ∈ Λ atunci procesul X este un martingal continuu.
Reciproca este adevărată: în condiţii bine stabilite de integrabilitate şi măsurabilitate
t
orice martingal continuu poate fi scris în forma x + ∫ φ s dBs .
0
notăm At = Z , Z t
sau At = Z t .
Observaţie. Croşetul unei mişcări browniene este t . Croşetul unei integrale stochastice
t t
M t = ∫ θ s dBs este ∫θ
2
s ds . Croşetul a două martingale locale continue este dat de
0 0
formula: M,N t
=
1
2
(M + N, M + N t
− M,M t
− N, N t
). Croşetul a două
t t
integrale stochastice X t = x + ∫ H s dBs , Yt = y + ∫ K s dBs este definit prin
0 0
t
X ,Y t
= ∫ H s K s ds .
0
( )( )
n
M,N t
= lim ∑ M ti +1 − M ti N ti +1 − N ti .
i =1
70
martingale continue sunt ortogonale dacă croşetul lor este nul sau dacă produsul lor este
un martingal.
Extindem definiţia croşetului pentru cazul proceselor Itô în felul următor: dacă
dX i (t ) = bi (t )dt + σ i (t )dBi , i = 1,2 sunt două procese Itô atunci croşetul lor este prin
definiţie croşetul martingalelor corespunzătoare. Croşetul unui proces Itô X este dat de
t
formula: At = X t
= ∫ σ s2 ds .
0
Observaţie. Spunem că două mişcări browniene sunt corelate dacă croşetul lor este
ρ t . O mişcarea browniană poate fi caracterizată ca un martingal continuu de medie 0
şi de croşet t .
∂
f (B(t )) = f ′(B(t ))B ′(t ) ,
∂t
sau în formă diferenţială: df (B(t )) = f ′(B(t ))B ′(t )dt = f ′(B(t ))dB(t ) .
Dar, B(t ) nu este diferenţiabilă şi în particular are variaţii pătratice diferite de 0, prin
urmare formula corectă mai conţine un termen:
1
df (B(t )) = f ′(B(t ))dB(t ) + f ′′(B(t ))dt , unde dt = dB(t )dB(t ) .
2
Integrând obţinem:
Propoziţia 3.6. (formula lui Itô sau formula de schimbare a variabilelor). Fie
Bt o mişcare browniană şi f o funcţie definită pe R cu valori în R , de clasă C 2 .
t t
1
Atunci f (Bt ) − f (B0 ) = ∫ f ′(Bs )dBs + f ′′(Bs )ds .
0
2 ∫0
71
doi. Demonstraţia formulei lui Itô are la bază teorema lui Taylor. Prima integrală din
membrul drept este o integrală Itô iar a doua este o integrală Riemann.
Fie X un proces Itô definit prin ecuaţia dX t = bt dt + σ t dBt . Atunci:
t t
1
f ( X t ) = f ( X 0 ) + ∫ f ′( X s )dX s + f ′′( X s )σ s2 ds
0
2 ∫0
1
df ( X t ) = f ′( X t )dX t + f ′′( X t )σ t2 dt . (1)
2
( ) ( ) ( )(
f X t k +1 − f X t k = f ′ X t k X t k + 1 − X t k + ) 1
2
( )(
f ′′ X tk X tk +1 − X tk )
2
((
+ o X t k +1 − X t k ))
şi trecem la limită.
Formula (1) poate fi rescrisă astfel:
1
df ( X t ) = f ′( X t )bt dt + f ′′( X t )σ t2 dt + f ′( X t )σ t dBt . Aplicând croşetul obţinem
2
1
relaţia: df ( X t ) = f ′( X t )bt dt + f ′′( X t )d X t
+ f ′( X t )σ t dBt .
2
Observaţie. Formula este uşor de reţinut în forma:
1
df ( X t ) = f ′( X t )dX t + f ′′( X t )dX t ⋅ dX t ,
2
dBt ⋅ dBt = dt .
X t
= σB t
= σ 2 t , f ′( x ) = f ′′( x ) = e x şi
t t t t
1 Xs 1 2 1
= 1 + ∫ e X s σdBs − ∫ σ ds + ∫ e X s σ 2 ds = 1 + ∫ e X s σdBs .
2
eσBt −σ 2
e
0
20 2 20 0
72
Aplicaţii: 1. Calculăm E ( f ( X t )) şi E ( f ( X t )Fs ) în condiţiile în care f ′ şi σ
sunt mărginite.
t 1
E ( f ( X t )) = E ( f ( X 0 )) + E ∫ f ′( X s )bs + f ′′( X s )σ s2 ds =
0 2
t
1
= E ( f ( X 0 )) + ∫ E f ′( X s )bs + f ′′( X s )σ s2 ds .
0 2
t
Analog obţinem E ( f ( X t ) Fs ) = f ( X s ) + E ∫ f ′( X u )b(u ) + f ′′( X u )σ u2 du Fs =
1
s 2
t
1
= f ( X s ) + ∫ E f ′( X u )b(u ) + f ′′( X u )σ u2 Fs du .
s 2
t
2. ∫ B dB
s s =
2
(
1 2
Bt − t )
0
1
3. d (exp X t ) = (exp X t ) dX t + σ t2 dt
2
1
4. S t = xe X t , unde X t = µ − σ 2 t + σWt , reprezintă soluţia unică a ecuaţiei
2
dS t = S t (µdt + σdWt ) ,
t t
Propoziţia 3.7. Fie X t = X 0 + ∫ b( X s )ds + ∫ σ ( X s )dBs unde b şi σ sunt
0 0
73
2. Operatorul L aplicat unei funcţiei f din C2 stabileşte relaţia
1
Lf (x ) = b(x ) f ′(x ) + σ 2 (x ) f ′′(x ) . Operatorul L este generatorul infinitezimal al
2
E x ( f ( X t )) − f (x )
procesului de difuzie X . L verifică relaţia Lf (x ) = lim .
t →0 t
Propoziţia 3.8. Fie f o funcţie definită pe R+ × R de clasă C 1 în raport cu t ,
t t t
1
f (t , X t ) = f (0, X 0 ) + ∫ f t′(s, X s )ds + ∫ f x′ (s, X s )dX s + f xx′′ (s, X s )σ s2 ds .
0 0
2 ∫0
1
df (t , X t ) = f t′(t , X t ) + f xx′′ (t , X t )σ t2 dt + f x′(t , X t )dX t =
2
1
= f t′(t , X t )dt + f x′ (t , X t )dX t + f xx′′ (t , X t )d X t .
2
1
mărginită şi f t′(t , x ) + b(t , x ) f x′ (t , x ) + σ 2 (t , x ) f xx′′ (t , x ) = 0 atunci ( f (t , X t ), t ≥ 0) este
2
un martingal.
Operatorul L definit pe funcţiile din C 1, 2 prin
1
L ( f )(t , x ) = b(t , x ) f x′(t , x ) + σ 2 (t , x ) f xx′′ (t , x )
2
mărginită şi
1
f t′(t , x ) + b(t , x ) f x′ (t , x ) + σ 2 (t , x ) f xx′′ (t , x ) = rf (t , x ) (2)
2
74
( )
atunci e − rt f (t , X t ), t ≥ 0 este un martingal. In acest caz
(
e − rt f (t , X t ) = E e − rT f (T , X T )Ft . )
Dacă f verifică relaţia f (T , x ) = h(x ) şi este soluţie a ecuaţiei (2) atunci
(
e − rt f (t , X t ) = E e − rT h( X T )Ft . )
2. Fie X un proces stochastic (o mişcare browniană geometrică) astfel încât
dX t = X t (rdt + σdBt ) , unde r şi σ sunt două constante. Atunci procesul
(e − rt
)
X t , t ≥ 0 este un martingal. Este suficient să observăm că d e − rt X t = e − rt X t σdBt ( )
şi să verificăm condiţiile de integrabilitate. Soluţia ecuaţiei dX t = X t (rdt + σdBt ) ,
1
X 0 = x , unde r şi σ sunt două constante este X t = x exp rt + σBt − σ 2 t . Spunem
2
că X este o mişcare browniană geometrică sau un proces log-normal.
3. Fie X un proces stochastic definit prin ecuaţia dX t = X t (b(t )dt + σ (t )dBt ) unde b
t
şi σ sunt funcţii. Atunci procesul exp − ∫ b(s )ds X t , t ≥ 0 este un martingal.
0
Cazul multidimensional
Propoziţia 3.9. Fie ( X i , i = 1,2 ) două procese Itô definite prin ecuaţiile:
dX i (t ) = bi (t )dt + σ i (t )dBt .
1
2
( )
f 11′′σ 12 (t ) + 2 f 12′′σ 1 (t )σ 2 (t ) + f 22′′ σ 22 (t ) ( X 1 (t ), X 2 (t ))dt ,
unde f i′ este derivata în raport cu xi , i = 1,2 şi f ij′′ derivata de ordinul doi în raport cu
xi , x j .
75
Formula lui Itô implică formula de integrare prin părţi:
t
unde cantitatea σ 1 (t )σ 2 (t ) corespunde croşetului X 1 , X 2 t
= ∫ σ 1 (s )σ 2 (s )ds .
0
+
1
2
[ ]
f 11′′ ( X 1 (t ), X 2 (t ))σ 12 (t ) + f 22′′ ( X 1 (t ), X 2 (t ))σ 22 (t ) dt .
n
1 n
df (t , X t ) = f t′(t , X t )dt + ∑ f i′(t , X t )dX i (t ) + ∑ f ij′′(t , X t )dX i (t )dX j (t ) ,
i =1 2 i , j =1
+
1
2
[ ]
f 11′′ ( X 1 (t ), X 2 (t ))σ 12 (t ) + 2 f12 ( X 1 (t ), X 2 (t ))ρσ 1 (t )σ 2 (t ) + f 22′′ ( X 1 (t ), X 2 (t ))σ 22 (t ) dt .
76
Aplicaţie. Fie B1 şi B2 două mişcări browniene corelate, şi fie B3 definită prin
1 1
relaţia B3 = (B2 − ρB1 ) . Fie M i (λ , t ) = exp λBi (t ) − λ2 t . Aceste procese
1− ρ 2
2
sunt martingale pentru orice λ şi are loc relaţia dM i (t ) = λM i (t )dBi (t ) . De unde, având
implică E (exp(λB1 (t ) + µB3 (t ))) = E (exp[λB1 (t )])E (exp[µB3 (t )]) , de unde obţinem
t 1
t
utilizăm expresia M i (t ) = exp ∫ λ (s )dBi (s ) − ∫ λ2 (s )ds .
0 20
Fie S preţul unui activ cu risc de pe o piaţă financiară . Preţul activului este
modelat de ecuaţia:
t t
( (
S t = S 0 + b ∫ S s ds + σ ∫ S s dBs = S 0 exp σBt + b − σ 2 2 t , ))
0 0
Construim un portofoliu, dependent de timp, compus din opţiunea call şi β t părţi din
77
∂C
Rezultă că portofoliul este fără risc dacă σβ t S t + σS t (t , S t ) = 0 sau β t = ∂C (t , S t ) .
∂x ∂x
∂C
(t , S t ) + σ S t ∂ C2 (t , S t )dt .
2 2 2
In aceste condiţii dVt =
∂t 2 ∂x
∂C
(t , S t ) + ∂C (t , S t ) + σ S t ∂ C2 (t , S t ) − rC (t , S t ) = 0 ,
2 2 2
rS t
∂x ∂t 2 ∂x
∂C
(t , x ) + ∂C (t , x ) + σ x ∂ C2 (t , x ) − rC (t , x ) = 0 cu
2 2 2
R + rezultă C satisface ecuaţia rx
∂x ∂t 2 ∂x
condiţia terminală C (T , x ) = h( x ) .
Erf ( x ) =
1
x
(
1 ln xe r (T −t ) K )
∫ e du , d1 =
2
−u 2
+ şi d 2 = d1 − σ T − t .
2π −∞
2 σ T −t
Analog se procedează în cazul dublării portofoliului format din α t părţi ale unui
t
activ fără risc S = S + r ∫ S s ds = S 00 e rt şi γ t părţi ale unui activ cu risc. Valoarea
t
0 0
0
0
respectiv dC t obţinem:
∂C
γ t S tσ = (t , S t )S t σ sau γ t = ∂C (t , S t )
∂x ∂x
78
deoarece
∂C
(t , S t ) = α t rS t0 + bγ t S t = bS t ∂C (t , S t ) + ∂C (t , S t ) + ∂ S t ∂ C2 (t , S t )
2 2 2
α t rS t0 + S t
∂x ∂x ∂t 2 ∂x
∂C
Dar α t S t0 + γ t S t = C (t , S t ) , de unde rezultă α t S t0 = C (t , S t ) − S t (t , S t ) şi regăsim
∂x
ecuaţia:
∂C
(t , S t ) + ∂C (t , S t ) + σ S t ∂ C2 (t , S t ) − rC (t , S t ) = 0 ,
2 2 2
rS t
∂x ∂t 2 ∂x
1 ln (xe r (T −t ) K )
x
1
Erf ( x ) = ∫ e du , d1 =
2
−u 2
+ şi d 2 = d1 − σ T − t .
2π −∞
2 σ T −t
∂C
De asemenea putem calcula γ t = (t , S t ) = Erf (d1 ) care reprezintă un factor de
∂x
acoperire a pieţei.
Observaţie. Folosind formula lui Itô se poate stabili o formulă probabilistă pentru
(
determinarea preţului opţiunii call C (t , S t ) = e r (t −T ) E (S T − K ) Ft .
+
)
3.2. Ecuaţii diferenţiale stochastice
79
Definiţia 3.7. Fie date b şi σ două funcţii definite pe R + × R n cu valori reale.
Fie dat spaţiul probabilistic (Ω,F , P ) înzestrat cu o filtrare (Ft ) şi o (Ft ) -mişcare
t t
sigur pentru orice t . Integralele ∫ b(s, X s )ds şi ∫ σ (s, X s )dBs au acelaşi semn.
0 0
dX t = b( X t )dt + σ ( X t )dBt , X 0 = x .
t t
X i +1 (t ) = x + ∫ b( X i (s ))ds + ∫ σ ( X i (s ))dBs .
0 0
Fie t 0 arbitrar, fixat. Demonstrăm existenţa (şi unicitatea) până la momentul arbitrar t 0 .
t
t
2
EX 1 (t )
2
2 2
( )
≤ c1 x + ∫ σ ( x ) ds + ∫ b(x )ds ≤ c 2 x 2 + t + t 2 .
0 0
Cum ( x + y ) ≤ 2 x 2 + 2 y 2 rezultă:
2
r
2
E sup X i +1 (r ) − X i (r ) ≤ 2 E sup ∫ (σ ( X i (s )) − σ ( X i −1 (s )))dBs +
2
r ≤t
0
r ≤t
r
2
+ 2 E sup ∫ (b( X i (s )) − b( X i −1 (s )))ds .
r ≤t
0
Aplicând inegalitatea lui Doob, primul termen din membrul drept al inegalităţii este
mărginit de
t
2 t
8 E ∫ (σ ( X i (s )) − σ ( X i −1 (s )))dBs = 8E ∫ (σ ( X i (s )) − σ ( X i −1 (s ))) ds ≤
2
0 0
80
t
≤ c3 E ∫ X i (s ) − X i −1 (s ) ds .
2
0 0 0
r ≤t
t
loc inegalităţile: g1 (t ) ≤ a şi g i +1 (t ) ≤ a ∫ g i (s )ds .
0
t t
Deci, g 2 (t ) ≤ a ∫ ads = a 2 t , g 3 (t ) ≤ a ∫ a 2 sds = a 3t 2 2 şi prin inducţie obţinem
0 0
g i (t ) ≤ a i t i −1 (i − 1)!. Cum ∑ (g (t ))
i
12
(
≤ ∑ a i t i −1 (i − 1)! )
12
< ∞ atunci pentru m şi n
12
suficient de mari, expresia E sup X m (s ) − X n (s ) poate lua o valoare mică. Prin
2
s ≤t
t t
X i +1 (t ) = x + ∫ b( X i (s ))ds + ∫ σ ( X i (s ))dBs
0 0
t t
rezultă că pentru i → ∞ X t verifică ecuaţia X t = x + ∫ b( X s )ds + ∫ σ ( X s )dBs .
0 0
t t
Unicitatea. Fie X t şi X t′ două soluţii ale ecuaţiei X t = x + ∫ b( X s )ds + ∫ σ ( X s )dBs .
0 0
Fie g (t ) = E sup X r − X r′ . Există a > 0 astfel încât g (t ) este mărginită de a şi are loc
2
r ≤t
t t t
inegalitatea g (t ) ≤ a ∫ g (s )ds . Atunci g (t ) ≤ a ∫ ads = a t , g (t ) ≤ a ∫ a 2 sds = a 3 t 2 2 ,
2
0 0 0
81
Teorema de existenţă. A. Fie b şi σ două funcţii continue;
B. există K astfel încât pentru orice t ∈ [0, T ] , x, y ∈ R au loc relaţiile:
1. b(t , x ) − b(t , y ) + σ (t , x ) − σ (t , y ) ≤ K x − y
2. b(t , x ) + σ (t , x ) ≤ K 2 1 + x
2 2
( 2
)
C. condiţia iniţială X 0 este independentă de (Bt , t ≥ 0 ) şi este de pătrat integrabilă ,
atunci pentru t ≤ T există o soluţie unică a ecuaţiei (3) cu traiectorii continue. Mai
0≤t ≤T
Propoziţia 3.12. Fie ρ o funcţie boreliană definită pe (0, ∞ ) cu valori în
(0, ∞ ) astfel încât integrala funcţiei ρ −1 este divergentă în vecinătatea lui 0. Dacă
Proprietatea Markov
( )
Fie X st , x , s ≥ t soluţia ecuaţiei (3) – procesul se află în starea x la momentul
0, x
In condiţiile teoremei de existenţă putem scrie X s0, x = X st , X t , s ≤ t ceea ce afirmă că
omogen
E ( f ( X s )Ft ) = E ( f ( X s ) X t ) = Φ (s, t , X t ) = Ψ (s − t , X t ) ,
( ( ))
unde Φ(s, t , x ) = E f X st , x = E f X s0−, xt ( ( )) şi Ψ (u, x ) = E ( f (X )). 0, x
u
82
Observaţie. O pereche de variabile aleatoare ( X , Y ) poate fi markoviană fără ca fiecare
componentă să fie markoviană.
Teorema de comparaţie. Fie dX i (t ) = bi ( X i (t ))dt + σ ( X i (t ))dWt , i = 1,2 unde
b1 ( x ) ≥ b2 (x ) . Atunci X 1 (t ) ≥ X 2 (t ) .
t 1
t
dZ t = θ t Z t dBt este Z t = Z 0 exp ∫ θ s dBs − ∫ θ s2 ds . Mai mult, dacă
0 20
1T
E exp ∫ θ s2 ds < ∞ procesul (Z t , t ≤ T ) este un martingal al cărui medie este Z 0 .
2 0
Demonstraţie. Din definiţie Z este un martingal local. Aplicând formula lui Itô
t 1
t
verificăm faptul că Z t = Z 0 exp ∫ θ s dBs − ∫ θ s2 ds este soluţia ecuaţiei date.
0 20
t t
1 1
Notând U t = ∫ θ s dBs − ∫ θ s2 ds obţinem relaţia dU t = θ t dBt − θ t2 dt ,de unde rezultă
0
20 2
1
dZ t = (exp U t ) dU t + θ t2 dt = θ t Z t dBt .
2
Observaţie. Procesul Z , notat prin E (θB )t este numit exponenţiala lui Doléans-Dade .
Dacă Z 0 este strict pozitivă atunci acest proces este un martingal local pozitiv. Relaţia
1T
E exp ∫ θ s2 ds < ∞ este numită condiţia lui Novicov. In această condiţie
2 0
E (Z T ) = Z 0 şi (Z t , t ≤ T ) este un martingal. Dacă această condiţie nu este verificată
E (Z T ) ≤ Z 0 .
83
3.2.2. Ecuaţii cu derivate parţiale
1
Af (t , x ) = f t′(t , x ) + f x′ (t , x )b(t , x ) + f xx′′ (t , x )σ 2 (t , x ) .
2
( )
Fie X ux ,t , u ≥ t procesul Itô definit prin
u u
X x ,t
u =X t
x ,t
(
+ ∫ b s, X x ,t
s )ds + ∫ σ (s, X )dB
x ,t
s s , u≥t (4),
t t
Problema parabolică
T
în particular, pentru T avem f (T , X Tx ,t ) = g (X Tx ,t ) = f (t , x ) + ∫ f x′ (s, X sx ,t )σ (s, X sx ,t )dBs şi
t
84
unde g este o funcţie definită pe R cu valori în R , este f (t , x ) = E (g (X Tx ,t )) iar X x ,t
u u
este procesul Itô definit prin X ux ,t = X tx ,t + ∫ b(s, X sx ,t )ds + ∫ σ (s, X sx ,t )dBs , u ≥ t cu
t t
Generalizare
Dacă f este soluţie a ecuaţiei (5) şi X este soluţie a ecuaţiei (4) atunci formula lui Itô
implică următoarea relaţie:
T
( ) ( )
f T , X Tx ,t exp(− αT ) = f (t , x ) exp(− αt ) + ∫ f x′ s, X sx ,t exp(− αs )σ s, X sx ,t dBs ( )
t
f (t , x ) = E (exp(− α (T − t ))g ( X T ) XT = x) ,
s s
unde X s = X 0 + ∫ b(u , X u )du + ∫ σ (u , X u )dBu .
0 0
1
αf (t , x ) = f t′(t , x ) + f x′(t , x )b(t , x ) + f xx′′ (t , x )σ 2 (t , x )
2
f (T , x ) = g ( x )
85
Formula Black-Scholes
∂C
(t , x ) + ∂C (t , x ) + σ 2 x 2 1 ∂ 2C (t , x ) − rC (t , x ) = 0 , x ≥ 0 unde C (T , x ) = (x − K )+ .
2
xr
∂x ∂t 2∂ x
(
C (t , x ) = E e − r (T −t ) (S Tx ,t − K ) ,
+
)
unde dS ux ,t = S ux ,t (rdu + σdBu ) şi S tx ,t = x .
( (
E e − rT S Tx − K )+
) = E (e − rT
(S x
1
T ST ≥ K − Ke − rT P(S T ≥ K ) =))
(
= e − rT xE e σ ( ) 1
T G + r −σ 2 2 (T )
σ ( )
T G + r −σ 2 2 (T )≥ ln ( K x )
)− Ke P(σ − rT
T G + (r − σ 2 2 )(T ) ≥ ln (K x ) )
Observaţie. Calculul de mai sus permite calcularea factorului delta, adică variaţia
preţului unei opţiuni la o variaţie de un punct a preţului activului de bază.
∫ g (x + y ) e
−y 2α
dy < ∞ , pentru orice x din R şi α > 0 .
−∞
∞ t
Atunci funcţia f definită prin f ( x ) = E x ∫ dtg (Bt ) exp − αt − ∫ k (Bs )ds este unica
0 0
1
soluţie din C 2 mărginită de (α + k ) f = f ′′ + g .
2
Demonstraţie. Considerăm procesul cu variaţie mărginită (Z t , t ≥ 0 ) definit prin
t
Z t = αt + ∫ k (Bs )ds . Aplicând lema lui Itô procesului:
0
86
def t
U t = f (Bt )e − Z t + ∫ g (Bs )e − Z s ds ,
0
1
dU t = f ′(Bt )e − Z t dBt + f ′′(Bt ) − (α + k (Bs )) f (Bt ) + g (Bt )e − Z t dt .
2
Procesul U este un martingal dacă termenul cu variaţie finită este nul adică, dacă
1
f ′′(x ) − (α + k ( x )) f ( x ) + g ( x ) = 0 . Se observă apoi că u (0, B0 ) = u (0, x ) = f ( x ) şi se
2
( )
verifică relaţia E f (Bt )e − Z t → 0 . Condiţiile de pozitivitate pentru α şi k şi de
Modele financiare
instrument financiar, altfel spus modificarea relativă a valorii acţiunii este o mişcare
dS t
browniană cu derivă = µdt + σdBt . Aplicând formula lui Itô se verifică faptul că
St
păstrăm pachetul până la momentul t i +i . Profitul net total pe întreaga perioadă este
87
∑ a (S )
n −1
t
stochastică ∫ a dS
0
t t . Se poate presupune că ai depinde de toate informaţiile până la
momentul t i , adică de Fti . Dacă presupunem cazul ideal în care tranzacţiile sunt
continue şi dacă a t este adaptat atunci profitul net obţinut în urma tranzacţionării
t
pachetului de acţiuni este ∫ a dS
0
s s . Analog profitul net obţinut în urma tranzacţionării
t
obligaţiunilor este ∫ bs dβ s .
0
88
3.3. Exemple de procese Itô
dX t = X t bt dt + X t σ t dBt , X 0 = x , (6)
t t
1
t
x exp∫ b(s )ds + ∫ σ (s )dBs − ∫ σ 2 (s )ds .
0 0
20
dX t
Ecuaţia (6) poate fi scrisă în forma = b(t )dt + σ (t )dBt .
Xt
1
X t = X 0 exp b − σ 2 t + σ Bt
2
sau
1
X t = X s exp b − σ 2 (t − s ) + σ (Bt − Bs ) .
2
Yt
Fie Z t un proces definit prin Z t = . Acest proces verifică ecuaţia diferenţială
Xt
( )
dZ t = Z t µ + b − σ 2 dt + (σ − σ )dBt = 0 ,
adică dZ t = 0 , cu soluţia Z t = Z 0 .
89
3.3.2. Modelul Cox-Ingersoll-Ross
(
demonstra că dacă T0x = inf {t ≥ 0; rt x = 0} şi 2kθ ≥ σ 2 atunci P T0x = ∞ = 1 . Dacă )
def
t
E (rt ) = r0 + k θ t − ∫ E (rs )ds , unde integrala stochastică este un martingal.
0
(
E (rt F s ) = rs e − k (t − s ) + θ 1 − e − k (t − s ) )
iar varianţa condiţionată este dată de formula
σ 2 (e − k (t − s ) − e −2 k (t − s ) ) θσ 2 (1 − e − k (t − s ) )
2
Var (rt Fs ) = rs + .
k 2k
t t
rt = rs + k ∫ (θ − ru )du + σ ∫ ru dBu
s s
s s s
t t t
( )
= rs2 + 2kθ + σ 2 ∫ ru du − 2k ∫ ru2 du + 2σ ∫ (ru ) dBu .
32
s s s
90
Având în vedere că mediile integralelor stochastice de mai sus sunt 0, atunci pentru
s = 0 obţinem relaţiile:
t
t t
E (rt ) = r0 + k θ t − ∫ E (ru )du şi E (rt 2 ) = r02 + (2kθ + σ 2 )∫ E (ru )du − 2k ∫ E (ru2 )du .
0 0 0
t
Fie Φ(t ) = E (rt ) . Pentru a determina soluţia ecuaţiei Φ(t ) = r0 + k θ t − ∫ Φ(u )du o
0
transformăm într-o ecuaţie diferenţială Φ ′(t ) = k (θ − Φ (t )) , pentru care Φ(0 ) = r0 .
( )
Analog, introducem ψ (t ) = E rt 2 şi rezolvând ecuaţia Ψ ′(t ) = (2kθ + σ 2 )Φ (t ) − 2kΨ (t )
σ2 θ
obţinem Var (rt ) =
k
(1 − e ) r e
− kt
0
− kt
+
2
(
1 − e ) .
− kt
Media condiţionată a lui r şi varianţa condiţionată a lui r pot fi determinate aplicând
proprietatea Markov. Astfel, obţinem:
(
E (rt F s ) = θ + (rs − θ )e − k (t − s ) = rs e − k (t − s ) + θ 1 − e − k (t − s ) )
şi
σ 2 (e − k (t − s ) − e −2 k (t − s ) ) θρ 2 (1 − e − k (t − s ) )
2
Var (rt Fs ) = rs + .
k 2k
T
Atunci E exp− ∫ ru du Ft = G (t , rt ) , unde G (t , x ) = Φ (T − t ) exp(− xΨ (T − t )) ,
t
2 ab
s
ρ2
Ψ (s ) =
(
2 e −1 γs
)
, Φ (s ) =
2γe
(γ + a )
2
, γ 2 = a 2 + 2ρ 2 .
(
(γ + a ) e − 1 + 2γ
γs
) (γ + a ) e − 1 + 2γ
γs
( )
91
( )
Demonstraţie. Fie r x ,t soluţia ecuaţiei drsx ,t = a b − rsx ,t ds + ρ rsx ,t dBs , pentru care
s x ,t
rt x ,t
= x şi R = exp − ∫ ru du . Din proprietatea Markov rezultă că există G astfel
t
s
t
s x ,t
încât exp − ∫ ru du Ft = G (t , rt ) . Presupunem că G este de clasă C 1, 2 . Aplicăm
t
( )
martingalului G s, rsx ,t Rst formula lui Itô. Obţinem relaţia:
T
∂G ∂G 1 2 x ,t ∂ 2 G
( )
G T , rTx ,t RTt = G (t , x ) + ∫ Rst − rsx ,t G + (
+ a b − rsx ,t )
+ σ rs (s, rs )ds + M T − M t
t ∂t ∂x 2 ∂x 2
unde M t este o integrală stochastică. Dacă G verifică ecuaţia
∂G ∂G 1 2 ∂ 2 G
− xG + + a(b − x ) + σ x 2 =0 (8)
∂t ∂x 2 ∂x
T T x ,t
E exp − ∫ rs ds = E (RT ) = R0 G (0, x ) şi E exp − ∫ ru du = G (t , x ) .
0 t
G (t , x ) = Φ (T − t ) exp(− xΨ (T − t )) ,
2 ab
(γ + a ) s ρ2
unde Ψ (s ) =
2 e γs − 1( )( )
2γe 2
Φ = , γ = a + 2ρ .
2 2 2
, s
(
(γ + a ) e γs − 1 + 2γ )
(
(γ + a ) e − 1 + 2γ
γs
)
Observaţie. Dacă notăm cu B(t , T ) valoarea unei obligaţiuni cu cupon zero
atunci ecuaţia diferenţială stochastică este de forma
92
3.3.3. Procese Bessel
n
1 1
dβ t =
Xt
Bt dBt =
Bt
∑ B (t )dB (t ) , β
i =1
i i 0 =0
fiind exprimat ca o sumă de martingale, este un martingal continuu iar croşetul său este
( )
t . Atunci β este o mişcare browniană iar egalitatea d X t2 = 2 Bt dBt + ndt poate fi
( )
scrisă sub forma d X t2 = 2 X t dβ t + ndt . Aplicând formula lui Itô obţinem
n − 1 dt
dX t = dβ t + ,
2 Xt
dVt = 2 Vt dβ t + ndt .
Generalizare
ecuaţia dZ t = δdt + 2 Z t dWt , pentru care Z 0 = α admite o soluţie unică. Soluţia este
93
rezultă că, dacă 0 ≤ δ ≤ δ ′ iar ρ şi ρ ′ sunt procese Bessel pătratice de dimensiuni δ
şi respectiv δ ′ , ce au aceeaşi stare iniţială, atunci 0 ≤ ρ t ≤ ρ t′ aproape sigur. In cazul
t
ρ t = α + δt + 2 ∫ ρ s dWs
0
iniţială a = α ( (BES ) ) .
δ
1 d 2 2ν + 1 d 1 d 2 δ −1 d
L= + = + .
2 dx 2 2 x dx 2 dx 2 2 x dx
t
Deci, pentru orice f din C c2 procesele f (Rt ) − ∫ Lf (Rs )ds sunt martingale.
0
t ds
Pentru δ > 1 un proces Bessel de dimensiune δ verifică relaţia E ∫ < ∞ şi
0 Rs
δ −1 t 1
este soluţie a ecuaţiei Rt = α + Wt +
2 ∫R
0 s
ds .
94
Pentru δ = 1 procesul Bessel de dimensiune 1 este de forma Rt = Bt = β t + Lt , unde
δ −1 t
1
Rt = α + Wt + v.p. ∫ ds ,
2 0
Rs
t ∞
unde valoarea principală este definită prin v.p. ∫
1
Rs
ds = ∫ x δ − 2 Ltx − L0t dx iar familia( )
0 0
t ∞
d2 d
generatorul infinitezimal al procesului Bessel pătratic ρ este A = 2 x 2
+δ , deci
dx dx
t
pentru orice f din C K2 procesele de forma f (ρ t ) − ∫ Af (ρ s )ds sunt martingale.
0
Proprietăţi
1
δ a cărui stare iniţială este x , atunci (ρ ct , t ≥ 0) este un proces Bessel pătratic de
c
dimensiune δ a cărui stare iniţială este x c .
Demonstraţie. Ecuaţia
t
ρ t = x + 2 ∫ ρ s dWs + δt
0
implică
12
δ ρ
ct t
1 x 2 x 1
ρ ct = + ∫ ρ s dWs + ct = + 2∫ s dWsc + δ t .
c c c0 c c 0
c c
t
1 x ~
Fie u t = ρ ct , înlocuind în relaţia precedentă obţinem u t = + 2 ∫ u s dWs + δ t , unde
c c 0
95
~ 1
Wt = Wtc , t ≥ 0 este o mişcare browniană.
c
Bessel cu index ν .
Demonstraţie. In raport cu P (0 ) , procesul canonic R verifică ecuaţia
ν
1 R ν2 t
ds
dRt = dWt + dt . Procesul Lt = t exp − ∫R este un P (0 ) -martingal
2
2 Rt x 2 0 s
nenegativ. Intr-adevăr, conform formulei lui Itô obţinem dLt = νLt ln (Rt )dWt , prin
ν
R
urmare procesul L este un martingal local. Se observă că sup Lt ≤ sup t . Procesul
t ≤T t ≤T x
~
R 2 este un proces Bessel pătratic de dimensiune 2, egal în lege cu procesul Bt2 + B y2
~
unde B şi B sunt mişcări browniene independente. Prin urmare Rtk este integrabil
96
Propoziţia 3.23. Q xδ * Q δy ′ = Q xδ++yδ ′ , altfel spus, suma a două procese Bessel
( )
t
Fie Z = X + Y . Atunci Z t = x + y + (δ + δ ′)t + 2 ∫ X s dBs1 + Ys dBs2 .
0
( )
Fie B 3 o altă mişcare browniană, independentă de B 1 , B 2 . Procesul W definit prin
t X s dBs1 + Ys dBs2 t
Wt = ∫ 1{Z s >0} + 1{Z =0} dBs3
Zs ∫0 s
0
t
este o mişcare browniană şi are loc relaţia: Z t = x + y + (δ + δ ′)t + 2 ∫ Z s dWs .
0
Funcţii Bessel
π (I −ν (z ) − Iν (z ))
ν ∞
z z 2n
Funcţiile Bessel Iν ( z ) = ∑ şi Kν (z ) =
n = 0 2 n!Γ (ν + n + 1) 2 sin π z
2n
2
( )
verifică ecuaţia diferenţială Bessel: x 2 u ′′(x ) + xu ′( x ) − x 2 + ν 2 u (x ) = 0 .
Densităţi de tranziţie
(
E xδ (exp(− λρ t )) = E 1x (exp(− λρ t )) E01 (exp(− λρ t )) )δ −1
1 λx
poate verifica relaţia: E 1x (exp(− λρ t )) = exp − .
1 + 2λt 1 + 2λt
Atunci
1 λx
E xδ (exp(− λρ t )) = exp − .
(1 + 2λt )
δ 2
1 + 2λt
97
Procesul Bessel şi procesul Bessel pătratic sunt procese Markov şi densităţile lor de
tranziţie sunt cunoscute. Densitatea de tranziţie qt(ν ) a unui proces BESQ (ν ) este dată de
expresia
ν 2
1 y x + y xy
qt(ν ) (x, y ) = exp − Iν ,
2t x 2t t
iar procesul Bessel de index ν are densitatea de tranziţie pt(ν ) definită prin
ν
y y x2 + y2 xy
pt(ν ) ( x, y ) = exp − Iν ,
t x 2t t
(ν )
( − λTb
) = ν
ν
b K a 2λ ( )
, pentru b < a
Ea e
a Kν b 2λ ( )
(ν )
( − λTb
) = ν
ν
b I a 2λ ( )
, pentru a < b
Ea e
a Iν b 2λ ( )
Observaţie. Pentru b < a , deoarece Pa(ν ) (Tb < ∞ ) = lim E a(ν ) e − λTb
λ →0
( ) are loc relaţia
2ν
b
Pa(ν ) (Tb < ∞ ) = . Pentru z în vecinătatea lui 0 are loc relaţia Kν ( z ) ~ c(ν )z −ν .
a
µ2 t
R ν −γ
(ν )
Propoziţia 3.24. E r exp − aRt2 −
2
ds
∫0 Rs2 r
(
= E r(γ ) t exp − aRt2 ) ,
unde γ 2 = µ 2 + ν 2 .
98
Demonstraţie. Fie (Rt , t ≥ 0 ) un proces Bessel cu un index ν şi cu starea iniţială r > 0 .
∞
1 1
dv exp(− vx )v α −1 rezultă
Γ(α ) ∫0
Din relaţia α
=
x
1 ∞
E r(ν ) = 1 α −1 (ν )
( (
Γ(α ) ∫ dvv E r exp − vRt
2
)) .
(Rt )
2α
0
r 2v
Fie α ≥ 0 . Din egalitatea E r(ν ) (exp(− vRt2 )) =
1
exp − şi printr-o
(1 + 2vt )1+ν 1 + 2 vt
1 1 2t
Rt ν −γ
(γ )
= E r exp − aRt2
r
( ) , unde γ = µ 2 +ν 2 .
2α
1 ∞
(γ )
Cum E r
Rt
exp − aR ( 1
Γ(α ) ∫0
= t
2
) ( (
dvvα −1 E r(γ ) exp − (v + a )Rt2 = ))
r 2 (v + a )
∞
1
∫ dvv (1 + 2(v + a )t )
α −1 − (1+γ )
= exp − atunci,
Γ(α ) 0 1 + 2(v + a )t
r 2 (v + a )
∞
µ2 t
ds 1
∫ dvv (1 + 2(v + a )t )
− (1+γ )
E r(ν ) exp − aRt2 − ∫0 Rs2 = α −1
exp −
1 + 2(v + a )t
2 Γ(α )r ν −γ
0
unde α =
1
2
(γ − ν ) = 1
2
(µ 2
+ ν 2 −ν . )
Propoziţia 3.25. Pentru BESQ δ are loc relaţia:
1 1 1
Q xδ exp − b 2 ∫ ρ s ds = (cosh b ) exp − xb tanh b .
−δ 2
2 2
0
99
Demonstraţie. Pentru orice funcţie local mărginită F procesul
def t 1
t
Z t = exp ∫ F (s ) ρ s dWs − ∫ F 2 (s )ρ s ds
0 20
atunci
1 t 1
t
Z t = exp ∫ F (s )d (ρ s − δ s ) − ∫ F 2 (s )ρ s ds . (9)
2 0 20
∫ F (s )dρ s = F (t )ρ s − F (0)ρ 0 − ∫ ρ s dF (s )
0 0
(10)
1 t
1t
( )
Z t = exp F (t )ρ t − F (0 )x − δ ∫ F (s )ds − ∫ F 2 (s )ρ s ds + ρ s dF (s )
2
0 20
Φ′
Fie F = astfel încât pentru b dat, Φ satisface relaţia Φ ′′ = b 2 Φ , Φ (0 ) = 1 ,
Φ
Φ ′(1) = 0 . Este uşor de arătat că Φ (t ) = cosh (bt ) − tanh (b )sinh (bt ) . Atunci
1 b2
t
Z t = exp (F (t )ρ t − F (0 )x − δ ln Φ(t )) − ∫ ρ s ds
2 2 0
1 δ b2
1
1 = E (Z 0 ) = E (Z 1 ) = E exp − xΦ ′(0 ) − ln Φ(1) − ∫ Rs ds
2 2 2 0
1
Pentru Φ(1) = şi Φ ′(0 ) = −b tanh b obţinem rezultatul căutat.
cosh b
100
3.3.4. Procesul Cox-Ingersoll-Ross
mişcare browniană. Procesul CIR definit în relaţia (11) este un proces de forma
σ 2 kt 4kθ
rt = e − kt ρ ( )
e − 1 , unde (ρ (s ), s ≥ 0 ) este un proces BESQ δ (α ) cu δ = 2 . In
σ
4k
4kθ
particular dacă > 2 procesul nu atinge starea 0.
σ2
Din a doua teoremă de existenţă rezultă faptul că ecuaţia (11) admite o soluţie unică,
{ }
def
nenegativă. Presupunem 2kθ ≥ σ 2 şi notăm T0x = inf t ≥ 0 ; rt x = 0 primul moment în
( )
care este atinsă starea 0. Atunci P T0x = ∞ = 1 , adică procesul r nu atinge starea
( )
(poziţia) 0. Pentru 0 ≤ 2kθ < σ 2 şi k > 0 , P T0x < ∞ = 1 iar pentru k < 0 are loc
(
relaţia P T0x < ∞ ∈ (0,1) . )
Probabilităţi de tranziţie pentru procesul CIR
σ2 2kθ
unde c = (e kt
)
− 1 şi ν = − 1.
4k σ2
101
In particular, fie rt (ρ ) un proces CIR a cărei valoare iniţială este r0 (ρ ) = ρ . In aceste
P(Yt ∈ dy ) =
e −ε 2 − y 2 ν 2
2α ν 2
e y Iν ( )
yα dy
4θ ρ Ke µT σ 2 kT
P (rT > µ r0 = ρ ) = 1 − χ 2 2 , , , unde c = ( )
e −1 .
σ c c 4k
Bibliografie
102
Capitolul 4
(
In acest caz are loc P = (LT ) Q şi E P (Y ) = EQ (L−T1Y ) iar L−t 1 , t ≤ T este un
−1
)
Q -martingal.
Observaţie. Vorbim despre legea unei variabile aleatoare sau al unui proces, în raport
cu P sau Q în funcţie de probabilitatea cu care este înzestrat spaţiul. O proprietate
103
adevărată P -aproape sigur este adevărată Q -aproape sigur. O variabilă
aleatoare P -integrabilă nu este în mod necesar şi Q -integrabilă.
Propoziţia 4.2. M este un Q -martingal dacă şi numai dacă LM este un
P -martingal.
Demonstraţie. Fie M un Q -martingal. Utilizând formula lui Bayes şi proprietatea de
P -martingal a lui L , pentru s ≤ t obţinem relaţia:
E P (Lt M t F s )
M s = EQ (M t F s ) = .
Ls
t 1
t
Lt = exp ∫ θ s dBs − ∫ θ s2 ds , t ≤ T ,
0 20
unde θ este un proces (Ft ) adaptat (sau altfel spus, dLt = Ltθ t dBt ). Presupunem
t
def
~ ~
E (LT ) = 1 . Fie dQ FT = LT dP FT . Atunci Bt = Bt + ∫ θ s ds , unde B este o Q -mişcare
0
browniană.
1
T
Observaţie. In condiţia lui Novikov E P exp ∫ θ s2 ds < ∞ , LT este o variabilă
20
aleatoare pozitivă a cărei medie este 1 în raport cu P iar L este un P -martingal. Dacă
L nu are media 1 atunci L este un supermartingal al cărui medie este strict mai mică
decât 1.
Demonstraţie. In cazul în care θ = m , unde m este o constantă, utilizăm
caracterizarea mişcării browniene prin proprietatea de martingal a expresiei
λ2 ~ λ2
exp λBt − t . Demonstrăm că exp λBt − t este un Q -martingal sau că
2 2
λ2
Lt exp λ (Bt − mt ) −
2
1
( (
t = exp (λ + m )Bt − 2mλ + m 2 + λ2 t
2
))
104
~
este un P -martingal. In cazul general se poate verifica că B este un Q -martingal
~
deoarece B L este un P -martingal. Croşetul Q -semimartingalului B coincide cu cel al
~
termenului ce reprezintă martingalul sau cel al Q -martingalului B . Croşetul nu
~
depinde de alegerea probabilităţii. Croşetul lui B este egal cu croşetul lui B şi este
~
( ) ~
egal cu t . Deoarece Bt2 − t Lt este un P -martingal, rezultă Bt2 − t este un
Q -martingal.
Propoziţia 4.3. Fie Z un P -martingal local continuu şi fie Q o probabilitate
1
definită pe Ft prin dQ = exp Z t − Z t dP = Lt dP . Dacă N este un P -martingal
2
1
local continuu, procesul N t − N , Z t
= Nt − N , L t , t ≥ 0 este un Q -martingal
Lt
local continuu al cărui croşet este N t .
1
Demonstraţie. Martingalul Lt = exp Z t − Z t verifică relaţia dLt = Lt dZ t .
2
( )
Procesul N t − N , Z t , t ≥ 0 este un Q -martingal local. Utilizând formula lui Itô
( )
verificăm faptul că Lt N t − Lt N , Z t , t ≥ 0 este un P -martingal local.
ν2
W (ν ) (F ( X u , u ≤ t )) = W expνX t − t F ( X u , u ≤ t ) , pentru orice funcţie F .
2
105
ν2
deriva ν . Termenul W expνX t −
t F ( X u , u ≤ t ) din membrul drept devine
2
ν2 ν2
W expνX t − t f ( X t ) = E expνWt − t f (Wt ) ,
2 2
unde W este o mişcare browniană. Din teorema lui Girsanov rezultă că dacă W este o
ν2
mişcare browniană în raport cu P şi dQ Ft = expνWt − t dP Ft atunci
2
E P expνWt −
ν2
2
(( ~
t f (Wt ) = EQ ( f (Wt )) = EQ f Wt + νt ,))
~
unde W este o mişcare browniană în raport cu Q .
Observaţie. 1. Acest lucru poate fi generalizat la cazul în care t este timp de oprire şi
de asemenea la cazul în care schimbarea de probabilitate este de forma
t 1
t
exp ∫ θ s dWs − ∫ θ s2 ds .
0 20
2. Dacă L este soluţia ecuaţiei dLt = Ltθ t dBt cu L0 = 1 , P se poate scrie în funcţie de
T T
1 2
L = exp − ∫ θ (s )dBs + ∫ θ (s )ds
−1
T
0 20
T ~ 1
T
L−T1 = exp − ∫ θ (s )dBs − ∫ θ 2 (s )ds .
0 20
( )
Procesul L−t 1 , t ≥ 0 este un Q -martingal şi dacă X este din FT atunci are loc relaţia
E P ( X ) = EQ (L X ) .
−1
T
106
Propoziţia 4.4. Dacă X este un proces stochastic definit prin relaţia
X t = ν t + Bt şi dacă Taν = inf {t ≥ 0; X t = a} este timp de lovire a nivelului a , atunci
( ( ))
E exp − λTaν = exp νa − a ν 2 + 2λ . ( )
Demonstraţie. Se observă că pentru λ > 0 are loc relaţia:
( ( )) ( ( ))
E exp − λTaν = E 1 (T ν <∞ ) exp − λTaν = W (ν ) exp(− λTa )1(Ta <∞ ) =
a
( )
1 1
= W expνX Ta − ν 2T a exp(− λTa )1 (T ν <∞ ) = eνa W exp − ν 2 + 2λ T a .
2
( )
a
2
( )
Observaţie. Dacă aν > 0 atunci P Taν < ∞ = 1 , în caz contrar P Taν < ∞ < 1 . Atunci ( )
1 a2
(
P Taν ∈ dt = ) dt
aeνa exp − + ν 2 t .
2πt 3 2 t
Cazul vectorial
t ( i ) (i ) 1 t ( i ) 2
L = exp ∫ θ s dBs − ∫ θ s ds ,
i
t
20
( )
0
(
are loc relaţia dLt = Lt θ t(1) dBt(1) + θ t(2 ) dBt(2 ) ) şi se arată că în raport cu Q ,
t
~
Bt(i ) = Bt(i ) − ∫ θ (i ) (s )ds sunt mişcări browniene independente.
0
şi dQ Ft = Lt dP Ft unde (
dLt = Lt θ t(1) dBt(1) + θ t(2 ) dBt(2 ) .) In raport cu Q,
t
~
( )
Bt(i ) = Bt(i ) − ∫ θ (i ) (s ) + ρθ ( j ) (s ) ds sunt mişcări browniene corelate, coeficientul de
0
107
~
corelaţie fiind ρ . Pentru a demonstra că B (1) este o Q -mişcare browniană este
( ) ( ) ( ( ) ) (
d LB (1) = LB (1) θ 1 dB (1) + θ 2 dB (2 ) + L dB (1) − θ 1 + ρθ 2 dt + L θ 1 dt + θ 2 ρdt . )
4.1.2. Aplicaţii – modele financiare
Prin urmare
b(t ) − r (t )
dBt = dWt − θ (t )dt = dWt + dt
σ (t )
t
Probabilitatea Q este numită probabilitate de risc neutru. Dacă Rt = exp − ∫ r (s )ds
0
este coeficientul de actualizare atunci procesul SR verifică relaţia d (S t Rt ) = S t Rt σ t dBt
EQ (RT VT Ft ) = EQ (RT ξ Ft ) = Vt Rt .
t t
~ ~ ~
Vt = V0 + ∫ π s dS s = V0 + ∫ π s S s Rsσ s dBs (1).
0 0
~
încât Vt = e rtVt = α t S t0 + π t S t .
~
Procesul V este o integrală stochastică în raport cu un Q -martingal , este prin
urmare un Q -martingal local. Dacă este un martingal atunci are loc relaţia:
~ ~
( ) (
Vt = EQ VT Ft = EQ e − rT ξ Ft . ) (2)
Portofoliul de acoperire se obţine din ecuaţia (1). Cum π este cunoscut trebuie doar să
1
considerăm α t = 0
(Vt − π t S t ) = V~t − π t S~t . Rămâne de demonstrat existenţa lui π .
St
Pentru evaluarea activului, ξ , trebuie identificată probabilitatea de risc neutru, calculată
( )
media EQ e − rT ξ Ft şi identificat π . Cum valoarea activului, ξ este pozitivă rezultă că
pozitivă.
In cazul modelului Black-Scholes, dS (t ) = S (t )(bdt + σdBt ) , unde b şi σ sunt
109
( ~ ~
)
constante, atunci dS t = S (t ) rdt + σdBt , unde B este o Q -mişcare browniană şi S
µ −r
este o mişcare browniană geometrică. Pentru θ = − şi dLt = LtθdBt are loc relaţia
σ
~ ~
dQ = Lt dP . Mişcare browniană B este dată de relaţia dB = dB − θdt .
F (t , x ) = xN (d1 ) − Ke − r (T −t ) N (d 2 ) .
~ ~
Fie F (t , x ) = e − rt F (t , x ) . Având în vedere că F (t , S t ) este un martingal atunci formula
t
∂F
~ ~
lui Itô implică F (t , S t ) = F (0, S 0 ) + ∫ (u, S u )dS~u . Cum derivata martingalului
0
∂x
~
F (t , S t ) este 0 regăsim ecuaţia de evaluare .
∂F
Observaţie. Dacă π t = (t , S t ) , atunci termenul ∂F (t , S t ) este factorul Delta al
∂x ∂x
opţiunii call.
De asemenea obţinem relaţia:
(( ) ) ( ) (
Vt = EQ e − r (T −t ) (S T − K ) Ft = e − rt EQ S T e − rT 1 ST > K − Ke − rt EQ e − rT 1 ST > k .
+
)
S t e − rt
este un martingal pozitiv de medie 1 şi facem o schimbare de probabilitate.
S0
( ( )) (
cu Q̂ şi dS t = S t rdt + σ dBˆ t + σdt = S t (r + σ 2 )dt + σdBˆ . )
σ2 σ2
Atunci: S T = S 0 exp r + σ 2 − T + σBˆ T = S 0 exp r + T + σBˆ T şi
2 2
( ) ( )
EQ S T e − rT 1 ST > K = S 0 EQ M T 1 ST > K S0 = S 0 Qˆ (S T > K S 0 ) .
110
Noţiunea de arbitraj
V0 (π ) = 0 , VT (π ) ≥ 0 , E (VT ) > 0
111
4.2. Timp de lovire
Ta ( X ) = inf {t ≥ 0 : X t = a} .
Primul moment în care procesul X se află deasupra nivelului a este dat de expresia
Primul moment în care procesul X se află sub nivelului a este dat de expresia
Observaţie. 1. Pentru X 0 = x şi a > x are loc relaţia Ta+ = Ta . 2. Unele traiectorii ale
mişcării browniene vor lovi nivelul a > 0 direct, altele vor avea un traseu mai amplu
trecând prin valori negative pentru ca după un timp suficient de mare să ajungă în
poziţia a . Astfel Ta va avea o anumită distribuţie.
iar M t = sup Ws , altfel spus M este maximul mişcării browniene pe intervalul [0, t ] .
s ≤t
P(Wt ≤ x, M t ≥ y ) = P(Wt ≥ 2 y − x ) .
depăşeşte nivelul (starea) y . Acesta este un F -timp de oprire (sau stopare) şi pentru
112
a nivelului y , adică T y+ = T y = inf {t : Wt = y} şi WTy = y . Prin urmare, au loc
egalităţile:
(
P(Wt ≤ x, M t ≥ y ) = P (Wt ≤ x, T y ≤ t ) = P Wt − WTy ≤ x − y, T y ≤ t . )
( ) ( )
Notaţie: E P 1 A T y = P A T y . Având în vedere proprietatea tare Markov obţinem:
( ) ( ( )) (
P Wt − WTy ≤ x − y, T y ≤ t = E 1Ty ≤t P Wt − WTy ≤ x − y T y = E 1Ty ≤t Φ (T y ) , )
~
( )
~ def
unde Φ (u ) = P Wt −u ≤ x − y şi Wu = WTy +u − WTy , u ≥ 0 este o mişcare browniană
independentă de (Wt , t ≤ T y ) având aceeaşi lege cu − W . Prin urmare
~
~
( )
Φ (u ) = P Wt −u ≥ y − x . Atunci
( ) ( ( ))
E 1Ty ≤t Φ(T y ) = E 1Ty ≤t P Wt − WTy ≥ y − x T y = P(Wt ≥ 2 y − x, T y ≤ t ) .
x x − 2y
pentru y ≥ 0 şi x ≤ y P(Wt ≤ x, M t ≤ y ) = N − N (3)
t t
y − y
pentru y ≥ 0 şi x ≥ y P(Wt ≤ x, M t ≤ y ) = P(M t ≤ y ) = N − N
t t
pentru y ≤ 0 P(Wt ≤ x, M t ≤ y ) = 0 .
2 ( x − 2 y )2
P(Wt ∈ dx, M t ∈ dy ) = 1 y ≥01 x≤ y (2 y − x ) exp−
dxdy .
π t3 2t
113
Pentru y ≥ 0 şi x ≥ y , cum M t ≥ Wt rezultă P(Wt ≤ x, M t ≤ y ) = P(Wt ≤ y, M t ≤ y ) .
y − y
Pentru x = y în (3) rezultă P(M t ≤ y ) = P(Wt ≤ y, M t ≤ y ) = N − N .
t t
Pentru y ≤ 0 , cum M t ≥ M 0 = 0 rezultă P(Wt ≤ x, M t ≤ y ) = 0 .
( )
în lege
staţionare. De asemenea este verificată proprietatea Tλy = λ2T y , y ≥ 0 .
1 în lege ~
{
Tλy = inf t : Wt = y = λ2 inf t : Wt = y , }
λ
~ ~ 1
unde W este o mişcare browniană definită prin Wt = Wλ2t .
λ
Propoziţia 4.9. M t şi Wt au aceeaşi lege de probabilitate.
( x2
)
P(Tx ≤ t ) = P( x ≤ M t ) = P(x ≤ Wt ) = P x ≤ G t = P 2 ≤ t ,
G
x x2
P(Tx ∈ dt ) = exp − 1t ≥0 dt
2π t 3 2t
114
şi atunci pentru orice x ≠ 0 are loc relaţia:
x x2
P(Tx ∈ dt ) = exp − 1t ≥0 dt .
2π t 3 2t
− y y
pentru y ≤ 0 şi x ≤ y P(Wt ≥ x, mt ≥ y ) = N − N
t t
pentru y ≥ 0 P(Wt ≥ x, mt ≥ y ) = 0
− y y
pentru y ≤ 0 , P(mt ≥ y ) = N − N .
t t
Dacă mişcarea browniană W porneşte din starea z la momentul 0 şi
T0 = inf {t : Wt = 0} atunci pentru z > 0 şi x > 0 obţinem egalităţile:
1 x >0 ( z − x )2 ( x + z )2
Pz (Wt ∈ dx, T0 > t ) = exp − − exp −
dx .
2π t 2t 2t
corespunzător unei mişcari browniane standard. Atunci pentru λ > 0 are loc relaţia:
λ2
E exp − T y = exp(− y λ ) .
2
λ2
Demonstraţie. Pentru orice λ > 0 procesul exp λWt − t , t ≥ 0 este un
2
martingal. Fie y ≥ 0 , λ ≥ 0 şi T y timpul de lovire al nivelului y atunci martingalul
115
λ2
exp λWt ∧T − (t ∧ T y ), t ≥ 0 este mărginit de e λy . Teorema de selecţie opţională a
2
y
λ2
lui Doob implică E exp λWTy − T y = 1 . Din relaţiile P (T y < ∞ ) = 1 şi WTy = y
2
obţinem transformata Laplace a lui T y . Cazul pentru care y < 0 rezultă din studiul
mişcării browniene − W .
Observaţie. Pentru a aplica teorema de selecţie opţională a lui Doob trebuie să
λ2
verificăm dacă martingalul exp λWt ∧Ty − (t ∧ T y ) este uniform integrabil. In cazul
2
λ > 0 şi y < 0 o aplicare necorespunzătoare a teoremei conduce la egalitatea cu 1 şi
λ2 λ2
E exp λWTy − T y = e λy E exp− T y .
2 2
λ2
Ceea ce înseamnă că termenii E exp − T y şi exp(− yλ ) sunt egali. Acest lucru
2
λ2
este fals deoarece cantitatea E exp − T y este mai mică decât 1 în timp ce
2
cantitatea exp(− yλ ) este strict mai mare decât 1.
aparţină lui A .
Propoziţia 4.11. Pentru y ≥ 0 şi y ≥ x are loc relaţia:
x −ν t 2ν y x − 2 y − ν t
( )
W (ν ) X t ≤ x, M tX ≤ y = N − e N
t t
116
− x +ν t 2ν y − x + 2 y + ν t
(
W (ν ) X t ≥ x, mtX ≥ y = N ) − e N .
t t
ν2
( )
W (ν ) X t ≤ x, M tX ≥ y = E expν Wt −
2
t 1{W ≤ x ,M W ≥ y } .
t t
( ) (
P Wt ≤ x, M tW ≥ y = P x ≥ 2 y − Wt , M tW ≥ y )
Deci
ν2 ν2
E expν Wt − t 1{W ≤ x , M W ≥ y } = E expν (2 y − Wt ) − t 1{2 y −W ≤ x , M W ≥ y } =
2 t t
2 t t
ν2
= e 2ν y E exp − ν Wt − t 1{Wt ≥ 2 y − x} .
2
ν2
E exp − ν Wt − t 1{Wt ≥ 2 y − x} = P(Wt − ν t ≥ 2 y − x ) .
2
( )
W (ν ) X t ≤ x, M tX ≥ y = e 2ν y P(Wt ≥ 2 y − x + νt ) = e 2ν y W (ν ) ( X t ≥ 2 y − x + 2ν t ) =
− 2 y + x −ν t
= e 2ν y P(− Wt ≥ 2 y − x + ν t ) = e 2ν y P( X t ≤ x − 2 y ) = e 2ν y N .
t
De unde rezultă
( ) (
W (ν ) X t ≤ x, M tX ≥ y = W (ν ) ( X t ≤ x ) − W (ν ) X t ≤ x, M tX ≥ y = )
x − ν t 2ν y x − 2 y − ν t
= N − e N .
t t
Pentru y ≤ 0 şi y ≤ x obţinem
( ) (
W (ν ) X t ≥ x, mtX ≤ y = P Wt + ν t ≥ x, inf (Ws + ν s ) ≤ y =
s ≤t
)
117
2 y − x +ν t
= P − Wt − ν t ≤ − x, sup(− Ws − ν s ) ≥ − y = e 2ν y P(Wt − ν t ≥ − y ) = e 2ν y N
s ≤t t
In particular, principiile maximului şi minimului unei mişcări browniene cu
( ) ( ) ( ) (
W (ν ) M tX ≤ y = W (ν ) X t ≤ y, M tX ≤ y şi W (ν ) mtX ≥ y = W (ν ) X t ≥ y, mtX ≥ y , )
din unde obţinem:
y −ν t 2ν y − y − ν t
( )
W (ν ) M tX ≤ y = N − e N , y ≥ 0
t t
− y +ν t 2ν y − y − ν t
W (ν ) (M tX ≥ y ) = N + e N , y ≥ 0
t t
− y +ν t 2ν y y + ν t
( )
W (ν ) mtX ≥ y = N − e N , y ≤ 0
t t
y −ν t 2ν y y + ν t
( )
W (ν ) mtX ≤ y = N + e N , y ≤ 0 .
t t
şi
y −ν t 2ν y − y − ν t
( )
W (ν ) (T y ( X ) ≥ t ) = W (ν ) M tX ≤ y = N − e N , y > 0
t t
− y +ν t 2ν y y + ν t
( )
W (ν ) (T y ( X ) ≥ t ) = W (ν ) mtX ≥ y = N − e N , y < 0
t t
ν ≤ 0 : W (ν ) (T y = ∞ ) = 1 − e 2ν y .
Transformata Laplace a unui timp de lovire în cazul mişcării browniene cu
derivă se obţine din teorema Cameron-Martin:
λ2 ν 2 + λ2
W (ν ) exp − T y ( X ) = E expν WTy − T y (W ) , unde W (ν ) (.) este media
2 2
în raport cu W (ν ) . Din propoziţia 4.10 expresia din membrul drept este egală cu
1
2
( )
(
eν y E exp − ν 2 + λ2 T y (W ) = eν y exp − y ν 2 + λ2 .
)
118
Prin urmare, (ν )
λ2
(
W exp − T y ( X ) = eν y exp − y ν 2 + λ2 . Pentru λ = 0 şi
)
2
ν y < 0 obţinem W (ν )
(T y < ∞ )= e 2ν y
.
tinzând la ∞ , deci deriva conduce procesul către infinit. In cazul ν y > 0 pentru λ = 0
(( )
S t = x exp µ − σ 2 2 t + σ Wt = xeσ X t , )
µ σ
unde X t = ν t + Wt şi ν = − .
σ 2
1
Notăm prin Ta (S ) = inf {t ≥ 0 : S t = a} = inf t ≥ 0 : X t = ln(a x ) primul timp de
σ
1
lovire al nivelului a . Atunci Ta (S ) = Tα ( X ) , unde α = ln (a x ) . Atunci când un nivel
σ
1
b este asociat mişcării browniene S , notăm β = ln(b x ) . Din rezultatele anterioare
σ
obţinem legea de probabilitate a timpului de lovire şi principiile maximului şi
minimului corespunzătoare lui S pe intervalul [0, t ] .
α − ν t 2ν β α − 2 β − ν t
( ) (
P S t ≤ a, M tS ≤ b = P X t ≤ α , M tX ≤ β = N )
− e N .
t t
− α + ν t 2ν β − α + 2 β + ν t
( ) (
P S t ≥ a, mtS ≥ b = P X t ≥ α , mtX ≥ β = N )
− e N .
t t
119
Prin urmare pentru a > x sau α > 0
( ) ( )
P(Ta (S ) < t ) = P M tS ≥ a = 1 − P M tS ≤ a = 1 − P S t ≤ a, M tS ≤ a = ( )
α − ν t 2ν α − ν t − α − α + ν t 2ν α − ν t − α
= 1 − N + e N = N + e N .
t t t t
α − ν t 2ν α ν t + α
( ) (
P(Ta (S ) < t ) = P mtS ≤ a = 1 − P mtS ≥ a = N )
+ e N .
t t
λ2 λ2
E exp − Ta (S ) = W (ν ) exp − Tα ( X ) .
2 2
λ2
(
Din relaţia W (ν ) exp − Tα ( X ) = eν α exp − α ν 2 + λ2 rezultă )
2
λ2
(
E exp − Ta (S ) = exp ν α − α ν 2 + λ2 . )
2
( )
32
ρ k
f (t ) = e exp −
kt 2 k
(ρ − θ )2 − θ 2 + ρ 2 coth kt .
σ 2π 2σ
2
sin kt
120
t
Atunci T0 = inf {t ≥ 0 : rt = 0} = inf t : x + ∫ e ks dBs = 0 = inf {t : W A(t ) = − x} şi aplicând
0
t
teorema lui Dubins scriem martingalul ∫ e ks dBs ca o mişcare browniană W pentru care
0
t
A(t ) = ∫ e 2 ks ds . Prin urmare T0 = A(inf {t ≥ 0 : Wt = − x}) şi are loc relaţia:
0
dS t = S t (rdt + σ (t )dWt ) , S 0 = x .
1
t t
Fie Ta (S ) = inf {t : S t = a} = inf t : rt − ∫ σ 2 (s )ds + ∫ σ (s )dWs = α , unde
20 0
α = ln (a x ) .
Observaţie. Volatilitatea σ reprezintă caracteristica unei valori mobiliare de a
înregistra fluctuaţii mari de preţ într-o perioadă scurtă de timp.
t
Procesul U t = ∫ σ (s )dWs este o mişcare browniană şi poate fi reprezentat prin Z A(t ) ,
0
t
unde Z este o mişcare browniană şi A(t ) = ∫ σ 2 (s )ds . Fie C inversa funcţiei A putem
0
defini atunci
1 1
Ta (S ) = inf t : rt − A(t ) + Z A(t ) = α = inf C (u ) : rC (u ) − u + Z u = α .
2 2
1
de către o mişcare browniană cu derivă Z u − u , u ≥ 0 .
2
Observaţie. Fie Th (V ) = inf {t ≥ 0 : Vt = h(t )}, unde h este o funcţie deterministă şi V
un proces de difuzie. Există un număr mic de cazuri pentru care legea lui Th (V ) este
intervalul [0, t ] .
Propoziţia 4.13. Fie W o mişcare browniană şi T * = Ta ∧ Tb . Atunci pentru
b−x
Px (Ta < Tb ) = şi E (T *) = x(b + a ) − ab − x 2 .
b−a
( )
Demonstraţie. Martingalul Wt ∧Ta ∧Tb , t ≥ 0 este mărginit astfel încât
( )
x = E x WTa ∧Tb = aPx (Ta < Tb ) + bPx (Tb < Ta ) .
(W 2
t ∧Ta ∧Tb )
− (t ∧ Ta ∧ Tb ), t ≥ 0 fiind un martingal atunci:
( )
x 2 = E x Wt 2∧Ta ∧Tb − E x (t ∧ Ta ∧ Tb ) .
λ2 cosh (λ (a + b ) 2 )
E exp − T * = .
2 cosh (λ (a − b ) 2 )
122
unde pentru E ⊂ [a, b] are loc relaţia:
1 ∞
1 1 2
ϕ (t , x ) = ∑ exp − 2t (x + 2k (b − a )) 2
− exp − ( x − 2b + 2k (b − a )) .
2π t k = −∞ 2t
a + b a + b λ 2T *
exp − λ = E exp λ WT * − − =
2 2 2
b − a λ2T * a − b λ 2T *
= exp λ E exp − 1{T *=Tb } + exp λ E exp − 1{T *=Ta }
2 2 2 2
a + b a + b λ 2T *
exp − λ
= λ − − − =
E exp WT*
2 2 2
− 3b − a λ 2T * − b − 3a λ2T *
= exp λ E exp − 1{T *=Tb } + exp λ E exp − 1{T *=Ta }
2 2 2 2
λ2T * sinh (− λa )
E exp − 1{T *=Tb } =
sinh (λ (b − a ))
2
E exp − λ T * 1
2
sinh (λb )
=
sinh (λ (b − a ))
{T * =Ta
}
2
λ2 λ2T * λ 2T *
E exp − T * = E exp − 1{T *=Tb } + E exp −
1{T *=Ta }
2 2 2
123
(ν )
λ2 ν2 ν2
W exp − T * ( X ) = E expν WT * − T * exp − T * =
2 2 2
ν 2 + λ2 ν 2 + λ2
= E expν WT * − T * 1{T *=Tα } + E expν WT * − T * 1{T *=Tβ } =
2 2
ν 2 + λ2 ν 2 + λ2
= exp(να )E exp − T * 1{T *=Tα } + exp(νβ )E exp − T * 1{T *=Tβ } .
2 2
λ2T * sinh (− λa )
E exp − 1{T *=Tb } =
sinh (λ (b − a ))
2
Sistemul implică:
E exp − λ T * 1
2
sinh (λb )
T *=Ta } =
sinh (λ (b − a ))
2
{
λ2 cosh (νβ )
W (ν ) exp − T * ( X ) =
2 (
cosh β ν 2 + λ2
.
)
4.3. Alte probleme
Definiţia 4.1. Fie (Ω,F , P ) un spaţiu probabilistic şi fie (Fn )n∈N o filtrare
filtrarea (Fn )n∈N dacă pentru orice n > 0 , variabila aleatoare H n este Fn −1 -măsurabilă.
Propoziţia 4.15. Fie M un (Ft ) - martingal astfel încât sup E M t2 < ∞ . Există
t ≤T
T 2
un unic proces previzibil H , cu E ∫ H s ds < ∞ , astfel încât are loc relaţia :
0
124
t
M t = M 0 + ∫ H s dBs ,
0
pentru orice t din intervalul [0, T ] . Dacă M este un (Ft ) - martingal local există un
1T
(Ft ) -adaptat ce verifică condiţia lui Novikov E exp ∫ θ s2 ds < ∞ . Fie Q
2 0
probabilitatea echivalentă a lui P definită pe Ft prin
t 1
t
dQ = exp ∫ θ s dBs − ∫ θ s2 ds dP = Lt dP .
0 20
t
~ def
Din teorema lui Girsanov rezultă faptul că Bt = Bt − ∫ θ s ds este o (Ft ) - Q -mişcare
0
~ ~
browniană. In general, filtrarea lui B este diferită de cea a lui B , Ft ⊂ Ft . In această
125
dS t = S t (µdt + σ t dBt ) în raport cu probabilitatea P , atunci procesul de actualizare
~ ~ ~
verifică relaţia dS t = σ S t dBt .
Calcul Malliavin
T
Dγ F (ω ) = ∫ψ (t , ω )g (t )dt .
0
n
∂f
Dt F = ∑ (W (h1 ),...,W (hn ))hi (t ) .
i =1 ∂xi
(R +
× R n × R n×d ), uniformă, lipschitziană
126
Problema este de a rezolva ecuaţia diferenţială retrogradă
− dX t = b(t , X t , Yt )dt − Yt * dBt verificând condiţia terminală XT = ζ , adică
T T
X t = ζ + ∫ b(s, X s , Ys )ds − ∫ Ys* dBs . (5)
t t
T T
este egală cu expresia ζ + ∫ b(s )ds − ∫ Ys* dBs . Aplicând media condiţionată în ambii
0 t
tT
membri obţinem relaţia X t + ∫ b(s )ds = E ζ + ∫ b(s )ds Ft , de unde rezultă că procesul
0 0
t T
X t + ∫ b(s )ds este un martingal cu valoarea terminală ζ + ∫ b(s )ds cunoscută. Din
0 0
− dX t = f (t , X t , Yt )dt − Yt * dWt ,
127
Soluţia căutată este perechea ( X , Y ) de procese F -adaptate ce satisfac ecuaţia:
T T
X t = ζ + ∫ f (s, X s , Ys )ds − ∫ Ys* dWs .
t t
T 2
mulţimea proceselor Z pentru care E ∫ Z s ds < ∞ .
0
Propoziţia 4.16. Presupunem că pentru orice pereche ( x, y ) din R n × R d ×n
f (t , x1 , y1 ) − f (t , x 2 , y 2 ) ≤ K ( x1 − x 2 + y1 − y 2 ) .
(
In aceste condiţii există o unică pereche ( X , Y ) din L2 [0, T ], R d × L2 [0, T ], R d ) ( ) ce
satisface ecuaţia (5).
Demonstraţie. Considerăm cazul n = d = 1 şi demonstrăm unicitatea soluţiei în acest
caz. Fie (X 1 ,Y 1 ) şi (X 2
,Y 2 ) două soluţii din L2 ([0, T ], R d )× L2 ([0, T ], R d ) . Notăm
relaţia:
T T T
(∆X t )2 + ∫ (∆Ys )2 ds = −2∫ ( f (s, X s1 , Ys1 ) − f (s, X s2 , Ys2 ))∆X s ds − 2∫ ∆X s ∆Ys dWs .
t t t
( ) T T 2 1
T
E (∆X t ) + E ∫ (∆Ys ) ds ≤ cE ∫ ds(∆X s ) + E ∫ (∆Ys ) ds .
2 2 2
t t 2 t
128
Demonstrăm existenţa soluţiei. Pasul 1. Considerăm cazul particular:
( )
− dX t = f t dt − Yt dWt , X T = ζ , unde f este din H 2 R d . Având în vedere relaţia:
t
T
X t + ∫ f (s )ds = E ζ + ∫ f (s )ds Ft
0 0
T
obţinem X t = E ζ + ∫ f s ds Ft , 0 ≤ t ≤ T .
t
Teorema de reprezentare ne conduce la existenţa variabilei Y ∈ L2 ([0, T ], R ) astfel încât
t
martingalul ( X t , t ≥ 0 ) admite reprezentarea X t = X 0 + ∫ Ys dWs .
0
căutată. Aplicăm lema lui Itô şirului ( X n +1 (t ) − X n (t )) . Inlocuind acest şir în ecuaţia
2
Atunci rezultă:
( 2
) T 2
E ( X n +1 (t ) − X n (t )) + E ∫ (Yn (s ) − Yn −1 (s )) ds ≤
t
T T
≤ cE ∫ ( X n +1 (s ) − X n (s )) ds + ∫ (Yn (s ) − Yn −1 (s )) ds .
2 2
t t
a a2
Din relaţia 2ab = 2 cb ≤ 2 + c 2 b 2 obţinem:
c c
T
1 T
E ( X n +1 (t ) − X n (t )) + ∫ (Yn +1 (s ) − Yn (s )) ds ≤ K 2 E ∫ X n +1 (s ) − X n (s ) ds +
2 2 2
t c t
129
T
T
+ c E ∫ Yn (s ) − Yn −1 (s ) ds . Fie ϕ n (t ) = e E ∫ ( X n (s ) − X n −1 (s )) ds şi
2 2 ct 2
t t
T
ψ n (t ) = e E ∫ (Yn (s ) − Yn −1 (s ))2 ds . Inlocuind aceste relaţii în expresia de mai sus
ct
t
1
obţinem relaţia: − ϕ n′ (t ) + ψ n +1 (t ) ≤ ψ n (t ) .
2
T T
1
Integrând inegalitatea obţinem ϕ n (t ) + ∫ψ n +1 (s )ds ≤ ∫ψ n (s )ds . In particular rezultă
t
2t
T T
1
ϕ n (0 ) ≤ ϕ n (0 ) + ∫ψ n +1 (s )ds ≤ n ∫ψ 1 (s )ds .
0 2 t
1
Tinând cont de relaţia − ϕ n′ (t ) + ψ n +1 (t ) ≤ ψ n (t ) şi cum ϕ n′ (t ) ≤ 0 rezultă
2
1
ψ n +1 (0) ≤ c~ 2 − n + ψ n (0) deci cele două serii ϕ n (0) şi ψ (0) sunt convergente iar
2
şirurile X n şi Yn sunt convergente în L2 .
d
Condiţia de autofinanţare dX t = π 0 (t )dS t0 + ∑ π i (t )dS ti − ct dt permite scrierea
i =1
130
d -dimensional cu componentele egale cu 1. Trebuie determinată soluţia următoarei
ecuaţii:
π t = Yt*σ t−1 .
t
In acest caz procesul Rt X t + ∫ c s Rs ds este un martingal în raport cu Q , deci
0
T
H t X t = E P X T H T + ∫ c s H s ds Ft , unde H este produsul dintre factorul de discount şi
t
densitatea Radon-Nikodym.
Teorema de comparaţie. Fie f i , i = 1,2 cu f 1 (t , x, y ) ≤ f 2
(t , x, y ) , două
( ) ( )
− dX ti = b i t , X ti , Yt i dt − Yt i dWt .
*
Atunci X ti ≤ Yt i oricare ar fi t ≤ T .
( )
− d (Yt ) = ∆ x b1 (t )Xˆ t + ∆ y b1 (t )Yˆt + b1 (t , X t2 , Yt 2 ) − b 2 (t , X t2 , Yt 2 ) dt − Yˆt* dWt ,
Yt = ζ 1 − ζ 2
unde
b1 (t , X t1 , Yt1 ) − b1 (t , X t2 , Yt1 )
∆ y bt1 = × 1X 1≠ X 2
X t1 − X t2 t t
∆ x bt1 =
( ) (
b1 t , X t1 , Yt1 − b1 t , X t1 , Yt 2 )
× 1Y 1 ≠Y 2
Yt1 − Yt 2 t t
131
4.3.3. Regula de schimbare a parametrului timp
ACs ≥ s şi At = inf {u C u > t}. Pentru orice u , variabila aleatoare C u este un timp de
oprire. Dacă A este continuu şi strict crescător atunci C este continuu şi are loc relaţia
C ( A(t )) = t . Printr-o schimbare a variabilei timp obţinem formula
∞ ∞
: ∫ f (s )dAs = ∫ f (C s )1Cs <∞ ds .
0 0
t
M t
= ∫ H s2 ds .
0
At = M , M t .
Procesul M Ct
= t este crescător iar W este un martingal în raport cu FCt . Prin
Propoziţia 4.17. Păstrând notaţiile din teorema Dubins Schwartz putem face
următoarea afirmaţie: dacă Z este un proces progresiv măsurabil astfel încât
∞ def ∞
t M t Ct t
∫ Z dM
0
s s = ∫ Y dW ; ∫ Z dM
0
u u
0
v v = ∫ Yu dWu .
0
132
t At
t t
croşet. 2. In cazul M t = ∫ H s dBs are loc relaţia A(t ) = ∫ H s2 ds . Dacă H este pozitiv şi
0 0
A (t )
A (t )
d ∫ dWs = dM t = H t dBt = A′(t )dBt .
0
t
Demonstraţie. Fie procesul crescător At (ν ) = ∫ exp(2(Ws + νs ))ds şi fie
0
Ct
Cut
(( )) ~ ~
dt = exp 2 WCt + νC t dC t . Procesul continuu W definit prin Wu = ∫ exp(W s + νs )dWs
0
Cut
t
~ ~
mişcare browniană. Din definiţia lui W putem scrie W At = ∫ exp(Ws + νs )dWs sau
0
~
dW At = exp(Wt + νt )dWt .
( )
def
Demonstrăm că Ru = exp WCu + ν C u este un proces Bessel. Formula lui Itô ne
133
1 ~ 1
d exp(Wt + ν t ) = exp(Wt + ν t )(dWt + ν dt ) + exp(Wt + ν t )dt = dW At + ν + exp(Wt + ν t )dt
2 2
t
~ 1
sau exp(Wt + ν t ) = 1 + W At + ∫ ν + exp(Wt + ν s )ds . Prin urmare
0
2
C
( ) ~ 1
u
Cu u
( )
u
(
exp 2 WCu + ν Cu ) u
ds
∫ exp(Ws + ν s )ds = ∫ exp WCu + ν Cu dC s =
0 0 s =0
∫ exp(W Cu + ν Cu ) dC = ∫
s
exp(W + ν C )
0 Cu u
( ~ 1
d exp WCu + ν Cu = dWu + ν + ) du
2 exp WCu + ν Cu ( )
~ 1 du
şi dRu = dWu + ν + . Rezultatul căutat se obţine având în vedere relaţia
2 Ru
BES (ν ) .
2. Procesul Cox-Ingersoll-Ross
Propoziţia 4.19. Dacă r este soluţie a ecuaţiei drt = (a + brt )dt + σ rt dWt ,
1 σ 2 t
în lege
(rt , t ≥ 0) =
β (t )
R ∫ β ( s )ds
, t ≥ 0 ,
4 0
s
4a
unde β (s ) = exp− ∫ b(t )dt şi R este un proces BESQ cu indexul δ = .
0 σ2
t
Demonstraţie. Fie ρ t = rt exp− ∫ b(s )ds = rt β (t ) . Din formula lui Itô rezultă
0
t t
ρ t = ρ 0 + a ∫ β (s )ds + σ ∫ β (s ) ρ (s )dWs .
0 0
134
u
Definim procesul crescător C (u ) = σ 2 ∫ β (s )ρ (s )ds . Atunci procesul invers al său este
0
A (t ) A (t )
t
1
Cum A′(t ) = rezultă ρ A(t ) = ρ 0 + at + ∫ ρ ( A(s ))dZ s , unde Z este o mişcare
β ( A(t )) 0
browniană.
Propoziţia 4.20. Dacă r este soluţie a ecuaţiei drt = (a − λ (t )rt )dt + σ rt dWt ,
1 σ 2 t
în lege
(rt , t ≥ 0) =
Λ (t )
ρ ∫ Λ (s )ds , t ≥ 0 ,
4 0
s 4a
unde Λ (s ) = exp ∫ λ (t )dt şi ρ este un proces Bessel pătratic de dimensiune 2 .
0 σ
t
Demonstraţie. Fie Z t = rt exp ∫ λ (s )ds = rt Λ (t ) . Aplicând formula lui Itô obţinem:
0
t t
Z t = Z 0 + a ∫ Λ (s )ds + σ ∫ Λ(s ) Z s dWs .
0 0
σ2 u
Definim funcţia crescătoare C (u ) = ∫ Λ(s )ds . Atunci inversa sa este
4 0
A (t ) A (t )
Z A (t ) = Z 0 + a ∫ Λ(s )ds + σ ∫
0 0
Λ(s ) Z s dWs .
A (t )
Procesul σ ∫ Λ (s ) Z s dWs este un martingal iar procesul crescător asociat este dat de
0
A (t ) t
relaţia: σ 2 ∫ Λ(s )Z s ds = 4∫ Z A(s )ds , deci
0 0
135
t t
def
4a 4a
ρ t = Z A (t ) = Z 0 + t + 2 ∫ Z A( s ) dBs = ρ 0 + t + 2 ∫ ρ s dBs ,
σ2 0 σ2 0
drt = (a − λ (t )rt )dt + σ rt dWt , r0 = x , unde λ este o funcţie continuă este dată de
relaţia:
Λ (s , t ) ρ + rΛ (s, t ) rΛ(s, t )
ν 2
rρΛ (s, t )
P (rt ∈ dr rs = ρ ) = exp − Iν ,
2 Λ (s , t )
*
2Λ* (s, t ) ρ Λ* (s, t )
t σ2 t
unde Λ (s, t ) = exp ∫ λ (u )du , Λ* (s, t ) = ∫ Λ (s, u )du şi ν = 2a σ 2 − 1 .
s 4 s
Bibliografie
Henk C. Tijms - A First Course in Stochastic Models, John Wiley & Sons Ltd,
2003
136
Exerciţii
(
1 − p de creştere şi respectiv scădere a lirei în raport cu care E e − r∆T S T = S 0 . Având în )
vedere că r = 0 , verificaţi dacă în aceste condiţii preţul corect al opţiunii este
E ((K − S T )+ ) (unde media este calculată în raport cu aceste probabilităţi.
137
4. Presupunem că preţul unui activ are o distribuţie lognormală, adică log(S T S 0 )
5. Fie T0 şi T1 două momente astfel încât T0 < T1 . O opţiune forward start este un
Presupunem că preţului acţiunii i se poate asocia un model binar cu doi paşi astfel încât
preţul activului la momentul T0 este fie S 0 u , fie S 0 d iar la momentul T1 este S 0 u 2 ,
S 0 ud sau S 0 d 2 , ( ) ( )
unde d < min e rT0 , e r (T1 −T0 ) ≤ max e rT0 , e r (T1 −T0 ) < u , r fiind rata
{ tB }1 t ≥0
{B2t − Bt }t ≥0
Justificaţi răspunsul.
(
lovire a nivelului a . Să se demonstreze egalitatea E (exp(− θTa )) = exp − a 2θ . Să se )
calculeze E (Ta ) şi P(Ta < ∞ ) .
8. Fie {Ft }0≤t ≤T o filtrare naturală asociată mişcării browniene standard {Bt }0≤t ≤T .
a. exp(σBt )
138
t
c. tBt − ∫ Bs ds
0
t
9. Fie f este o funcţie elementară. Arătaţi că procesul M t = ∫ f (s, Bs )dBs ,
0
t t
2
10. Verificaţi relaţia E ∫ Bs dBs = ∫ E Bs2 ds .
( )
0 0
11. Utilizând formula lui Itô scrieţi ecuaţiile diferenţiale stochastice pentru
următoarele procese, în care {Bt }t ≥0 reprezintă mişcarea browniană standard:
Yt = Bt3
1
Yt = exp σBt − σ 2 t
2
Yt = tBt
∫ B dB
s s =
2
(
1 2
)
Bt − t ,
0
13. Fie {Bt }t ≥0 o mişcare browniană şi fie Z t = exp(αBt ) . Utilizaţi formula lui Itô
α 2
E (exp(αBt )) = exp t .
2
139
14. (Procesul Ornstein-Uhlenbeck) Fie {Bt }t ≥0 o mişcare browniană. Procesul
dX t = −αX t dt + dBt , X 0 = x .
t
Verificaţi relaţia X t = e −αt x + e −αt ∫ e αs dBs şi utilizând această expresie calculaţi media
0
unde Bt este mişcarea browniană standard. Fie r rata dobânzii fără risc. Preţul unui
momentul t este compus din H t0 unităţi din activul fără risc, S t0 şi H t unităţi din
activul cu risc, S t . In fiecare din cazurile prezentate mai jos determinaţi H t0 pentru
( )
care portofoliul H t0 , H t verifică condiţia de autofinanţare dVt = H t0 dS t0 + H t dS t :
a. H t = 1
t
b. H t = ∫ S u du
0
c. H t = S t
16. Delta-hedging. Cum preţul unui activ poate fi privit ca o mişcare browniană
geometrică rezultă că există parametrii µ şi σ astfel încât preţul activului poate fi
modelat de ecuaţia dS t = µS t dt + σS t dBt . Ne propunem ca pe baza acestui activ să
140
b. fie un portofoliu compus dintr-o opţiune şi o cantitate negativă − δ de active.
Notăm cu π valoarea acestui portofoliu. Presupunând că portofoliul verifică condiţia de
autofinanţare, determinaţi ecuaţia diferenţială stochastică verificată de π .
c. determinaţi valoarea lui δ pentru care termenul stochastic se anulează.
141
Dicţionar de termeni financiari
Acoperire (Coverage)
Active (Assets)
Acţiune (Stock)
142
Bursa de mărfuri (Commodity exchange)
Piaţa organizată şi reglementată care oferă un sistem prin care pot fi încheiate
tranzacţiile cu mărfuri. In majoritatea cazurilor, acesta constă într-un ring de
tranzacţionare unde brokerii cumpărători şi vânzători se întâlnesc într-o zonă cunoscută
sub denumirea de trading pit. Astfel, deşi la unele burse sistemul de tranzacţionare este
computerizat, oferind un program pentru tranzacţionarea electronică prin terminale
aflate la distanţă, unele tranzacţii se desfăşoară încă în ringul bursei prin licitaţie cu
strigare deschisă. Tranzacţiile se pot derula în sistem imediat, sau la termen. In cazul
tranzacţiilor efectuate în sistem imediat, livrarea mărfii se face pe loc (on
spot/immediate delivery); în cazul tranzacţiilor la termen, livrarea mărfii se face la o
anumită dată în viitor (future delivery). Scopul tranzacţiilor la termen este acela de a
asigura o protecţie (hedge) împotriva risculului modificării preţului unei mărfi într-o
anumită perioadă de timp. Bursa este prevăzută cu departamente care supraveghează
toate tranzacţiile care au loc în ring şi stabileşte regulile de desfăşurare a tranzacţiilor
astfel încât afacerile să fie încheiate în mod eficient, corect şi într-o manieră etică. In
plus, bursa, funcţionând pe principiul transparenţei, colectează şi transmite informaţiile
referitoare la preţul şi mărimea tranzacţiilor astfel încât investitorii să poată cunoaşte
situaţia pieţei în orice moment.
143
Contract futures (Futures contract)
Acord între două părţi prin care acceptă să cumpere, respectiv să vândă o
anumită cantitate din activul de bază (o marfă, un instrument financiar guvernamental,
o valută sau alt instrument financiar) la un anumit preţ, cu livrarea la o dată viitoare
specificată şi în condiţii stabilite în prezent. O deosebire faţă de contractele futures o
constituie faptul că aceste contracte nu sunt standardizate; ele sunt contracte
144
personalizate încheiate între două părţi. Astfel, termenii pentru contractele forward sunt
stabiliti de comun acord între cumpărător şi vânzător şi pot fi diferiţi de cei stabiliţi
pentru contractele futures de către bursa la care acestea se tranzacţionează. O altă
deosebire este că aceste contracte nu se tranzacţionează pe o piaţă organizată şi nu
există o casă de compensaţie care să preia riscul de neîndeplinire a obligaţiilor
contractuale de către una din părţi. De asemenea, contractele forward nu sunt lichide.
Ele sunt transferate foarte greu şi, de obicei, nu pot fi anulate decât cu acordul celeilalte
părţi care, de multe ori, se obţine prin plata unor penalităţi. Denumit şi contract "to
arrive", contractul forward este predecesorul contractului futures actual.
145
Coeficientul Beta (Beta)
146
Contract swap (Swap contract)
Cupon (Cupon)
147
Factorul gammma (Gamma)
Derivata care măsoar erodarea primei unei opţiuni cauzată de trecerea timpului.
Se ştie că, la expirare, o opţiune nu va mai avea valoare de timp, ci doar valoare
intrinsecă, în cazul în care va avea. Theta are ca scop previzionarea ratei zilnice de
erodare a primei. Dacă presupunem, de exemplu, că o opţiune are o primă de 3 şi un
factor theta de 0,06, acest lucru înseamnă că în fiecare zi prima se va eroda cu 0,06.
Astfel, după prima zi ea va scădea la 2,94, după a doua zi la 2,88 şi aşa mai departe.
Derivata care măsoară efectul asupra primei unei opţiuni pe care îl are o
modificare a factorului de volatilitate a acţiunii de bază. De exemplu, dacă acţiunea
XYZ are un factor de volatilitate de 30%, iar prima curentă este de 3, atunci un factor
vega de 0,08 va indica faptul că prima va creşte la 3,08 dacă factorul de volatilitate
creşte cu 1%, adică la 31%. Atunci când acţiunea devine mai volatilă, prima va creşte
în aceeaşi proporţie. Factorul vega măsoară sensibilitatea primei la aceste variaţii ale
volatilităţii.
Hedge/Hedging (Hedging)
(1) Angajarea unei poziţii pe piaţa futures opusă faţă de poziţia deţinută pe piaţa
cash (spot) pentru a înlocui temporar o tranzacţie care urmează să fie făcută pe piaţa
cash (spot), ca protecţie împotriva riscului ca preţul să aibă o evoluţie nefavorabilă pe
piaţa cash. De exemplu, vânzarea short de contracte futures în anticiparea vânzării
viitoare a unei mărfi pe piaţa cash (spot), ca protecţie împotriva unei eventuale scăderi
a preţului, sau cumpărarea de contracte futures în anticiparea cumpărării viitoare a unei
mărfi pe piaţa cash (spot), ca protecţie împotriva unei eventuale creşteri a preţului. Prin
148
cumpărarea sau vânzarea short de contracte futures, riscul modificării preţului este
transferat speculatorilor care sunt dispuşi să accepte acest risc în speranţa obţinerii unor
profituri rapide. (2) Se referă la orice combinaţie de poziţii long şi short în instrumente
financiare, contracte futures şi opţiuni, în care o poziţie tinde să reducă riscul celeilalte;
orice strategie folosită pentru a reduce riscul unei investiţii. De exemplu, un manager
de portofoliu se poate proteja parţial împotriva riscului de scădere a pieţei transferând o
parte mai mare a portofoliului în instrumente financiare echivalente cu numerarul. Ca
alternativă, managerul ar putea vinde contracte futures pe indici de acţiuni. Dacă piaţa
scade, câştigurile din contractele futures vândute short vor compensa într-o măsură mai
mare sau mai mică scăderea în valoare a portofoliului.
Obligaţiune (Bond)
Obligaţiune care nu face plăţi periodice ale dobânzii către deţinătorul său. O
obligaţiune cu cupon zero este emisă cu un discont faţă de valoarea sa nominală şi
creşte treptat în valoare pe măsură ce se apropie de scadenţă. Astfel, venitul unui
investitor dintr-o obligaţiune cu cupon zero provine doar din creşterea în valoare. Plata
finală la scadenţă cuprinde atât dobanda acumulată, cât şi principalul.
Opţiune (Option)
150
Opţiune call în afara banilor (Out-of-the-money call)
Opţiune call al cărei preţ de exercitare este mai mare decât valoarea curentă de
piaţă a activului de bază. De exemplu, o opţiune XYZ Dec. 60 Call va fi în afara
banilor dacă acţiunea XYZ se vinde la 55$ per acţiune.
Opţiune call pentru care preţul de piaţă al activului de bază este mai mare decât
preţul de exercitare al contractului.
Opţiune care poate fi exercitată numai la data expirării sale, spre deosebire de
opţiunea americană pe care deţinătorul o poate exercita în orice moment până la data
expirării, inclusiv data expirării.
151
Opţiune put (de vânzare) (Put option)
Opţiune put al cărei preţ de exercitare este mai mic decât valoarea curentă de
piaţă a activului de bază. De exemplu, o opţiune XYZ Dec. 60 Put va fi în afara banilor
dacă acţiunea XYZ se vinde la 65$ per acţiune.
Opţiune put pentru care preţul de piaţă al activului de bază este mai mic decât
preţul de exercitare al contractului.
Portofoliu (Portfolio)
152
Preţul de exercitare (Exercise price)
Preţ unitar la care activul de bază al unei opţiuni poate fi cumpărat (în cazul
unei opţiuni call) sau vândut (în cazul unei opţiuni put) într-o perioadă specificată de
timp. De exemplu, o opţiune call pe acţiunea XYZ dă dreptul deţinătorului ei să
cumpere 100 de acţiuni XYZ în orice moment în urmatoarele trei luni la un preţ de
exercitare de 63$. Preţul de exercitare este stabilit de către bursă în momentul emiterii
opţiunii. In cazul opţiunilor pe contracte futures, bursa fixează un preţ în funcţie de
preţul de închidere al zilei precedente pentru contractele futures de bază. Incepând cu
acel preţ, sunt stabilite preţuri de exercitare mai mari sau mai mici, la intervale fixate de
bursă.
Randament (Yield)
In general, este venitul încasat dintr-o investiţie, exprimat procentual din preţul
curent al acesteia. O anumită investiţie poate avea mai multe randamente datorită
numeroaselor metode folosite la calcularea lui. De exemplu, în cazul obligaţiunilor,
randamentul poate fi: (1) Randamentul curent (current yield). Este rata dobânzii
împarţită la preţul de cumpărare. De exemplu, o obligaţiune care se vinde la 1.000$, cu
o rata a dobânzii de 10%, are un randament curent de 10%. Dacă, aceeaşi obligaţiune s-
ar vinde la 500$, ea ar oferi un randament de 20% unui investitor care ar cumpăra-o la
500$ (pe măsură ce preţul unei obligaţiuni scade, randamentul ei creşte şi viceversa).
(2) Randamentul până la scadenţă/răscumparare/restituire (yield to maturity/call/put) al
unei obligaţiuni care ia în considerare plăţile dobânzii, preţul de cumpărare, valoarea de
răscumparare şi timpul rămas până la scadenţă/răscumpărare/restituire.
153
Rata de schimb valutar (Exchange rate)
Preţul la care o valută poate fi schimbată în altă valută. Ratele de schimb valutar
sunt influenţate de o serie de factori economici, politici, sociali, juridici, unii dintre ei
cu variaţie zilnică.
(1) Unul din riscurile care afectează toţi investitorii atunci când profitul oţtinut
este egal sau mai mic decât rata dobânzii fără risc (adică a bonurilor de trezorerie) sau
rata echivalentă a dobânzii calculată în funcţie de categoria de risc a investiţiilor. Cele
mai afectate de riscul ratei dobânzii sunt instrumentele financiare de credit şi unele
instrumente financiare cu venit fix cum ar fi acţiunile preferenţiale. Preţurile acţiunilor
comune sunt, de asemenea, afectate de modificările ratelor dobânzii, deşi legătura este
mai puţin evidentă în acest caz. Investitorii caută ca, prin strategii cu instrumente
financiare derivate, să atenueze efectele nefavorabile ale riscului ratei dobânzii. (2)
Riscul ca preţul unei obligaţiuni să scadă pe măsură ce ratele dobânzii cresc. Managerii
de portofoliu evaluează riscul ratei dobânzii pentru un fond de investiţii calculând
durata acestuia.
Speculaţie (Speculation)
Asumarea unor riscuri peste medie în speranţa obţinerii unor rentabilităţi peste
medie, în general într-o perioadă de timp relativ scurtă. Speculaţia implică cumpărarea
unui anumit activ financiar pe baza preţului sau potenţial de vânzare şi nu pe baza
valorii sale prezente. Intr-o speculaţie siguranţa principalului şi venitul curent sunt de o
importanţă secundară. Când fac speculaţii, profesioniştii utilizează adesea diverse
tehnici de hedging, cum ar fi tranzacţiile cu opţiuni, vânzarea short, ordinele stop şi
tranzacţiile cu contracte futures, cu scopul de a-şi limita pierderile. Speculaţia implică
un risc care poate fi analizat şi evaluat, la fel ca şi în cazul unei investiţii; ceea ce le
deosebeşte este însă gradul de risc.
Speculator (Stag)
154
Tranzacţie fără risc (Riskless transaction)
Volatilitate (Volatility)
Bibliografie
155