Sunteți pe pagina 1din 156

UNIVERSITATEA “ALEXANDRU IOAN CUZA” IAŞI

Facultatea de Informatică
Departamentul de Invăţământ la Distanţă

PROCESE STOCHASTICE
Anca Vitcu

2005 – 2006
Notă introductivă

Cursul îşi propune să acopere un minim de noţiuni necesare înţelegerii


modelelor matematice dezvoltate pe piaţa de capital. Materialul este structurat în
patru capitole.
Primul capitol are ca obiectiv o trecere în revistă a unor noţiuni
fundamentale din teoria probabilităţilor la care se fac referiri pe parcusul
cursului.
Capitolul doi tratează aspecte legate de mişcarea browniană punând accent
pe caracterul markovian al acesteia.
Capitolul trei este o introducere în calculul stochastic, care ocupă un loc
central atât în formularea matematică a problemelor de pe piaţa obligaţiunilor,
acţiunilor, contractelor futures, opţiunilor cât şi în rezolvarea lor.
In capitolul patru sunt prezentate prin intermediul elementelor de calcul
stochastic o serie de rezultate asociate mişcării browniene.
Noţiunile teoretice abordate sunt însoţite de aplicaţii din domeniul
financiar.
Cursul include şi o secţiune de exerciţii şi proiecte ce urmează a fi
discutate în cadrul orelor de seminar.
CUPRINS

Pag.

Capitolul 1 - Noţiuni preliminare 4


1.1. Spaţiu de selecţie 4
1.2. Noţiunea de σ -algebră 4
1.3. Noţiunea de măsură 6
1.4. Noţiunea de probabilitate 8
1.5. Valoarea medie a unei variabile aleatoare 9
1.6. Integrabilitate uniformă 11
1.7. Independenţă 11
1.8. Probabilităţi echivalente 12
1.9. Variabile aleatoare gaussiene 13
1.10. Tipuri de convergenţă 14
1.11. Proces stochastic 17
1.12. Medie condiţionată 19
1.13. Martingale 26
1.14. Timp de oprire 29
1.15. Proces Markov 36
Capitolul 2 - Mişcarea Browniană 38
2.1. Construcţia unei mişcări browniene 39
2.2. Mers aleatoriu 42
2.3. Proprietăţi ale mişcării browniene 44
2.4. Traiectoriile unei mişcări browniene 49
2.5. Proprietatea de martingal 50
2.6. Timp de lovire 52
2.7. Mişcarea browniană multidimensională 54
2.8. Integrala Weiner 55
2.9. Mişcarea browniană geometrică 59

2
Capitolul 3 – Calcul Stochastic 65
3.1. Integrala stochastică 65
3.2. Ecuaţii diferenţiale stochastice 79
3.3. Exemple de porcese Itô 89
Capitolul 4 – Probleme asociate mişcării browniene 103
4.1. Regula de schimbare a probabilităţii 103
4.2. Timp de lovire 112
4.3.Alte probleme asociate mişcării browniene 124
Exerciţii 137
Dicţionar de termeni financiari 142

3
Capitolul 1

Noţiuni preliminare

Capitolul cuprinde noţiuni fundamentale din teoria probabilităţilor ce urmează a


fi utilizate pe parcursul cursului: probabilitate, proces stochastic, martingal, timp de
oprire.

1.1. Spaţiu de selecţie

Definiţia 1. Fie Ω mulţimea tuturor rezultatelor posibile ale unui experiment


aleator oarecare. Elementele mulţimii Ω le numim evenimente elementare iar mulţimea
Ω o numim spaţiu de evenimente elementare sau spaţiu de selecţie.

1.2. Noţiunea de σ -algebră

Definiţia 2. Fie Ω o mulţime nevidă. Familia A de submulţimi din Ω se


numeşte algebră, dacă sunt verificate următoarele axiome:
1. A ∈ A implică A ∈ A , unde A reprezintă complementara mulţimii A , mai
precis, {ω ∈ Ω , ω ∉ A};
2. A, B ∈ A implică A ∪ B ∈ A

Observaţie. 1. Din definiţia 2 şi din faptul că Ω = A ∪ A rezultă Ω ∈ A . Prin

urmare şi φ ∈ A , deoarece φ = Ω ; 2. Cum A ∩ B = A ∪ B şi A, B ∈ A rezultă


A∩ B∈ A .
Definiţia 3. Familia F de submulţimi din Ω se numeşte σ -algebră sau câmp
sau corp borelian de evenimente dacă verifică următoarele axiome:
1. φ ∈ F
2. Ω ∈ F
3. Α ∈ F implică Α ∈ F
∞ ∞
4. pentru orice Α 1 , Α 2 , Α 3 ,.... ∈ F rezultă UA ∈ F i şi IA ∈ F.i
i =1 i =1

4
Observaţie. F reprezintă mulţimea evenimentelor asociate experimentului
aleator sau altfel spus, F conţine toate submulţimile lui Ω .
Exemple de σ -algebre. Fie Ω un spaţiu arbitrar de evenimente elementare.
Cea mai “săracă” σ -algebră a spaţiului Ω este submulţimea {φ , Ω} iar cea mai
“bogată” σ -algebră conţine toate submulţimile spaţiului Ω .
Considerăm experimentul clasic ce constă în aruncarea de două ori a unei
monede perfecte. In acest caz, spaţiul de evenimente elementare este mulţimea
Ω = {HH , HT , TH , TT } şi folosind definiţia este uşor de verificat că mulţimea F
formată din toate submulţimile spaţiului Ω şi mulţimea G = {φ , Ω, {HH , HT }, {TH , TT }}
sunt σ -algebre.
σ -algebra poate fi interpretată ca informaţia pe care o avem la un anumit
moment, ne spune ce evenimente cunoaştem. In exemplul nostru F este σ -algebra în
care ştim toate rezultatele obţinute în urma aruncării monedei, în timp ce G este
σ -algebra în care ştim numai rezultatul primei aruncări. Presupunem că moneda a fost
aruncată de două ori dar nu cunoaştem rezultatul aruncării, ştim numai dacă rezultatul se
află sau nu în G . De exemplu, se spune că rezultatul aruncării nu este φ dar este în Ω .

Mai mult se poate spune că rezultatul aruncării nu se află în {HH , HT } dar se află în
{TH , TT }, cu alte cuvinte ştim doar că rezultatul primei aruncări este T dar nu ştim

nimic despre rezultatul celei de-a doua aruncări. Se spune că σ -algebra G conţine
informaţia până la momentul unu. Analog, putem spune că F conţine informaţia
completă. σ -algebra trivială {φ , Ω} nu conţine informaţii, faptul că rezultatul aruncării
este φ sau se află în Ω nu ne spune nimic despre eveniment.

Dacă A ⊆ Ω atunci familia F A = {A, A , φ , Ω} este σ -algebra (algebra) generată


de mulţimea A . Această familie reprezintă un caz particular al familiilor generate de
partiţii, altfel spus, dacă A = {A1 , A2 ,..., An ,...} este o partiţie numărabilă a lui Ω adică

A1 , A2 ,...., An ,... sunt submulţimi nevide ale lui Ω cu proprietăţile:

Ω = A1 ∪ A2 ∪ ... ∪ Dn ∪ ... , Di ∩ D j = φ , i ≠ j , i, j ≥ 1 ,

atunci familia formată din mulţimile reprezentate ca reuniuni finite numărabile de


elemente ale partiţiei şi mulţimea vidă este o σ -algebră.
Propoziţia 1. Orice intersecţie de σ -algebre este o σ -algebră.

5
Observaţie. Afirmaţia nu este adevărată pentru reuniunea de σ -algebre. Mai
precis, o reuniune de σ -algebre nu este o întotdeauna o σ -algebră.
Definiţia 4. Fie F şi G două σ -algebre astfel încât G ⊂ F ( A ∈ G implică
A ∈ F ), atunci G este o sub- σ -algebră a σ -algebrei F .
Definiţia 5. σ -algebra generată de familia de mulţimi F este intersecţia
tuturor σ -algebrelor ce conţin F .
Definiţia 6. Dacă F1 şi F2 sunt două σ -algebre, notăm prin F1 ∨ F2 ,
σ -algebra generată de familia F1 ∪ F2 şi reprezintă intersecţia tuturor σ -algebrelor
ce conţin σ - algebrele F1 şi F2 .
Propoziţia 2. Fie F o familie de submulţimi ale lui Ω . Atunci există o
σ -algebră minimală, sau altfel spus σ -algebra generată de familia de mulţimi F ,
notată σ (F ) , ce conţine toate mulţimile din care este formată familia F .

1.3. Noţiunea de măsură

Definiţia 7. Spaţiul Ω înzestrat cu o σ -algebră F de submulţimi ale lui Ω se

numeşte spaţiu măsurabil sau câmp (borelian) de evenimente şi se notează prin (Ω,F ) .
Definiţia 8. Fie (Ω,F ) şi (E , E ) două spaţii măsurabile. O funcţie f definită

pe Ω cu valori în E este (F, E ) - măsurabilă, sau simplu măsurabilă, dacă f −1


( A) ∈ F
pentru orice A din E, , unde

( A) = {ω ∈ Ω f (ω ) ∈ A}.
def
−1
f

Definiţia 9. Fie (Ω,F ) un spaţiu măsurabil. Se numeşte variabilă aleatoare


reală o funcţie măsurabilă X definită pe Ω cu valori în R. Altfel spus o funcţie X
pentru care X −1 ( A) ∈ F oricare ar fi A din B , unde B reprezintă σ - algebra
R R
mulţimilor boreliene din R . Faptul că X este măsurabilă poate fi exprimat şi prin
{ω , X (ω ) ≥ a}∈ F , pentru orice a real.

Observaţie. Fie G = {φ , Ω, {HH , HT }, {TH , TT }} . Presupunem că pentru fiecare


eveniment din G ştim dacă acesta are loc sau nu. Atunci dacă variabila aleatoare X
este G -măsurabilă putem calcula valoarea lui X .

6
Revenind la exemplul aruncării monedei de două ori considerăm X numărul de
apariţii ale evenimentului {H } în cele două aruncări. In aceste condiţii X este
F -măsurabilă dar nu este G -măsurabilă. Fie Aa = {ω ∈ Ω , X (ω ) ≥ a} . Atunci rezultatul
experimentului este:

Ω , dacă a≤0
{HH , HT , TH } , dacă 0 < a ≤ 1


{HH } , dacă 1 < a ≤ 2
φ , dacă 2<a

Dacă a = 2 se observă că evenimentul asociat este {HH }. Cum F conţine toate


submulţimile lui Ω rezultă că evenimentul {HH }∈ F . Se observă că pentru orice
valoare a lui a , evenimentul Aa aparţine lui F , deci X este măsurabilă în raport cu

σ -algebra F . Dar, {HH }∉ G , rezultă că există cel puţin o valoare a lui a pentru care
evenimentul Aa nu aparţine lui G şi prin urmare X nu este măsurabilă în raport cu

σ -algebra G .
Propoziţia 3. Dacă X este o variabilă aleatoare reală G -măsurabilă şi f este

o funcţie boreliană atunci f ( X ) este G -măsurabilă.

Definiţia 10. σ -algebra generată de o variabilă aleatoare X definită pe


(Ω,F ) , notată prin σ ( X ) , este mulţimea părţilor lui Ω , de forma X −1 ( A) , unde
A ∈ B R . σ ( X ) este inclusă în F .
Observaţie. O variabilă aleatoare reală X este F măsurabilă dacă σ ( X ) ⊂ F .
Definiţia 11. σ -algebra generată de o familie de variabile aleatoare
( X t , t ∈ [0, T ]) , notată prin σ ( X t , t ≤ T ) , este intersecţia σ -algebrelor ce conţin familia
{X ( A)} pentru orice t din [0, T ] şi A ∈ B
t
−1
R .

7
1.4. Noţiunea de probabilitate

Definiţia 12. O probabilitate pe (Ω,F ) este o aplicaţie P definită pe


σ -algebra F de submulţimi din Ω cu valori în intervalul [0,1] , care verifică
următoarele axiome:
1. P(Ω ) = 1
2. P(φ ) = 0

∞  ∞
3. P U An  = ∑ P( An ) , pentru A1 , A2 ,..... din F , disjuncte două câte două.
 n =1  n =1

Notaţie: Fie A din F , atunci putem scrie P( A) = ∫ dP = ∫ 1 A dP , unde 1 A este o


A Ω

funcţie definită pe Ω prin 1 A (ω ) = 1 dacă ω ∈ A şi 1 A (ω ) = 0 dacă ω ∉ A .


Din definiţia probabilităţii putem obţine o serie de proprietăţi, cum ar fi:
1. P( A) + P (A ) = 1 , pentru orice A din F ( A reprezintă complementara mulţimii
A );
2. dacă A⊂ B atunci P ( A ) ≤ P (B ) şi P ( B ) = P ( A) + P ( B − A) , unde

B− A= B∩ A ;
3. dacă An este un şir crescător (respectiv descrescător) de mulţimi din F şi

A = U An , (respectiv A = I An ) atunci A aparţine σ -algebrei F şi


n n

P( A) = lim P( An ) .

4. teorema clasei monotone: dacă P şi Q sunt două probabilităţi pe spaţiul


probabilistic (Ω,F, P ) astfel încât P ( A) = Q ( A) pentru orice mulţime A dintr-o
familie C de mulţimi închise la intersecţii finite (dacă C1 , C 2 ∈ C atunci
C1 ∩ C 2 ∈ C ) şi F este σ -algebra generată de C , atunci P = Q în raport cu
F.
Definiţia 13. Spunem despre o mulţime A că este neglijabilă dacă P ( A) = 0 .
Definiţia 14. Spunem că o proprietate este adevărată aproape sigur dacă este
adevărată cu excepţia unei mulţimi neglijabile.
Definiţia 15. Un spaţiu (Ω,F, P ) este complet dacă conţine toate mulţimile A
astfel încât inf {P(B ) : B ∈ F , A ⊂ B} = 0 .

8
Definiţia 16. Fie X o variabilă aleatoare definită pe spaţiul probabilistic
(Ω,F , P ) . Legea de probabilitate a variabilei aleatoare X este probabilitatea PX
definită pe (R, B R ) prin PX ( A) = P{ω ; X (ω ) ∈ A} = P( X ∈ A) , pentru orice A din B R .
Definiţia 17. Funcţia de repartiţie a variabilei aleatoare X este o funcţie
crescătoare definită pe R prin F ( x ) = P( X ≤ x ) .
Definiţia 18. Densitatea unei variabile aleatoare X , notată f ( x ) , este derivata
funcţiei de repartiţie în condiţiile în care această derivată există. Putem scrie

P( X ∈ A) = ∫ f ( x )dx .
A

Definiţia 19. Dacă două variabile aleatoare au aceeaşi lege de probabilitate


sau aceeaşi funcţie de repartiţie sau aceeaşi densitate spunem că sunt egale în lege.
Altfel spus, dacă X şi Y sunt două variabile aleatoare pentru care are loc relaţia
P( X ≤ a ) = P(Y ≤ a ) , pentru orice a din R atunci X şi Y au aceeaţi lege de
în lege
probabilitate. Notăm X = Y .

1.5. Valoarea medie a unei variabile aleatoare

Definiţia 20. Valoarea medie a unei variabile aleatoare X , notată E ( X ) , este

cantitatea ∫ XdP = ∫ xdP (x ) , în condiţiile în care acestă integrală există.


Ω R
X

Observaţie. Există variabile aleatoare pentru care valoarea medie nu poate fi


calculată. Altfel spus, integrala ∫ XdP

nu are sens.

Definiţia 21. Spunem că variabila aleatoare X este integrabilă dacă X are

media finită ( E X < ∞ ).

Notaţie: Notăm cu L1 (Ω ) mulţimea variabilelor aleatoare integrabile.


Definiţia 22. Analog, media unei funcţii boreliane Φ , cu Φ ( X ) integrabilă,

este cantitatea E (Φ ( X )) = ∫ Φ ( X )dP = ∫ Φ (x )dPX ( x ) .


Ω R

Dacă variabila aleatoare X admite o densitate f atunci au loc relaţiile:

E ( X ) = ∫ xf ( x )dx şi E (Φ ( X )) = ∫ Φ ( x ) f ( x )dx .
R R

9
Cunoaştem legea de probabilitate a variabilei aleatoare X dacă pentru orice
funcţie boreliană mărginită Φ cunoaştem valoarea medie E (Φ ( X )) . Dacă X şi Y sunt
două variabile aleatoare şi Φ este o funcţie boreliană mărginită atunci egalitatea
E (Φ( X )) = E (Φ (Y )) implică egalitatea în lege a variabilelor aleatoare X şi Y .
Observaţie. Egalitatea în lege nu implică egalitatea aproape sigură. De exemplu,
dacă X este o variabilă gaussiană a cărei valoare medie este 0, atunci are loc egalitatea
în lege
X = − X dar nu şi egalitatea aproape sigură. Pentru a avea egalitate în lege este
suficient ca egalitatea E (Φ ( X )) = E (Φ (Y )) să fie verificată pentru o clasă suficient de

mare de funcţii, cum ar fi funcţiile de forma e λx , unde λ ∈ R .


Definiţia 23. Funcţia caracteristică a unei variabile aleatoare reale X este
funcţia ψ (t ) = E (e itX ) = ∫ e itx PX (dx ) (transformata Fourier a legii de probabilitate a
R

lui X ) .
Dacă variabila aleatoare X admite o densitate f (x ) atunci funcţia sa caracteristică este

dată de expresia ∫ e itx f ( x )dx . Funcţia caracteristică descrie legea de probabilitate a unei
R

variabilei aleatoare . Dacă transformata Fourier ψ aparţine spaţiului L1 (dx ) atunci



1
densitatea asociată în mod unic este dată de formula f ( x ) = ∫e
− itx
φ (t ) dt .
2π −∞

Legea unei variabile aleatoare poate fi descrisă şi de transformata Laplace

( )
def
Ψ (λ ) = E e λX . Pentru a cunoaşte legea de probabilitate a unei perechi de variabile
(X ,Y ) este suficient să cunoaştem valoarea medie E (exp(λX + µY )) pentru orice
pereche (λ , µ ) .
Exemplu. X este o variabilă gaussiană a cărei lege de probabilitate este
N (m, σ 2 ) dacă şi numai dacă transformata Laplace este dată de expresia

 λ 2σ 2 
( )
E e λX = exp λm +
2
 .
 
Proprietăţi ale mediei unei variabile aleatoare:
1. E (aX + bY ) = aE ( X ) + bE (Y ) pentru oricare două constante reale a şi b ;

10
2. Dacă X şi Y sunt două variabile aleatoare astfel încât X ≤ Y aproape sigur
atunci E ( X ) ≤ E (Y ) ;
3. Inegalitatea lui Jensen: dacă X este o variabilă aleatoare şi dacă Φ este o
funcţie convexă astfel încât Φ( X ) este integrabilă atunci E (Φ( X )) ≥ Φ (E ( X )) .

1.6. Integrabilitate uniformă

Definiţia 24. O familie de variabile aleatoare (X i , i ∈ I ) este uniform

integrabilă dacă sup i ∫X


X i ≥a
i dP → 0 pentru a tinzând la ∞ .

Dacă există o variabilă aleatoare Y din L1 (P ) astfel încât X i ≤ Y , pentru orice

i atunci familia de variabile aleatoare ( X i , i ∈ I ) este uniform integrabilă.

1.7. Independenţă

Definiţia 25. Două sub- σ -algebre F1 şi F2 sunt independente dacă are loc
egalitatea P( A ∩ B ) = P( A)P(B ) , pentru orice A şi B din F1 şi respectiv F2 .
Pentru ca două σ -algebre F1 şi F2 să fie independente este necesar şi suficient să aibă
loc relaţia P( A ∩ B ) = P( A)P(B ) pentru orice A din C 1 şi B din C 2 , unde C i este o

familie de mulţimi închise la intersecţie cu σ (C i ) = Fi .

Definiţia 26. O variabilă aleatoare X şi o sub- σ -algebră G sunt independente


dacă σ ( X ) , σ -algebra generată de X şi G sunt independente.
Propoziţia 4. O variabilă aleatoare X şi o sub- σ -algebră G sunt
independente dacă şi numai dacă are loc egalitatea P{A ∩ ( X ≤ x )} = P( A)P( X ≤ x )
pentru orice x din R şi orice A din G .
Observaţie. Două variabile aleatoare X şi Y sunt independente dacă
σ -algebrele generate σ ( X ) şi respectiv σ (Y ) sunt independente.
Exemplu. Considerăm experimentul aruncării de două ori a unei monede
perfecte şi definim σ -algebrele: F1 = {φ , Ω, {HH , HT }, {TH , TT }} şi
1
F2 = {φ , Ω, {HH , TH }, {HT , TT }}. Deoarece P(HH ) = P(HT ) = P(TH ) = P(TT ) =
4
rezultă F1 şi F2 sunt independente.

11
Propoziţia 5. Două variabile aleatoare X şi Y sunt independente dacă şi numai
dacă are loc egalitatea P{( X ≤ x ) ∩ (Y ≤ y )} = P( X ≤ x )P(Y ≤ y ) pentru orice x şi y
din R .
Proprietăţi:
1. dacă variabilele aleatoare X şi Y sunt independente atunci E ( XY ) = E ( X )E (Y ) .
Reciproca nu este adevărată;
2. dacă variabilele aleatoare X şi Y sunt independente atunci f ( X ) şi g (Y ) sunt
independente;
3. dacă variabile aleatoare X şi Y sunt independente atunci media E (ϕ ( X , Y )) este
dată de relaţia: E (ϕ ( X , Y )) = E ( f ( X )) = E (g (Y )) , unde f ( x ) = E (ϕ (x, Y )) şi
g ( y ) = E (ϕ ( X , y )) .

Propoziţia 6. Două variabile aleatoare X şi Y sunt independente dacă şi numai


dacă este verificată egalitatea E ( f ( X )g (Y )) = E ( f ( X ))E ( g (Y )) pentru orice funcţii f
şi g boreliene mărginite.
Definiţia 27. O familie de sub- σ -algebre (Fi , i ∈ N ) este independentă dacă

 
P I Ai  = ∏ P( Ai ) , pentru orice Ai din Fi şi pentru orice n .
 1≤i ≤ n  1≤i ≤ n

1.8. Probabilităţi echivalente

Definiţia 28. Două probabilităţi P şi Q definite pe acelaşi spaţiu (Ω,F ) sunt


echivalente dacă are loc relaţia: P ( A) = 0 ⇔ Q( A) = 0 .
Dacă P şi Q sunt două probabilităţi echivalente atunci o proprietate adevărată
P -aproape sigur este adevărată Q -aproape sigur.
Propoziţia 7. Dacă P şi Q sunt două probabilităţi echivalente există o variabilă
aleatoare Y , strict pozitivă, F -măsurabilă, cu E P (Y ) = 1 numită densitate Radon-

Nikodym, astfel încât dQ = YdP , sau altfel scris Q( A) = ∫ YdP . Reciproc, dacă Y este o
A

variabilă aleatoare strict pozitivă, F -măsurabilă, pentru care E P (Y ) = 1 , atunci relaţia


EQ (Z ) = E P (ZY ) defineşte o probabilitate Q , echivalentă cu probabilitatea P . Relaţia

EQ (Z ) = E P (ZY ) se poate obţine în urma calculului următor:

12
dQ
EQ (Z ) = ∫ ZdQ = ∫ Z dP = ∫ ZYdP = E P (ZY ) .
dP

Exemplu. 1. Fie P o probabilitate pe (Ω,F ) şi fie X o variabilă aleatoare


repartizată Bernoulli definită prin: P( X = 1) = p , P( X = 0) = 1 − p . Fie
Y = λX + µ (1 − X ) o variabilă aleatoare a cărei valoare medie este 1 pentru
λp + µ (1 − p ) = 1 , λ , µ > 0 . Fie dQ = YdP atunci Q( X ) = λp . In raport cu
probabilitatea Q , X este o variabilă aleatoare cu o repartiţie Bernoulli de parametru
λp .
2. Fie X o variabilă aleatoare repartizată normal N (m, σ 2 ) în raport cu P şi fie

 1 
Y o variabilă aleatoare definită prin expresia Y = exph( X − m ) − h 2σ 2  . Dacă
 2 
dQ = YdP atunci în raport cu Q , X este o variabilă aleatoare repartizată normal după

legea N (m + hσ 2 , σ 2 ) .
Demonstraţie. Este suficient să calculăm EQ {exp(λX )} = E P {Y exp(λX )} şi să

 λ 2σ 2 
verificăm relaţia EQ (exp λX ) = exp λ (m + hσ 2 ) +  .
 2 

1.9. Variabile aleatoare gaussiene

Definiţia 29. O variabilă aleatoare X este gaussiană de lege N m, σ 2 dacă ( )


densitatea sa este dată de expresia:

f (x ) =
1
exp−
( x − m )2 .
σ 2π 2σ 2

Definiţia 30. Un vector aleator X = ( X 1 , X 2 ,...., X n ) se numeşte gaussian dacă


T

n
orice combinaţie liniară ∑a X
i =1
i i este o variabilă gaussiană cu valori reale.

Observaţie. Legea de probabilitate a unui vector gaussian X este descrisă de valoarea


medie şi de matricea de covarianţă [ ]
Γ = σ i, j i =1, n ; j =1, n
, unde

σ i , j = E (X i X j ) − E ( X i )E (X j ) . Legea de probabilitate a vectorului aleator X admite o


densitate dacă matricea de covarianţă Γ este inversabilă.

13
Propoziţia 8. Dacă două variabile aleatoare X şi Y formează un vector
gaussian de covarianţă 0 atunci cele două variabile aleatoare sunt independente.
Propoziţia 9. Fie ( X , Y ) un vector gaussian. Există atunci o constantă α astfel
încât variabilele aleatoare X şi X − αY sunt independente.
Propoziţia 10. Dacă X şi Y sunt două variabilele aleatoare gaussiene
independente, atunci aX + bY , unde a şi b sunt constante, este o variabilă gaussiană.
In aceste condiţii vectorul ( X , Y ) este gaussian. Afirmaţia are loc numai în cazul în
care cele două variabile sunt independente.
Propoziţia 11. Dacă X este o variabilă gaussiană a cărei lege de probabilitate
 λ 2σ 2 
este N (m, σ 2 ) , atunci pentru orice λ real are loc relaţia E (e λX ) = exp λm +  .
 2 
Reciproca este adevărată. Adică, dacă pentru orice λ real are loc egalitatea
 λ 2σ 2 
( )
E e λX = exp λm +
2
( )
 , atunci legea variabilei aleatoare X este N m, σ 2 .
 

1.10. Tipuri de convergenţă

Fie (Ω,F , P ) un spaţiu probabilistic dat.

Convergenţa aproape sigură

Definiţia 31. Un şir de variabile aleatoare X n converge aproape sigur la X ,


as
X n → X , dacă pentru aproape toţi ω are loc relaţia X n (ω ) → X (ω ) . Altfel spus,
n →∞

({ })
X n converge aproape sigur la X dacă P ω : lim X n (ω ) = X (ω ) = 1 .
n

Observaţie. 1. Dacă pentru orice ω , q(ω ) este o proprietate a lui ω atunci q are loc
aproape sigur dacă P(q ) = 1 . 2. Acest tip de convergenţă depinde de alegerea
probabilităţii P . Dacă probabilitatea Q este echivalentă cu probabilitatea P şi dacă
P as Q as
X n → X atunci X n → X .

Teorema convergenţei monotone: Dacă X n este un şir monoton cresător


as
( X n ≤ X n+1 ) sau descrescător ( X n ≥ X n +1 ) de variabile aleatoare şi dacă X n → X

atunci are loc relaţia E ( X ) = lim E ( X n ) .

14
Teorema convergenţei dominante (Lebesgue): Dacă X n este un şir de

variabile aleatoare convergente aproape sigur la X şi dacă există o variabilă


aleatoare Y integrabilă astfel încât X n ≤ Y atunci E ( X n ) converge la E ( X ) .

Legea numerelor mari. Dacă ( X i , i ≥ 1) este un şir de variabile aleatoare

1 n
independente două câte două, identic repartizate cu media finită, atunci ∑ Xi
n i =1
converge aproape sigur la E ( X 1 ) .

Convergenţa în L2 (Ω )

( )
def
= ∫X dP = E X 2 . Spunem că variabila aleatoare
2
Definiţia 32. Fie X 2

X este din spaţiului L2 (Ω ) dacă X 2


<∞.

Definiţia 33. Fie X n şi X din L2 (Ω ) . Şirul de variabile aleatoare (X n )


(
converge în L2 (Ω ) la X dacă X n − X 2
)
2
= E ( X n − X ) tinde la 0 pentru n tinzând
2

la ∞ .
Observaţie. Convergenţa în L2 depinde de alegerea probabilităţii P .
Propoziţia 12. Dacă ( X n ) converge în L2 (Ω ) la X atunci E X n2 converge la ( )
E (X 2 ) . Reciproca nu este adevărată.

Observaţie. 1. Spaţiul L2 (Ω ) este un spaţiu Hilbert înzestrat cu produsul scalar

X , Y = ∫ XYdP . In particular L2 (Ω ) este un spaţiu complet. 2. Dacă un şir converge în


L2 există un subşir al său convergent aproape sigur.


Legea numerelor mari poate fi rescrisă astfel: dacă ( X i , i ≥ 1) este un şir de

variabile aleatoare independente, identic repartizate, de dispersie finită atunci


1 n
∑ X i converge în L2 la E ( X 1 ) .
n i =1
Propoziţia 13. Dacă un şir de variabile aleatoare gaussiene este convergent în
L2 atunci limita sa este o variabilă gaussiană.

15
Pentru p > 1, notăm cu X p
cantitatea pozitivă definită prin:

(X ) p
p
= ∫ X dP = E X
p
( ).
p
Spaţiul L p (Ω ) poate fi înzestrat cu o normă X p
astfel

încât X p
< ∞ . Un şir de variabile aleatoare X n din L p (Ω ) este convergent dacă

există variabila aleatoare X astfel încât E ( X n − X ) → 0 .


p

Observaţie. Convergenţa în L p pentru p > 1 implică convergenţa în Lq pentru orice q ,


pentru care 1 < q < p .

Convergenţa în probabilitate

Definiţia 34. Un şir de variabile aleatoare X n converge în probabilitate la X ,

X n → X , dacă pentru orice ε > 0 , P ( X n − X ≥ ε ) → 0 pentru n tinzând la ∞ .


P

Proprietăţi:
1. Convergenţa aproape sigură implică convergenţa în probabilitate.
2. Convergenţa în probabilitate implică convergenţa apropape sigură a unui subşir
al său.
3. Convergenţa în L2 implică convergenţa în probabilitate.

Convergenţa în lege

Definiţia 35. Un şir de variabile aleatoare X n converge în lege la variabila


L
aleatoare X , X n → X , dacă pentru orice funcţie Φ continuă şi mărginită,

E (Φ ( X n )) → E (Φ ( X )) pentru n tinzând la ∞ .

Fie Ψn şi Ψ funcţiile caracteristice ale variabilelor aleatoare X n şi respectiv X

atunci, pentru orice t convergenţa în lege este definită şi de convergenţa Ψn (t ) → Ψ (t ) .


Dacă X este o variabilă aleatoare cu o funcţie de repartiţie F continuă şi dacă
X n este un şir de variabile aleatoare cu funcţiile de repartiţie Fn (x ) convergente la

F ( x ) pentru orice x , atunci X n converge în lege la X şi reciproc.

Proprietate: Convergenţa în probabilitate implică convergenţa în lege.


Teorema limită centrală. Dacă ( X i , i ≥ 0 ) este un şir de variabile aleatoare

identic repartizate, independente, cu varianţa finită σ 2 atunci are loc relaţia:

16
n

∑X i − nE ( X 1 ) L
i =1
→ N (0,1)
σ n

1. 11. Proces stochastic

Fie Ft o σ -algebră, sau altfel spus informaţia la momentul t .

Definiţia 36. Se numeşte filtrare o familie crescătoare de sub- σ -algebre ale lui
F , adică Ft ⊂ Fs pentru orice t ≤ s .
Definiţia 37. Un proces sochastic sau proces aleatoriu este o familie de
variabile aleatoare ( X t ; t ∈ [0, ∞ )) definite pe acelaşi spaţiu de probabilitate.
Deci, un proces stochastic este format dintr-un şir (de obicei infinit) de variabile
aleatoare X 1 , X 2 , X 3 ,..... dependente de parametrul timp.
In general procesele stochastice pot fi împărţite în patru categorii distincte în
funcţie de tipul variabilei aleatoare Xt , adică de starea procesului (dacă este discretă
sau continuă) şi a parametrului timp (dacă este discret sau continuu):

1. Xt discret, t discret

• Considerăm experimentul aruncării unui zar şi notăm cu


X 1 , X 2 , X 3 ,..... rezultatele obţinute în urma fiecărei aruncări. Experimentul este

un proces Bernoulli al cărui spaţiu de evenimente este format din stările 1, 2, 3,


4, 5 şi 6. In acest caz variabilele aleatoare sunt independente.
• Considerăm acelaşi proces Bernoulli unde notăm cu Y1 , Y2 , Y3 ,.Y4 ...... suma

stărilor obţinute în urma aruncării zarului, astfel: Y1 = X 1 , Y2 = X 1 + X 2 ,


Y3 = X 1 + X 2 + X 3 ,.....Spaţiul stare este format din toate numerele întregi
pozitive. Se observă că variabilele aleatoare Y sunt corelate.
• Lanţurile Markov

2. Xt discret, t continuu

• Procesul Poisson – numărul persoanelor care intră într-o bancă din momentul
deschiderii până la momentul t. X(t) are o repartiţie Poisson cu o medie δ ⋅ t ,
unde δ reprezintă rata sosirilor. X nu sunt independnente iar spaţiul de selecţie
este format din toate numerele întregi nenegative.

17
• Procesul firelor de aşteptare (queuing) – persoanele nu numai intră în bancă dar
şi ies – este necesară cunoaşterea distribuţiei timpului pe care o persoană îl
petrece în bancă.

3. Xt continuă, t continuu

• Mişcarea Browniană (proces de difuzie)

4. Xt continuă, t discret – serii cronologice

• Fluctuaţiile lunare ale ratei inflaţiei


• Fluctuaţiile zilnice ale bursei
• Fluctuaţiile anuale ale PIB
Se pot studia tendinţele (sistematice sau sezoniere) şi se pot construi modele ale căror
parametri urmează a fi estimaţi.
Definiţia 38. Un proces stochastic X = ( X t , t ≥ 0 ) este adaptat în raport cu o

filtrare Ft dacă pentru orice t , variabila aleatoare X t este Ft -măsurabilă .

Definiţia 39. Spunem că un proces stochastic are traiectorii continui sau este
continuu dacă aplicaţiile t → X t (ω ) sunt continue pentru aproape toţi ω .

Definiţia 40. Un proces stochastic este numit càdlàg dacă traiectoriile sale sunt
continui la dreapta şi au limită la stânga. Un proces stochastic este numit càglàd dacă
traiectoriile sale sunt continui la stânga şi au limită la dreapta.
Definiţia 41. Dat un proces stochastic X , îi putem asocia filtrarea naturală
Ft X , adică familia crescătoare de σ -algebre Ft X = σ {X s , s ≤ t} .
Definiţia 42. Un proces stochastic A = ( At , t ≥ 0 ) este crescător dacă A0 = 0 şi

aplicaţia t → At este crescătoare, adică At (ω ) ≤ As (ω ) aproape sigur, pentru orice

t ≤ s.
Definiţia 43. Spunem că un proces stochastic V = (Vt , t ≥ 0 ) este cu variaţie

mărginită pe [0, t ] dacă sup ∑ Vti +1 − Vti ≤ K ,unde sup este considerat pentru t i ,
ti i

0 ≤ t 0 ≤ ... ≤ t i ≤ t i +1 ≤ t .

Definiţia 44. Spunem că un proces stochastic V = (Vt , t ≥ 0 ) este cu variaţie

18
finită pe [0, t ] dacă sup ∑ Vti +1 − Vti < ∞ ,unde sup este considerat pentru t i ,
ti i

0 ≤ t 0 ≤ ... ≤ t i ≤ t i +1 ≤ t .

Definiţia 45. Un proces stochastic V = (Vt , t ≥ 0 ) este cu variaţie finită dacă

este cu variaţie finită pe intervalul [0, t ] , pentru orice t .


Definiţia 46. Un proces stochastic X este gaussian dacă orice combinaţie
liniară finită de ( X t , t ≥ 0 ) este o variabilă aleatoare gausiană, altfel spus dacă pentru
n
orice n , orice t i cu 1 ≤ i ≤ n şi orice ai , ∑a X
i =1
i ti este o variabilă aleatoare reală

gaussiană.
Un proces gaussian este descris de medie şi de matricea de covarianţă.
Un spaţiu gaussian este un sub-spaţiu vectorial închis din L2 (Ω ) de variabile
aleatoare reale gaussiene centrate (cu media 0). Spaţiul gaussian generat de un proces
stochastic este sub-spaţiul lui L2 (Ω ) generat de variabilele aleatoare reale centrate
( X t − E ( X t ) , t ≥ 0) .

1.12. Medie condiţionată

Fie (Ω,F , P ) un spaţiu probabilistic fixat.

Cazul discret

Fie A şi B două evenimente din Ω . Probabilitatea ca un eveniment A să aibă


P( A ∩ B )
loc ştiind că are loc evenimentul B este dată de formula P (A B ) = , pentru
P (B )
orice eveniment B astfel încât P(B ) ≠ 0

Proprietate. P (. B ) este o probabilitate pe Ω .

Considerăm cazul unei variabile aleatoare X cu valori în ( x1 , x 2 ,...., x n ) . Fie B

fixat şi Q( A) = P( A B ) . EQ , media variabilei X în raport cu Q este dată de formula:

P (X = x j ∩ B )
EQ ( X ) = ∑ x j Q (X = x j ) = ∑ x j .
j j P (B )

19
Putem scrie P (X = x j ∩ B ) = ∫ 1 X = x j dP unde 1 X = x j ia valoarea 1 dacă ω ∈ (X = x j ) şi 0
B

în rest. Având în vedere relaţia ∑x 1j


j X =x j = X obţinem:

P (X = x j ∩ B ) 1
∑x
j
j
P (B )
=
P(B ) ∫B
XdP . Mai precis, relaţia poate fi rescrisă astfel:

∫ E ( X )dP = E ( X )P(B ) = ∫ XdP .


B
Q Q
B

Notaţie. E (X B ) = EQ ( X ) .

Dacă B este σ - algebra generată de B şi E ( X B ) este variabila aleatoare definită prin

( )
E (X B ) = E (X B ) ⋅ 1B + E X B c ⋅ 1B c , atunci are loc relaţia ∫ E (X B )dP = ∫ XdP , pentru
D D

orice D din B .
Caz particular: Fie X şi Y variabile aleatoare ale căror valori sunt
(x1 , x2 ,..., xn ) şi respectiv ( y1 , y 2 ,..., y d ) astfel încât oricare ar fi i , P(Y = y i ) ≠ 0 .

Atunci putem defini P (X = x j Y = y i ) = µ (x j ; y i ) . Se observă că pentru orice y i ,

µ (. ; y i ) defineşte o probabilitate pe (x1 , x2 ,..., xn ) . Putem defini media variabilei


aleatoare X în raport cu această lege prin:

E (X Y = y i ) = ∑ x j P (X = x j Y = y i ) = ∑ x j µ (x j ; y i ) =
1
P (Y = y i ) Y =∫yi
XdP .
j j

Definim funcţia Ψ astfel încât Ψ ( y i ) = E ( X Y = y i ) . Este uşor de verificat relaţia:

∑ P(Y = y )E (X Y = y ) = ∑ P(Y = y )Ψ ( y ) = E (Ψ(Y )) = E (E (X Y )) = E ( X ) .


i
i i
i
i i

Notăm prin Ψ (Y ) = E ( X Y ) media condiţionată a variabilei aleatoare X ştiind

variabila aleatoare Y . Această funcţie are următoarele caracteristici:


1. Ψ (Y ) este Y - măsurabilă
2. E (Φ (Y )X ) = E (Φ (Y )Ψ (Y )) ,pentru orice funcţie Φ .

Fie acum, X o variabilă aleatoare reală, integrabilă definită pe spaţiul (Ω,F , P )


şi G o sub- σ -algebră a lui F .

20
Definiţia 47. Media condiţionată E (X G ) este unica variabilă aleatoare,

G -măsurabilă pentru care are loc egalitatea

∫ E (X G )dP = ∫ XdP
A A
, oricare ar fi A din G .

Definiţia 48. Media condiţionată E (X G ) este unica variabilă aleatoare

G -măsurabilă care verifică egalitatea E [E ( X G )Y ] = E ( XY ) , pentru orice variabilă

aleatoare Y , mărginită, G -măsurabilă.


Definiţia 49. Media condiţionată a unei variabile aleatoare integrabile X în
raport cu variabila aleatoare Y , notată E (X Y ) este o funcţie de Y : E (X Y ) = ψ (Y ) ,

unde ψ : R → R este o funcţie boreliană.


Proprietăţi.
1. Media condiţionată E (X Y ) este o variabilă σ (Y ) -măsurabilă

2. ∫ E (X Y )dP = ∫ XdP , oricare ar fi


A A
A din σ (Y ) .

Proprietatea 2 este echivalentă cu egalitatea E (E ( X Y )φ (Y )) = E ( Xφ (Y )) , pentru orice

funcţie boreliană mărginită φ , sau ∫ E (X Y )dP = ∫ XdP pentru orice


Y ∈B Y ∈B
B din B .

Definiţia 50. Fie un şir finit sau numărabil de mulţimi B1 , B2 , B3 ,..... , disjuncte

două câte două, a căror reuniune este spaţiul Ω , cu P (Bi ) pozitive. Fie G , σ -algebra

formată din toate reuniunile finite sau numărabile de mulţimi Bi . Atunci probabilitatea

condiţionată a lui A cunoscând σ -algebra G este dată de formula

P( A ∩ Bi )
P(AG ) = ∑ 1Bi (ω ) .
i P(Bi )

Exemplu. Fie Ω mulţimea tuturor rezultatelor posibile obţinute în urma


aruncării unei monede perfecte de trei ori, aruncările sunt independente.
Fie F3 σ -algebra formată din toate submulţimile lui Ω . Fie F1 σ -algebra formată din

{φ , Ω, {HHH , HHT , HTH , HTT }, {THH , THT , TTH , TTT }} , deci evenimentele ce pot fi
determinate ştiind rezultatul primei aruncări. Fie F 2 σ -algebra formată din
evenimentele ce pot fi determinate ştiind rezultatele primelor două aruncări, adică

21
φ , Ω, {HHH , HHT }, {HTH , HTT }, {THH , THT }, {TTH , TTT } şi toate mulţimile obţinute
din reuniunea acestora.
Fie A = {HHH } . Calculăm P ( AF1 ) , P ( AF2 ) , P (AF3 ) .

Fie C1 = {HHH , HHT , HTH , HTT } şi C 2 = {THH , THT , TTH , TTT }. Pe mulţimea C1
P( A ∩ C1 )
probabilitatea condiţionată este dată de formula P (A C1 ) = . Prin înlocuiri
P(C1 )

P(HHH ) 1 8 1
corespunzătoare obţinem = = . Pe mulţimea C2 probabilitatea
P(C1 ) 12 4

P( A ∩ C 2 ) P(φ )
condiţionată este dată de formula P ( A C 2 ) = . Inlocuind obţinem = 0.
P (C 2 ) P(C 2 )

Prin urmare probabilitatea de apariţie a evenimentului A = {HHH } ştiind informaţia la


momentul 1 este 1 4 dacă rezultatul primei aruncări este H şi 0 în caz contrar. Deci
1
putem scrie P (A F1 ) = 1C1 .
4
Fie acum D1 = {HHH , HHT } , D2 = {HTH , HTT } , D3 = {THH , THT } ,

D4 = {TTH , TTT } . σ -algebra F2 este formată din toate reuniunile posibile formate cu
P(HHH ) 1 8 1
mulţimile Di , i = 1,4 . Atunci P (A D1 ) = = = şi P ( A Di ) = 0 pentru
P(D1 ) 14 2
1
i = 2,4 . Prin urmare P( AF2 ) = 1 D1 , altfel spus probabilitatea ca evenimentul
2
A = {HHH } să aibă loc cunoscând rezultatul primelor două aruncări este 1 2 dacă
rezultatul primelor două aruncări este H şi 0 în caz contrar.
Propoziţia 14. E ( X G ) este G -măsurabilă, adică dacă Y = E (X G ) atunci

(Y > a ) ∈ G pentru orice a real.


E ( X ∩ Bi )
Demonstraţie. Prin definiţie Y = E (X G ) = ∑ ⋅ 1 Bi = ∑ bi ⋅ 1 Bi , unde
i P(Bi ) i

bi = E ( X ∩ Bi ) P(Bi ) . Mulţimea (Y ≥ a ) este reuniunea mulţimilor Bi pentru care

bi ≥ a , dar orice reuniune de mulţimi Bi este în G .

Exemplu. Fie Y = 2 ⋅ 1 B1 + 3 ⋅ 1 B2 + 6 ⋅ 1 B3 + 4 ⋅ 1 B4 şi a = 3,5 . Atunci

(Y ≥ a ) = B3 ∪ B4 ∈ G .

22
Propoziţia 15. Dacă C ∈ G şi Y = E ( X G ) atunci E (Y ∩ C ) = E ( X ∩ C )

E ( X ∩ Bi )
Demonstraţie. Cum Y = ∑ ⋅ 1 Bi şi Bi sunt disjuncte două câte două atunci,
i P(Bi )

E (X ∩ B j )
E (Y ∩ B j ) = E1 B j = E (X ∩ B j ) .
P (B j )

Dacă C = B j1 ∪ B j2 ∪ ..... ∪ B jn ∪ ..... atunci însumând relaţia de mai sus după j k

obţinem E (Y ∩ C ) = E ( X ∩ C ) .
Propoziţia 16. Fie Zo variabilă aleatoare G -măsurabilă şi

E (Z ∩ A) = E ( X ∩ A) pentru orice A ∈ G . Atunci Z = E ( X G ) .

Demonstraţie. Cum Z este G -măsurabilă rezultă Z este constantă pe fiecare mulţime

Bi . Fie z i valoarea lui Z pe Bi , atunci putem scrie Z = ∑ z i 1 Bi . Prin urmare, are loc
i

egalitatea z i P(Bi ) = E (Z ∩ Bi ) = E ( X ∩ Bi ) .

Propoziţia 17. 1. Dacă X ≤ Y atunci E (X G ) ≤ E (Y G ). Altfel spus dacă Y este

mai mare decât X atunci valoarea estimată pentru Y este mai mare decât valoarea
estimată pentru X .
2. Fie a şi b două constante atunci E (aX + bY G ) = aE (X G ) + bE (Y G )

3. Dacă X este G -măsurabilă, atunci E (X G ) = X . Altfel spus dacă cunoaştem G şi

X este G -măsurabilă atunci ştim X şi cel mai bun estimator al variabilei aleatoare
X este X .
4. E [E ( X G )] = E ( X ) , adică media valorii estimate pentru X este valoarea medie a

variabilei aleatoare X .
5. X este independentă de G , E (X G ) = E ( X ) , adică dacă cunoaşterea lui G nu ne

oferă alte informaţii despre X , atunci cea mai bună estimare a variabilei aleatoare X
este EX .
Demonstraţie. Afirmaţiile 1 şi 2 rezultă din definiţie. Pentru a demonstra afirmaţia 3
observăm că dacă Z = X atunci Z este G - măsurabilă şi E ( X ∩ C ) = E (Z ∩ C )

pentru orice C din G . Din propoziţia 16 rezultă Z = E ( X G ) .

23
Pentru a demonstra afirmaţia 4 considerăm C = Ω şi Y = E (X G ). Atunci au loc

egalităţile EY = E (Y ∩ C ) = E ( X ∩ C ) = EX . Pentru a demonstra afirmaţia 5,


considerăm Z = EX . Z este constantă deci G -măsurabilă. Din independenţă, dacă
A ∈ G atunci E ( X ∩ A) = E ( X 1 A ) = EX ⋅ E1 A = EX ⋅ P( A) . Dar cum Z este constantă

rezultă E (Z ∩ A) = EX ⋅ P( A) . Propoziţia 16 implică Z = E ( X G ) .

Propoziţia 18. Dacă variabila aleatoare Y este G -măsurabilă, atunci

E (XY G ) = YE ( X G ) .

Propoziţia 19. Dacă G şi H sunt două σ -algebre astfel încât H ⊂ G atunci

are loc egalitatea E (E ( X H )G ) = E ( X H ) = E (E ( X G ) H ) .

Demonstraţie. E (X H ) este H -măsurabilă şi cum H ⊂ G rezultă E (X H ) este

G -măsurabilă. Prima egalitate rezultă din afirmaţia 3 a propoziţiei 17. Fie acum W
expresia din membrul drept. W este H -măsurabilă şi dacă C ∈ H ⊂ G atunci

E (W ∩ C ) = E (E (X G ) ∩ C ) = E ( X ∩ C ) .

Propoziţia 20. Dacă X este o variabilă aleatoare atunci cel mai bun estimator
al său din mulţimea de variabile aleatoare G -măsurabile este Y = E (X G ).

Demonstraţie. Fie Z o variabilă aleatoare G -măsurabilă, arbitrară. Atunci putem


calcula
( ) ( ) ( ) ( )
E ( X − Z ) G = E X 2 G − 2 E ( XZ G ) + E Z 2 G = E X 2 G − 2 ZE ( X G ) + Z 2 =
2

= E (X 2 G ) − 2 ZY + Z 2 = E (X 2 G ) − Y 2 + (Y − Z ) = E (X 2 G ) − 2YE (X G ) + Y 2 + (Y − Z ) =
2 2

2
(
= E (X 2 G ) − 2 E ( XY G ) + E (Y 2 G ) + (Y − Z ) = E ( X − Y ) G + (Y − Z ) .
2
) 2

Se ţine cont de faptul că Y este G -măsurabilă. Din afirmaţia 4 a propoziţiei 16 rezultă

( ) ( ) (
E ( X − Z ) = E ( X − Y ) + E (Y − Z )
2 2
) . Membrul drept este mai mare sau egal cu
2

E (( X − Y ) ) deoarece (Y − Z ) ≥ 0 . Deci eroarea de estimare a variabilei aleatoare X


2 2

prin Z este mai mare decât eroarea estimării lui X prin Y , iar aceste erori vor fi egale
dacă şi numai dacă Y = Z . Deci Y este estimarea cea mai bună.
Observaţie. Mulţimea variabilelor aleatoare formează un spaţiu liniar iar
mulţimea variabilelor aleatoare G -măsurabile este un subspaţiu al acestuia. Dată

variabila aleatoare X , media condiţionată Y = E (X G ) este egală cu proiecţia lui X pe

24
subspaţiul variabilelor aleatoare G -măsurabile. Pentru a demonstra acest lucru
verificăm faptul că Y şi X − Y sunt ortogonale, altfel spus produsul scalar dintre Y şi
X − Y este 0. Cum X = Y + ( X − Y ) iar produsul scalar dintre Y şi X − Y este definit
prin E (Y ( X − Y )) trebuie să demonstrăm E (Y ( X − Y )) = 0 . Deoarece

E (Y ( X − Y )G ) = YE (X − Y G ) = Y (E (X G ) − Y ) = Y (Y − Y ) = 0

rezultă E (Y ( X − Y )) = E (E (Y ( X − Y )G )) = 0 .

Dacă (X ,Y ) este o pereche de variabile independente şi φ este o funcţie

boreliană mărginită atunci are loc relaţia E (φ ( X , Y )Y ) = [E (φ ( X , y ))]y =Y .

Varianţa condiţionată este definită prin Var (X G ) = E (X 2 G ) − E 2 ( X G ) . Fie φ o

funcţie convexă atunci are loc relaţia: E (φ ( X )F ) ≥ φ (E ( X F )) .

Propoziţia 21. Fie P o probabilitate şi fie Q o probabilitate echivalentă cu P

E P (LX G )
definită prin dQ = LdP . Atunci are loc următoarea relaţie: EQ (X G ) = .
E P (L G )

Demonstraţie. Trebuie determinată variabila aleatoare Z , G -măsurabilă astfel încât să


aibă loc egalitatea: EQ (ZY ) = EQ ( XY ) pentru orice variabilă aleatore Y G -măsurabilă.

Având în vedere faptul că variabilele aleatoare Y , Z sunt G -măsurabile putem scrie:

EQ (ZY ) = E P (LZY ) = E P (ZYE P (L G )) şi EQ ( XY ) = E P (LXY ) = E P (YE P (LX G )) .

Egalitatea fiind verificată pentru orice Y rezultă egalitatea ZE P (L G ) = E P (LX G ) .

Definiţia 51. Fie X şi Y două variabile aleatoare reale. Legea condiţionată a


variabilei aleatoare X în raport cu variabila Y este familia de legi definită pe R ,

notată prin µ ( y, dx ) astfel încât are loc E [Φ ( X )Y = y ] = ∫ Φ(x )µ ( y, dx ) , pentru orice
−∞

funcţie Φ boreliană mărginită.


Dacă se cunoaşte legea condiţionată atunci calcularea mediei şi varianţei
condiţionate se reduce la calcularea mediei şi respectiv varianţei. Prin urmare, expresia

E [X Y = y ] = ∫ xµ ( y, dx )
−∞

25
reprezintă pentru orice y media unei variabile aleatoare de lege µ ( y, dx ) . Dacă f ( x, y )
este densitatea unei perechi de variabile aleatoare (X ,Y ) atunci are loc formula
f ( x, y )dx
µ ( y, dx ) = .
∫ f (u, y )du
R

Cazul gaussian

Dacă perechea de variabile aleatoare reale (X ,Y ) este gaussiană, densitatea


condiţionată a variabilei X în raport cu variabila Y este o lege gaussiană de medie
liniară în Y şi de varianţă c independentă de Y . Relaţia E (X Y ) = aY + b implică

( )
E ( X ) = aE (Y ) + b şi E ( XY ) = E (YE ( X Y )) = E aY 2 + bE (Y ) . De unde rezultă relaţiile:

Cov( X , Y )
a=
VarY
[ ]
, b = E ( X ) − aE (Y ) , c = E (X 2 Y ) − E 2 (X Y ) = E (X 2 ) − E (aY + b ) .
2

Generalizare: dacă ( X , Y ) este un vector gaussian densitatea condiţionată a lui X în


raport cu Y este o lege gaussiană cu media liniară în Y şi cu varianţa c independentă
de Y .

1.13. Martingale

Cazul discret

Fie F n o filtrare dată.

Definiţia 52. Un şir de variabile aleatoare (X n , n ∈ N ) formează un

Fn -martingal dacă:
1. X n este integrabilă pentru orice n din N

2. X n este adaptată la F n ( X n este F n -măsurabilă pentru orice n )

3. E (X n +1 F n ) = X n pentru orice n din N .

Cazul multidimensional: O familie de vectori (S n , n ≥ 0 ) , unde S n iau valori în R d ,

este un martingal, dacă famiile (S ni , n ∈ N ) sunt martingale pentru orice i , cu 1 ≤ i ≤ d .

26
Exemple. 1. Fie X 1 , X 2 ,..... un şir de variabile aleatoare independente cu media
n
0 şi fie Fn = σ ( X 1 ,..., X n ) , σ -algebra generată de X 1 , X 2 ,..... , atunci M n = ∑ X i este
i =1

un martingal. Pentru a demonstra acest lucru este suficient să verificăm axiomele din
n n
definiţia 52. Cum E M n = E ∑ X i ≤ ∑ E X i rezultă că axioma 1 este verificată.
i =1 i

Axioma 2 este uşor de verificat. Având în vedere independenţa variabilelor aleatoare


X 1 , X 2 ,..... verificăm axioma 3. In acest scop calculăm E (M n +1 Fn ) :

E (M n +1 Fn ) = X 1 + X 2 + ... + X n + E ( X n +1 Fn ) = M n + EX n +1 = M n .

2. Fie X 1 , X 2 ,..... un şir de variabile aleatoare independente cu media 0 şi varianţa 1. Fie

Fn = σ ( X 1 ,..., X n ) , σ -algebra generată de X 1 , X 2 ,..... . Atunci M n = S n2 − n , unde


n
S n = ∑ X i , este un martingal. Axiomele 1 şi 2 sunt uşor de verificat. Verificăm axioma
i =1

( )
3: E (M n +1 Fn ) = E S n2 + 2 X n +1 S n + X n2+1 Fn − (n + 1) . Cum S n este Fn -măsurabil rezultă

relaţia E (S n2 Fn ) = S n2 . Deoarece E (2 X n +1 S n Fn ) = 2 S n E (X n +1 Fn ) = 2 S n EX n +1 = 0 şi

E (X n2+1 Fn ) = EX n2+1 = 1 , efectuând înlocuirile corespunzătoare obţinem

E (M n +1 Fn ) = M n .

3. Considerăm o serie de aruncări independente ale unei monede perfecte şi fie 1 euro
capitalul iniţial de care dispunem. Considerăm că dacă rezultatul aruncării este
evenimentul H capitalul se dublează iar dacă rezultatul aruncării este evenimentul T
capitalul devine 0. Fie M n capitalul de care dispunem la momentul n . Altfel spus fie

X 1 , X 2 ,..., X n un şir de variabile aleatoare independente, ale căror valori sunt 2 şi

respectiv 0 cu probabilităţi egale cu 1 2 . Atunci M n = X 1 X 2 ... X n pentru

care Fn = σ ( X 1 ,..., X n ) , σ -algebra generată de X 1 , X 2 ,..... , este un martingal. Cum

0 ≤ M n ≤ 2 n axioma 1 este verificată. Pentru a verifica axioma 3 ţinem cont de relaţia

EX n +1 = 1 , atunci calculând E (M n +1 Fn ) obţinem relaţia :

E (M n +1 Fn ) = M n E ( X n +1 Fn ) = M n EX n +1 = M n .

27
Propoziţia 22. E ( X F ) ≤ E ( X F ) .

Demonstraţie. Relaţia − X ≤ X ≤ X implică − E ( X F ) ≤ E (X F ) ≤ E ( X F ) şi cum

E ( X F ) este nenegativă obţinem inegalitatea căutată.

Propoziţia 23. Fie F1 ,F2 ,.... σ -algebre date şi fie X o variabilă aleatoare

fixată cu E X < ∞ . Atunci E (X Fn ) = M n este un martingal.

Demonstraţie. Axioma 1 din definiţia martingalului este verificată deoarece


E M n ≤ E (E ( X Fn )) = E X < ∞ iar axioma 2 este evidentă. Verificăm axioma 3:

E (M n +1 Fn ) = E (E (X Fn +1 )Fn ) = E (X Fn ) = M n .

Propoziţia 24. E (X n + p Fn ) = X n pentru orice n şi p din N

Cazul continuu

Fie Ft o filtrare dată.

Definiţia 53. O familie de variabile aleatoare ( X t , t ∈ [0, ∞ )) este un martingal

în raport cu filtrarea (Ft ) dacă sunt verificate axiomele:

1. X t este integrabilă pentru orice t

2. X t este Ft -măsurabilă pentru orice t

3. E (X t Fs ) = X s pentru orice s ≤ t .

Observaţie. Spunem că X este un martingal dacă filtrarea de referinţă este


filtrarea naturală a lui X .
Dacă au loc axiomele 1. şi 2. dar în locul axiomei 3. are loc axioma
3’. E (X t F s ) ≤ X s pentru orice s ≤ t , atunci familia de variabile aleatoare

( X t , t ∈ [0, ∞ )) este un supermartingal în raport cu filtrarea Ft .


Dacă au loc axiomele 1. şi 2. dar în locul axiomei 3. are loc axioma
3’’. E (X t F s ) ≥ X s pentru orice s ≤ t , atunci familia de variabile aleatoare

( X t , t ∈ [0, ∞ )) este un submartingal în raport cu filtrarea Ft .


Exemple. 1. Dacă X este un martingal atunci X 2 este un submartingal. 2. Dacă
X este un martingal şi A un proces crescător atunci X + A este un submartingal.

28
Propoziţia 25. Dacă X este un martingal atunci are loc relaţia E ( X t ) = E ( X 0 )

pentru orice t .
Propoziţia 26. Dacă (X t , t ≤ T ) este un martingal, procesul este complet

determinat de valoarea sa terminală X t = E (X T Ft ) .

Observaţie. Această proprietate este utilizată frecvent în domeniul financiar.


Un martingal continuu cu variaţie mărginită este egal cu o constantă. Prin
urmare, dacă M este un astfel de martingal iar V este variaţia sa atunci are loc relaţia:

( )
E M t2 = E [(∑ (M t i +1 − M ti )) ] ≤ E [V sup M
2
t t i +1 ] [ ]
− M ti ≤ KE sup M ti +1 − M ti ,

unde membrul drept converge aproape sigur la 0 în cazul unei partiţii rafinate.
Inegalitatea lui Doob: Dacă X este un martingal continuu atunci are loc

inegalitatea: E  sup X s2  ≤ 4 E (X T2 ) .
 s ≤T 
Propoziţia 27. Dacă g este o funcţie convexă atunci are loc inegalitatea:

g (E ( X G )) ≤ E (g ( X )G ) , în condiţiile în care valorile medii există.

Propoziţia 28. Dacă M n este un martingal, g este o funcţie convexă şi toate

mediile există, atunci g (M n ) este un submartingal.


Demonstraţie. Din inegalitatea lui Jensen rezultă inegalitatea:

E (g (M n +1 )Fn ) ≥ g (E (M n +1 Fn )) = g (M n ) .

1.14. Timp de oprire (stopare)

 
Considerăm un spaţiu înzestrat cu o filtrare Ft . Notăm F∞ = σ  UFt  .
 t 
Definiţia 54. Un timp de oprire, sau regulă de oprire sau variabilă de oprire
este o variabilă aleatoare τ cu valori în R ∪ {+ ∞} astfel încât {τ ≤ t}∈ Ft pentru orice
t din R .
Exemplu. O constantă pozitivă este un timp de oprire.
Unui timp de oprire τ îi asociem o σ -algebra Fτ , numită σ -algebra

evenimentelor anterioare lui τ , definiă prin Fτ = {A ∈ F∞ A ∩ {τ ≤ t}∈ Ft , ∀t ∈ R}.

29
Proprietăţi:
1. Dacă T este un timp de oprire, atunci variabila aleatoare T este FT -măsurabilă;
2. Dacă S şi T sunt timpi de oprire atunci S ∧ T este un timp de oprire. In
particular, T ∧ t este timp de oprire.
3. Dacă S şi T sunt timpi de oprire astfel încât S ≤ T atunci are loc
incluziunea F S ⊂ FT .

4. Fie ( X t , t ≥ 0 ) un proces stochastic şi T timp de oprire finit. Definim X T prin

X T (ω ) = X T (ω ) (ω ) . Dacă un proces stochastic X este continuu şi adaptat atunci

X T este FT -măsurabilă.
Dacă T este un timp de oprire şi M este un (Ft ) -martingal, procesul Z definit

prin Z t = M t ∧T este un Ft -martingal. In particular, E (M t ∧T ) = E (M 0 ) .


Teorema de oprire a lui Doob (Optional Sampling Theorem). Dacă M este un
Ft -martingal continuu şi S şi T sunt doi timpi de oprire astfel încât S ≤ T ≤ K , K
fiind o constantă finită atunci M T este integrabil şi are loc relaţia: E (M T FS ) = M S .

Propoziţia 29. Dacă pentru orice timp de oprire mărginit are loc relaţia
E ( X T ) = E ( X 0 ) atunci, procesul X este un martingal.

Definiţia 55. Un martingal este de pătrat integrabil dacă M t = E (M ∞ Ft ) şi

M ∞2 < ∞ .
Definiţia 56. M t este un martingal local dacă există un şir de timpi de oprire

S n convergent la ∞ astfel încât pentru orice n , M t ∧ S n este un martingal de pătrat

integrabil.
Definiţia 57. Un proces M adaptat càglàd este un martingal local dacă există
( )
un şir crescător de timpi de oprire τ n astfel încât τ n tinde la ∞ şi M t ∧τ n , t ≥ 0 este un

martingal pentru orice n .


Observaţie. Un martingal local pozitiv este un martingal.

30
Timp de oprire optim

Considerăm experimentul aruncării unei monede perfecte. După fiecare aruncare


trebuie să luăm decizia de a opri sau de a continua experimentul. Fie Y1 , Y2 ,.....
variabile aleatoare independente reprezentând aruncările astfel încât
1
P(Yi = 1) = P(Yi = −1) = , unde prin Yi = 1 am notat apariţia evenimentului H după
2
aruncarea i şi prin Yi = −1 apariţia evenimentului T după aruncarea i . Dacă ne oprim

după a n -a aruncare obţinem o recompensă X n = f (Y1 , Y2 ,..., Yn ) . Problema care ne


preocupă este de a determina timpul de oprire pentru care recompensa este maximă.
Reamintim faptul că prin regulă de oprire (sau timp de oprire sau variabilă de oprire)
înţelegem o variabilă aleatoare τ cu valori în mulţimea {1,2,3,....} pentru care
evenimentul {τ = n} depinde numai de valorile din trecut ale variabilelor Y1 , Y2 ,..., Yn şi

nu de valorile viitoare Yn +1 , Yn + 2 ,.... . Dacă τ este o regulă de oprire atunci E ( X τ )

măsoară recompensa medie asociată regulii de oprire τ . Fie C clasa tuturor regulilor de
oprire pentru care E ( X τ ) < ∞ . V = sup E ( X τ ) valoarea şirului {X n } şi dacă τ este o
τ ∈C

regulă de oprire pentru care E ( X τ ) = V atunci spunem că τ este o regulă de oprire

optimă.
n
Considerăm funcţia definită prin X n = min{1, Y1 + Y2 + ... + Yn } − , pentru
n +1
n ≥ 1 . Ca regulă de oprire τ considerăm primul întreg n ≥ 1 astfel încât
Y1 + Y2 + ... + Yn = 1 (1). In aceste condiţii are loc relaţia:

 τ   τ 
E ( X τ ) = E (min{1, Y1 + Y2 + ... + Yτ }) − E   = 1 − E  > 0 (2).
τ + 1 τ +1

Pentru a arăta că regula de oprire (1) este optimă demonstrăm că pentru orice altă regulă
de oprire valoarea medie E ( X τ ) este negativă. Pentru a demonstra acest lucru folosim
lema lui Wald.

31
Lema lui Wald. Fie Y1 , Y2 ,..... variabile aleatoare independente, identic
repartizate, astfel încât E (Yi ) = µ < ∞ . De asemenea fie τ orice timp de oprire al

 τ 
şirului Y1 , Y2 ,..... pentru care E (τ ) < ∞ . Atunci E  ∑ Yi  există întotdeauna şi are loc
 i =1 
 τ 
relaţia E  ∑ Yi  = µE (τ ) .
 i =1 
Revenind la exemplul nostru aplicăm lema lui Wald variabilelor aleatoare Y1 , Y2 ,.....
reprezentând aruncările succesive ale unei monede perfecte. Y1 , Y2 ,..... sunt variabile
1 1
aleatoare independente identic repartizate ce verifică relaţia µE (Yi ) = 1 ⋅ + (− 1) ⋅ = 0 .
2 2
Mai mult τ reprezintă orice regulă de oprire pentru care E (τ ) < ∞ , deci în particular
dacă τ ∈ C atunci E (Y1 + Y2 + ... + Yτ ) = 0 . Acest lucru implică :

 τ  1
E ( X τ ) ≤ E (Y1 + Y2 + ... + Yτ ) − E  ≤− .
τ +1 2

Deci, pentru alte legi de oprire E ( X τ ) < 0 , iar sup E ( X τ ) este dat de relaţia (2).
τ ∈C

Considerând τ conform relaţiei (1), adică primul întreg n ≥ 1 astfel încât


Y1 + Y2 + ... + Yn = 1 şi din faptul că V = sup E ( X τ ) rezultă V = E ( X τ ) > 0 . Prin urmare
τ ∈C

regula de oprire (1) este optimă.


n2n n  Yi + 1 
Fie acum X n = ∏  , n = 1,2,3,... funcţia care defineşte recompensa
n + 1 i =1  2 
primită (funcţia obiectiv). Dacă în urma aruncării de n ori a unei monede perfecte
rezultatul obţinut în urma fiecărei aruncări este H atunci recompensa obţinută este
n2n
. In caz contrar recompensa este 0. Presupunem că ne aflăm la pasul n şi
n +1
n2n
rezultatul obţinut în urma fiecărei aruncări este H , prin urmare recompensa este .
n +1
Care este media condiţionată a recompensei ştiind că înainte de oprire mai are loc o
aruncare? Rezultatul este dat de relaţia:

 n 2 n  1 (n + 1)2 n +1 2n (n + 1)
E  X n +1 X n = = = > Xn .
 n + 1  2 n + 2 n+2

32
Această relaţie sugerează să nu ne oprim deoarece recompensa după încă o aruncare
X n +1 condiţionată de X n este mai mare decât recompensa obţinută în absenţa unei alte
aruncări. Dar dacă în urma unei noi aruncări rezultatul este T atunci câştigul final este
0. Deci în acest caz nu există o regulă de orpire optimă dar există totuşi o regulă de
oprire. Considerăm regulile de oprire {τ k }, k = 1,2,3,.... unde τ k impune oprirea după

aruncarea k indiferent de şirul de rezultate obţinute. Pentru o astfel de regulă de oprire

( )
are loc relaţia E X τ k =
1 k 2k 

1
+ 1 − k  ⋅ 0 =
2 k +1  2 
k
k
k +1
. Pentru k tinzând la ∞ în relaţia

obţinută şi având în vedere formula V = sup E ( X τ ) obţinem V = 1 . Prin urmare există


τ ∈C

regulă de oprire dar nu există o regulă de oprire optimă.


Fie (Ω,F , P ) un spaţiu probabilistic şi fie {Fn , n = 1,2,3...} un şir crescător de

σ -algebre din F . Fie Y1 , Y2 ,..... variabile aleatoare cu funcţia comună de repartiţie


F definită pe (Ω,F , P ) . Presupunem că variabilele aleatoare Y1 , Y2 ,..... pot fi observate
secvenţial şi notăm prin X 1 , X 2 ,.... şirul de recompense coresunzătoare. Dacă ne oprim
la pasul n atunci, X n = f (Y1 , Y2 ,...., Yn ) . Se presupune că variabilele aleatoare X 1 , X 2 ,....

sunt măsurabile în raport cu σ -algebrele F1 ,F2 ,.... . O regulă de oprire (sau variabilă de
oprire sau timp de oprire) este o variabilă aleatoare τ = τ (ω ) definită pe (Ω,F , P ) cu
valori întregi pozitive ce verifică următoarele două condiţii:
1. P(ω : τ (ω ) < ∞ ) = 1 , adică regula de oprire ia valori finite cu probabilitatea 1;
2. {ω : τ (ω ) = n}∈Fn pentru orice n , adică decizia de oprire la momentul n

depinde numai de informaţia inclusă în σ - algebra Fn .

In general σ -algebra Fn este arbitrară dar în unele aplicaţii considerăm

Fn = σ (Y1 , Y2 ,...Yn ) . Colecţia tuturor mulţimilor A din F astfel încât A ∩ {τ = n}∈Fn


pentru orice întreg n este o σ -algebra în F , notată prin Fτ . τ şi X τ sunt
Fτ -măsurabile.
Pentru orice regulă de oprire τ , recompensa la momentul τ este variabila aleatoare X τ

 X dacă {τ = n}
definită prin X τ = ∑ X n I{τ = n} =  n , pentru n = 1,2,..... , unde I {τ = n} este
n =1 0 în rest

33
funcţia indicator ce ia valoarea 1 pe mulţimea {ω ,τ (ω ) = n} şi 0 în rest. Ca şi în cazul
precedent valoarea V reprezintă sup E ( X τ ) .
τ ∈C

Pentru o regulă de oprire τ dată, valoarea medie E ( X τ ) este finită ( E ( X τ ) < ∞ ) dacă şi

numai dacă: E ( X τ ) = ∑ E ( X n {τ = n})P(τ = n ) < ∞ . Având în vedere aceste lucruri, ne
n =1

interesează în ce condiţii există un timp optim de oprire.


Teorema de existenţă a unui timp optim de oprire. Fie X 1 , X 2 , X 3 ,.... un şir

 
de variabile aleatoare pe (Ω,F , P ) astfel încât: (1) relaţia E  sup X n  < ∞ are loc cu
 n 
probabilitate 1 şi (2) pentru n tinzând la ∞ , lim X n tinde la − ∞ cu probabilitate 1.

Există, atunci o regulă de oprire optimă.


Observaţie. Teorema nu spune nimic despre natura regulii de oprire.
In cazuri particulare putem vorbi despre natura regulii de oprire. Considerăm funcţia de
recompensă definită prin X n = max{Y1 , Y2 ,..., Yn } − nc pentru n = 1,2,3,... şi c > 0 , unde c

reprezintă costul fix al fiecărei observaţii.


Propoziţia 30. Fie Y1 , Y2 ,..... un şir de variabile aleatoare pe (Ω,F , P )
independente, identic repartizate, cu funcţia de repartiţie F . Fie funcţia de recompensă
definită prin relaţia X n = max{Y1 , Y2 ,..., Yn } − nc , pentru n = 1,2,3,... şi c > 0 . Dacă

( )
E Yn2 < ∞ pentru n = 1,2,3,... atunci există o regulă de oprire care maximizează

valoarea medie E ( X τ ) şi care este de forma: dacă Y ≥ V atunci se ia decizia de oprire

şi dacă Y < V se ia decizia de continuare. V este unica soluţie a ecuaţiei:


∫ (Y − V )dF (Y ) = c .
Y

Exemplu (Căutarea unui loc de muncă). Considerăm cazul unei persoane care
este în căutarea unui loc de muncă. Presupunem că persoana primeşte o ofertă în fiecare
zi, iar căutarea are loc zilnic până în clipa în care acceptă o ofertă. Fie c > 0 costul
generării unei oferte. Există două posibilităţi de selecţie a ofertei: selecţie cu revenire
adică toate ofertele sunt reţinute sau selecţie fără revenire atunci când ofertele care nu
sunt acceptate sunt eliminate. Fie Yn variabile aleatoare ce reprezintă ofertele la

momentele n = 1,2,3,... .şi presupunem că persoana cunoaşte parametrii funcţiei de

34
repartiţie F a salariului corespunzător. De asemenea, presupunem că persoana se află
în condiţii de risc neutru şi are ca obiectiv maximizarea câştigului net. Decizia se referă
la oprirea procesului de căutare, deci la acceptarea unei oferte. Funcţia de recompensă
este definită prin:
X n = max{Y1 , Y2 ,..., Yn } − nc pentru n = 1,2,3,... şi c > 0 pentru cazul în care
selecţia este cu revenire;
X n = Yn − nc pentru cazul în care selecţia este fără revenire, altfel spus,
recompensa este diferenţa dintre oferta curentă şi costul total de căutare.
Considerăm cazul căutării cu revenire.
Propoziţia 31. Fie Y1 , Y2 ,...... un şir de variabile aleatoare identic repartizate,
cu funcţia de repartiţie F . Fie c > 0 un număr dat şi definim Z = sup X n , unde
n

X n = max{Y1 , Y2 ,..., Yn } − nc pentru n = 1,2,3,... . Dacă valoarea medie a lui F există,

atunci lim X n → −∞ pentru n → ∞ , cu probabilitatea 1. Dacă varianţa lui F este

finită, atunci E ( Z ) < ∞ .

Observaţie. Propoziţia 31 ne ajută să stablim existenţa unei reguli optime în problema


de căutare a unui loc de muncă. Dacă media şi varianţa lui F există atunci condiţiile
din teorema de existenţă a unui timp optim de oprire au loc. Astfel, dacă
( )
E Yn2 < ∞ atunci propoziţia 31 şi teorema de existenţă a unui timp optim de oprire

implică existenţa unei reguli de optimizare în cazul problemei studiate. Natura regului
de optimizare în modelul căutării unui loc de muncă este descrisă de propoziţia 30. Mai
precis, pentru orice ofertă de salariu Y , regula de oprire optimă este de forma:
1. se acceptă oferta dacă Y ≥ V ;
2. se continuă căutarea dacă Y < V
valoarea V este cunoscută sub numele de „reservation wage” iar regula de oprire este
cunoscută sub numele de „reservation wage property”.
Considerăm prima observaţie Y1 din şirul de variabile aleatoare independente,
identic repartizate Y1 , Y2 ,...... In acest caz, câştigul mediu ce are la bază „reservation
wage property” este E (max{V , Y1}) − c . Din definiţia lui V câştigul mediu optim
satisface relaţia : V = E max(V , Y1 ) − c (3). Dar:

35
V ∞ V ∞ ∞
E max(V , Y1 ) = V ∫ dF (Y ) + ∫ YdF (Y ) = V ∫ dF (Y ) ± V ∫ dF (Y ) + ∫ YdF (Y ) =
0 V 0 V V

V ∞ ∞ ∞ ∞ ∞
= V ∫ dF (Y ) + V ∫ dF (Y ) + ∫ YdF (Y ) − V ∫ dF (Y ) = V ∫ dF (Y ) + ∫ (Y − V )dF (Y ) =
0 V V V 0 V


= V + ∫ (Y − V )dF (Y ) . (4)
V


Inlocuind relaţia (4) în relaţia (3) obţinem ecuaţia ∫ (Y − V )dF (Y ) = c (din propoziţia
Y
30).

Fie H (V ) = ∫ (Y − V )dF (Y ) . Funcţia H este convexă, nenegativă, strict descrescătoare şi
V

verifică proprietăţile: (1) pentru V → ∞ , lim H (V ) → 0 ; (2) pentru V → 0 ,


dH (V ) d 2 H (V )
lim H (V ) → E (Y1 ) ; (3) = −(1 − F (V )) , ≥ 0.
dV dV 2
Observaţie. Cu cât costul căutării c > 0 este mai scăzut cu atât V este mai mare şi
durata căutării este mai lungă.

1.15. Proces Markov

Definiţia 58. Fie X un proces stochastic şi fie (Ft ) filtrarea sa canonică.

Spunem că X este un proces Markov dacă pentru orice t şi orice variabilă aleatoare
mărginită Y din F∞ are loc egalitatea E (Y o θ t Ft ) = E (Y o θ t X t ) , unde θ este un

operator definit prin X u o θ s = X u + s .

O altă definiţie: pentru orice n , orice funcţie F mărginită definită pe R n şi orice t i ,

i = 1,2,..., n astfel încât t1 < t 2 < ... < t n are loc egalitatea:

( ( ) ) ( ( ) )
E F X s + t1 , X s + t2 ,..., X s +tn Fs = E F X s +t1 , X s + t2 ,..., X s +tn X s .

In particular, pentru orice funcţie boreliană mărginită f şi orice t > s are loc egalitatea:

E ( f ( X t )Fs ) = E ( f ( X t ) X s ) .

Definiţia 59. Spunem că X este un proces tare Markov dacă proprietatea de


mai sus este adevărată pentru orice pereche T , S de timpi de oprire finiţi, cu T > S .

36
Observaţie. Un proces stochastic este proces Markov dacă comportamentul său ulterior
poate fi estimat numai pe baza informaţiei din prezent, fără a cunoaşte modul în care s-
a ajuns la ea. De exemplu, este posibil ca pe piaţa de capital evoluţia preţului acţiunilor
să nu fie markoviană dar procesul cumulat să aibă proprietatea Markov.

Bibliografie

G. Grimmett, D. Stirzaker - Probability and Random Processes. Oxford University


Press, New-York, 1982.

G. Grimmett, D. Stirzaker - One Thousand Exercises in Probability. Oxford


University Press, New-York, 2001.

J. Jacod, P. Protter - Probability Essentials. Springer, Berlin, 1997

J. Neveu - Bases mathématiques du calcul des probabilités.


Masson, Paris, 1964

D. Stirzaker - Elementary Probability. Cambridge University Press,


Cambridge, 1994

D. Williams - Probability with Martingales. Cambridge University


Press, Cambridge, 1991

37
Capitolul 2

Mişcarea Browniană

Mişcarea browniană reprezintă cel mai important proces stochastic ce stă la baza
construirii modelelor matematice de pe piaţa de capital. Asocierea acestui proces cu
evoluţia pieţei a fost făcută la începutul secolului 20 când Bachalier a pus în evidenţă
caracterul markovian al mişcării browniene.

Fie (Ω,F , P ) un spaţiu probabilistic şi fie (Bt , t ≥ 0 ) un proces stochastic pe


acest spaţiu.

Definiţia 2.1. Procesul stochastic (Bt , t ≥ 0 ) este o mişcare Browniană standard

dacă sunt verificate axiomele :


1. P(B0 = 0) = 1 ;

2. pentru orice s ≤ t creşterea Bt − Bs este o variabilă aleatoare reală, normal

distribuită după legea N (0, t − s ) ;


3. pentru orice n şi orice t i astfel încât 0 ≤ t 0 ≤ t1 ≤ ... ≤ t n variabilele aleatoare

(Btn )
− Btn −1 ,....., Bt1 − Bt0 , Bt0 sunt independnente.

Altfel spus: Bt = Bt (ω ) este o mişcare browniană standard dacă:

1. B0 = 0 aproape sigur;

2. Bt − Bs este o variabilă aleatoare normal distribuită cu media 0 şi varianţa

t − s pentru s < t ;
3. Bt − Bs este independentă de σ -algebra generată de {Br ; r ≤ s};

4. cu probabilitate 1, aplicaţia t → X t (ω ) este o funcţie continuă de t .

Observaţie. Dacă s ≤ t atunci din axiomele (1) şi (2) rezultă:

t − s = Var (Bt − Bs ) = VarBt + VarBs − 2Cov(Bs , Bt ) = t + s − 2Cov(Bs , Bt ) .

Deci pentru s ≤ t , Cov(Bs , Bt ) = s . Atunci pentru r < s < t are loc relaţia:

Cov(Bt − Bs , Br ) = Cov(Bt , Br ) − Cov (Bs , Br ) = r − r = 0

38
Dacă, de asemenea, presupunem că variabilele aleatoare Bt cumulate sunt gausiene

rezultă Bt − Bs sunt independente de Br şi deci Bt − Bs sunt independente de

σ -algebra generată de {Br ; r ≤ s}.

( )
Fie Ω = C R + , R spaţiul funcţiilor continue definite pe R + cu valori în R . Pe
Ω construim funcţiile Bt definite prin Bt (ω ) = ω (t ) şi înzestrăm acest spaţiu cu o

măsură (măsură Weiner) astfel încât Bt să fie o mişcare Browniană.

Filtrarea naturală este Ft = σ {Bs , s ≤ t} .

Definiţia 2.2. Procesul stochastic ( X t , t ≥ 0) este o mişcare browniană cu

originea în a (cu starea iniţială a ), dacă X t = a + Bt , unde a este o constantă şi Bt o

mişcare browniană standard.


Definiţia 2.3. ( X t , t ≥ 0) este un proces brownian general sau o mişcare

browniană cu deriva µ dacă X t = x + µt + σBt şi Bt este o mişcare browniană.

Observaţie. 1. X t este o variabilă gaussiană cu media x + µt şi varianţa σ 2 t .

( )
2. Variabilele aleatoare X ti +1 − X ti , t 0 ≤ t1 ≤ .... ≤ t n sunt independnente.

2.1. Construcţia unei mişcări browniene (Lévy-Cielsieski)

Fie ei funcţii din L2 cu valori în intervalul [0,1] . Funcţiile ei formează un

∫e = 1 pentru i = j şi ∫e e = 0 pentru i ≠ j .
2
sistem ortogonal complet dacă i i j

Combinaţii liniare finite ale acestor funcţii formează o submulţime densă în L2 [0,1] .
1
Notăm f , g = ∫ fg şi f = f , f
12
.
0

n ∞

∑ = ∑ f , ei
2 2
Propoziţia 2.1. 1. f , e1 ei converge în L2 la f ; 2. f ;
i =1 i =1


Dacă f şi g sunt din L2 atunci f , g = ∑ f , ei g , ei .
i =1

39
n
Demonstraţie. Fie g n = f − ∑ f , ei ei . Cum ei formează un sistem ortogonal rezultă
i =1

n 2 n

∑ a i ei
i =1
= ∑ ai2 . Având în vedere acest lucru obţinem inegalitatea:
i =1

n 2 n n n

∑ − 2 f , ∑ f , ei ei = f + ∑ f , ei − 2∑ f , e i
2 2 2 2 2
0 ≤ gn = f + f , ei ei =
i =1 i =1 i =1 i =1

n
− ∑ f , ei
2 2
= f . Trecem la limită şi pentru n → ∞ obţinem inegalitatea lui Bessel:
i =1


2 2
f , ei ≤ f . Din inegalitatea lui Bessel rezultată că pentru n, m → ∞ seria
i =1


2 2
gn − gm = f , ei tinde la 0. Cum L2 este un spaţiu complet rezultă că g n este
i = m +1

convergent în L2 , de exemplu la g ∞ . Fie i un indice fixat, atunci pentru n ≥ i are loc

relaţia g n , ei = f , ei − f , ei = 0 . Relaţia Cauchy-Schwartz implică

g ∞ , ei − g n , ei = g ∞ − g n , ei ≤ g ∞ − g n ei → 0 , pentru n → ∞ . Prin urmare

g ∞ , ei = 0 pentru orice i . Cum sistemul ei este complet rezultă g ∞ = 0 , deci are loc

axioma (1).
n
− ∑ f , ei
2 2 2
Axioma (2) rezultă din relaţia g n = f şi din faptul că g n → 0 .
i =1

Axioma (3) rezultă din egalitatea f,g =


1
2
f +g( 2
− f
2
− g
2
) şi din aplicarea
axiomei (2) funcţiilor f , g şi f + g .
Pentru a construi o mişcare browniană considerăm un caz particular de sistem
ortogonal complet, şi anume funcţiile Haar. Fie ϕ 00 ≡ 1 . Pentru un indice i întreg

pozitiv şi pentru un indice j = 1,2,...,2 i −1 definim funcţia ϕ ij (x ) astfel:

2 (i −1) 2 pentru (2 j − 2 ) 2 i ≤ x < (2 j − 1) 2 i ,

ϕ ij (x ) = − 2 (i −1) 2 pentru (2 j − 1) 2 i ≤ x < 2 j 2 i ,

0 în rest.

40
Este uşor de verificat faptul că ϕ ij , ϕ kl = 1 pentru i = k şi j = l şi 0 în rest.

Definim acum o mişcare browniană pentru cazul în care t ∈ [0,1] . Fie atunci
t
funcţia ψ ij (t ) = ∫ ϕ ij (s )ds . Fie Yij un şir de variabile aleatoare independente, identic
0

2i −1
repartizate, cu o repartiţie normală standard. Fie V0 (t ) = Y00ψ 00 (t ) şi Vi (t ) = ∑ Yijψ ij (t ) .
j =1


Fie X t = ∑ Vi (t ) . Atunci X t , cu t ∈ [0,1] este o mişcare browniană.
i =0

Demonstrăm mai întâi convergenţa seriei. Fie Ai = sup Vi (t ) ≥ i −2  . Atunci are loc
 t 
relaţia:

( ) (
P( Ai ) ≤ P ∃ j ≤ 2 i −1 : Yij ψ ij (t ) > i − 2 pentru t ∈ [0,1] ≤ P ∃ j ≤ 2 i −1 : Yij 2 -(i-1) 2 > i − 2 ≤ )
( )
≤ 2 i −1 P Yij > 2 (i +1) 2 i −2 ≤ 2 i − 2 e −2
i
i4
,

din care rezultă că ∑ P( A ) < ∞ . Având în vedere acest rezultat putem aplica lema
i
i

∞ ∞ 
Borel-Cantelli. Prin urmare P IU An  = 0 . Deci dat ω , există I cu i ≥ I pentru
 j =1 n = j 
care ω ∉ Ai . Astfel pentru i ≥ I , sup Vi (t )(ω ) ≤ i −2 pentru orice t . Cum seria ∑i −2

t i

este convergentă rezultă seria ∑V (t )(ω )


i
i este uniform convergentă. Cum Vi (t ) este

continuă pentru fiecare i rezultă că nu numai seria converge uniform pentru fiecare ω
dar şi limita este o funcţie continuă de t .
Mai departe, cum X t este o combinaţie liniară de variabile Yij rezultă X t este

variabilă gaussiană deci media este 0. Arătăm acum faptul că pentru


s ≤ t , Cov( X s , X t ) = s .

 
Cov( X s , X t ) = E  ∑ Yij ϕ ij ,1[0, s ] , ∑ Ykl ϕ kl 1[0,t ]  = ∑ ϕ ij ,1[0, s ] ϕ ij ,1[0,t ] .

 i, j k ,l  i, j

Din propoziţia 2.1. rezultă că pentru s < t ultimul termen al egalităţii de mai sus este
1[0, s ] ,1[0,t ] = s .

41
Pentru a construi o mişcare browniană pentru orice t ≥ 0 procedăm în felul
următor: fie X t şi X t′ două mişcări browniene independente, unde t ≤ 1 . Fie Yt = tX 1′ t .

X t pentru t ≤ 1
Atunci definim variabila aleatoare Z t astfel: Z t =  . Pentru
 X 1 + (Yt − Y1 ) pentru t > 1
t ≥ 0 , Z t este o mişcare browniană.

2.2. Mers aleatoriu

Fie (Ω,F , P ) un spaţiu probabilistic şi fie pe acest spaţiu o familie de variabile


aleatoare X 1 , X 2 , X 3 ,.... independente, identic repartizate, cu o repartiţie Bernoulli

1
caracterizată prin P( X i = 1) = P( X i = −1) = , i ∈ N * . Acestei familii de variabile
2
n
aleatoare îi asociem şirul (S n , n ≥ 0 ) definit prin S 0 = 0 , S n = ∑ X i (Fig.1). Spunem că
i =1

S n este un mers aleatoriu simetric simplu. Printr-un calcul simplu se arată că valoarea

medie şi varianţa sunt egale cu E (S n ) = 0 şi respectiv Var (S n ) = n .

Fig. 1

Observaţie. Şirurile (S m − S n , m ≥ n ) şi (S 0 , S1 ,..., S n ) sunt independente iar S m − S n şi

S m− n au aceeaşi lege.

42
1
Fie N fixat. Definim o familie de variabile aleatoare U k = S k , indexată prin
N N

k
numere reale de forma , unde k ∈ N . Pentru această variabilă media
N
    k
este E U k  = 0 iar varianţa Var U k
 
= .
 N
 N   N 
Verificăm proprietăţile de independenţă şi staţionaritate:
 
1. dacă k ≥ k ' , U k − U k ' este independent de U p ; p ≤ k '  ;
N N  N 
2. dacă k ≥ k ' , U k − U k ' şi U k −k ' au aceeaşi lege .
N N N

Pornind de la familia de variabile aleatoare U k definim un proces continuu în timp


N

k k +1
(U t , t ≥ 0) impunând funcţiei t → U t condiţia de afinitate între şi (Fig.2).
N N

Fig. 2

In acest scop, N fiind fixat, se observă că pentru orice t din R+ există un unic k (t ) în
k (t ) k (t ) + 1
N , astfel încât ≤t< . Definim variabila aleatoare
N N

43
 k  
U tN = U k + N  t − U k +1 − U k  ,
N  N  N N 

S N − NE ( X 1 ) 1
unde k = k (t ) . Pentru t = 1 obţinem U 1N = = S N . Atunci din
NVar ( X 1 ) N

teoarema limită centrală rezultă că U 1N → N (0,1) , în lege. Analog U tN converge în lege

la N (0, t ) pentru orice t din [0,1] . In aceste condiţii putem spune că U N converge în

lege la o mişcare browniană B . Această convergenţă în lege a procesului U N se mai


numeşte şi principiul invarianţei lui Donsker.
Observaţie. Această proprietate este utilizată atunci când sunt realizate simulări.

2.3. Proprietăţi ale mişcării browniene

Considerăm mişcarea browniană B = (Bt , t ≥ 0) şi fie Ft = σ {Bs , s ≤ t } filtrarea


sa naturală.
Propoziţia 2.2. Procesul B este un proces gaussian a cărui repartiţie este
caracterizată de media 0 şi covarianţa Cov(Bt , Bs ) = s ∧ t .
Demonstraţie. Caracterul gaussian al procesului B rezultă din egalitatea


n
i =0
( )
ai Bti = ∑i =0 bi Bti +1 − Bti , unde ai = bi − bi +1 pentru i ≤ n − 1 şi a n = bn . Deoarece
n

procesul este centrat covarianţa este egală cu E (Bt Bs ) . Dacă s ≤ t atunci are loc relaţia:

( ) ( )
E (Bt Bs ) = E (Bt − Bs )Bs + Bs2 = E (Bt − Bs )E (Bs ) + E Bs2 = s .

Generalizare: Procesul ( X t = x + µt + σBt , t ≥ 0 ) este un proces gaussian cu

media x + µt şi covarianţa E [( X t − E ( X t ))( X s − E ( X s ))] = σ 2 (s ∧ t ) .

Notaţie. Fie E x ( f (Bs )) = E ( f ( x + Bs )) media lui f (Bs ) atunci când B este o mişcare

browniană a cărei stare iniţială este x . Analog, fie Px (Bs ∈ A) = P( x + Bs ∈ A)

probabilitatea variabilei aleatoare Bs când B este o mişcare browniană a cărei stare

iniţială este x şi fie Px (Bs ∈ da ) densitatea variabilei aleatoare Bs când B este o

mişcare browniană a cărei stare iniţială este x .

44
Propoziţia 2.3. Dacă (Bt , t ≥ 0) este o mişcare browniană atunci Bt are

următoarele proprietăţi:
1. Bˆ t = − Bt este o mişcare browniană;
~
2. Bt = cBt c 2 , c > 0 , este o mişcare browniană;

3. Bt = tB1 , orice t > 0 , B0 = 0 este o mişcare browniană.


t

Demonstraţie. Este suficient să verificăm caracterul gaussian al proceselor şi să


calculăm mediile şi covarianţele corespunzătoare. Verificăm pentru afirmaţia 2
axiomele din definiţia mişcării browniene.
~
1. B0 = cB0 c 2 = cB0 = 0 .
~
2. Bt are traiectorii continue şi dacă s < t atunci

~ ~
( ) ( 1
Cov Bs , Bt = c 2 Cov Bs c 2 Bt c 2 = c 2 s 2 = s .
c
)
~ ~
(
Creşterile Bt + s − Bs = cB(t + s ) c 2 − cBs c 2 = c Bt c 2 + s c 2 − Bs c 2 ) fiind multipli de variabile
aleatoare normal repartizate admit o repartiţie normală. Cum creşterile Bt c 2 + s c 2 − Bs c 2
~ ~
au media 0, rezultă şi creşterile Bt + s − Bs au media 0 iar varianţa este dată de expresia:

(
~ ~
E Bt + s − Bs )
2
(
= E cB(t + s ) c 2 − cBs c 2 )
2
(
= c 2 E Bt c 2 + s c 2 − Bs c 2 )
2
= c 2t
1
c2
=t.

3. Dacă t1 < t 2 ≤ t 3 < t 4 atunci t1 c 2 < t 2 c 2 ≤ t 3 c 2 < t 4 c 2 iar intervalele

[t
1 ] [ ]
c 2 , t 2 c 2 şi t 3 c 2 , t 4 c 2 sunt disjuncte, prin urmare creşterile corespunzătoare

sunt independente. Prin înmulţirea cu o constantă c aceste creşteri rămân independente


~ ~ ~ ~
şi deci creşterile Bt4 − Bt3 şi Bt2 − Bt1 sunt şi ele independente.
~
4. lim Bt = lim cBt c 2 = c lim Bt c 2 = 0 .
t →0 t →0 t →0

Proprietatea Markov. Pentru orice s , procesul stochastic (Wt , t ≥ 0 ) definit


def
prin Wt = Bt + s − Bs este o mişcare browniană independentă de σ - algebra Fs .

Propoziţia 2.4. Pentru o funcţie boreliană mărginită f şi pentru u şi t astfel

încât u > t are loc relaţia E ( f (Bu )Ft ) = E ( f (Bu )σ (Bt )) .

45
Demonstraţie. Având în vedere faptul că u>t putem construi creşterile
corespunzătoare procesului şi aplicăm proprietăţile mediei condiţionate:

E ( f (Bu )Ft ) = E ( f (Bu − Bt + Bt )Ft ) = Φ (u − t , Bt ) ,

unde Φ(u − t , x ) = E ( f (Bu − Bt + x )) = E ( f (Y + x )) iar Y şi Bu − Bt au aceeaşi lege de

repatiţie N (0, u − t ) .

Analog se demonstrează relaţia E ( f (Bu )σ (Bt )) = Φ (u − t , Bt ) . Prin urmare putem scrie

Φ (s , x ) =
1
f ( y ) exp−
( y − x )2 dy .
2πs

R
2s

Observaţie. Această proprietate poate fi scrisă şi cu ajutorul mediei condiţionate, astfel


putem spune că variabila aleatoare Bu condiţionată de Bt are o lege gaussiană de medie

( ) ( ) (
Bt şi varianţă u − t . Atunci E 1 Bu ≤ x Ft = E 1 Bu ≤ x σ (Bt ) = E 1 Bu ≤ s Bt , pentru t ≤ u . )
Propoziţia 2.5. (Proprietatea tare Markov). Fie T timp de oprire cu valori
finite. Atunci are loc relaţia E ( f (BT + s )FT ) = E ( f (BT + s )σ (BT )) . In particular, pentru
def
orice timp de oprire finit T , procesul (Wt , t ≥ 0 ) definit prin Wt = Bt +T − BT este o

mişcare browniană independentă de FT .


Exemplu (ecuaţia căldurii). Fie g (t , x ) densitatea unei variabile gaussiene centrate de

varianţă t . Fie q (t , x, y ) =
1
exp−
( y − x )2 = g (t , x − y ) densitatea de tranziţie a
2πt 2t

mişcării browniene. Atunci putem scrie P (Bt + s ∈ dy Bs = x ) = q(t , x, y )dy .

Derivata la dreapta a densităţii de tranziţie q este dată de ecuaţia:

∂q
(t , x, y ) = 1 ∂ q2 (t , x, y ) .
2

∂t 2 ∂y
Derivata la stânga a densităţii de tranziţie q este dată de ecuaţia:

∂q
(t , x, y ) = 1 ∂ q2 (t , x, y ) .
2

∂t 2 ∂x

46
Având în vedere proprietatea de staţionaritate a creşterilor unei mişcări browniene,
putem afirma că pentru orice funcţie boreliană mărginită are loc relaţia:

E ( f (BT ) Bt = x ) = ∫ f ( y )q(T − t , x, y )dy .
−∞

Fie
∞ ∞
u (t , x, f ) = ∫ f ( y )q(t , x, y )dy = E ( f (Bt + x )) = E ( f (Bt + s ) Bs = x ) = ∫ f (x + y )g (t , y )dy
−∞ −∞

u (0, x, f ) = f ( x )

soluţia sistemul  ∂u 1 ∂ 2 u . (1)
− + =0
 ∂t 2 ∂x 2

Pentru a calcula valoarea medie E ( f (BT )) este suficient să rezolvăm sistemul (1) şi să
observăm că E ( f (BT )) = u (T ,0, f ) . De asemenea, obţinem E ( f (BT + x )) = u (T , x, f ) .

∂ 2u
Mai mult, (t , x, f ) = ∫ f ′′(x + y )g (t , y )dy = u (t , x, f ′′) = E ( f ′′(Bt + x )) (2).
∂x 2 −∞

Atunci putem scrie:


T T
∂u 1 ∂ 2u
E ( f (BT + x )) − f ( x ) = u (T , x, f ) − u (0, x, f ) = ∫ (s, x, f )ds = ∫ 2 (s, x, f )ds ,
0
∂t 2 0 ∂x

T
1
de unde rezultă relaţia E ( f (BT + x )) = f (x ) + E ( f ′′(Bs + x ))ds .
2 ∫0

Generalizând putem spune că funcţia v(t , x, f ) = u (T − t , x, f ) este soluţia sistemului

v(T , x ) = f ( x )

 ∂v 1 ∂ 2 v
 + =0
 ∂t 2 ∂x 2

Cu condiţia v(0, x, f ) = E ( f (BT + x )) .

Propoziţia 2.6. Dacă f este o funcţie de clasă Cb1 în parametrul timp şi de

clasă Cb2 în parametrul stare atunci are loc relaţia

t
1 
E ( f (t , x + Bt )) = f (0, x ) + ∫ E  f xx′′ (s, x + Bs ) + f t′(s, x + Bs ) ds .
0 2 

47
Demonstraţie. Fie u (t , x, f ) = E ( f (t , x + Bt )) . Din relaţiile (1) şi (2) rezultă

du
(t , x, f ) = u (t , x, ∂ t f ) + 1 u (t , x, ∂ xx f ) . Prin urmare putem scrie
dt 2
u (t , x, f ) = F (t , t , x, f ) , unde F (s, t , x, f ) = E ( f (s, x + Bt )) . Aplicând teorema de

derivare a funcţiilor compuse obţinem:

du
(t , x, f ) = ∂F (t , t , x, f ) + ∂F (t , t , x, f ) = E  ∂f (s, x + Bt ) + 1 u (t , x, ∂ xx f ) .
dt ∂s ∂t  ∂t  2

Integrând relaţia în raport cu t rezultă:

t
 1 
u (t , x, f ) − u (0, x, f ) = ∫ E  f t (s, x + Bs ) + ∂ xx f (s, x + Bs ) ds .
0  2 

Observaţie. Acest rezultat poate fi generalizat la un proces X definit prin


X t = x + µt + σBt . Funcţia u (t , x, f ) = E ( f (t , x + µt + σBt )) verifică relaţia:

du
(t , x, f ) = 1 σ 2 u (t , x, ∂ xx f ) + µu (t , x, ∂ x f ) + u (t , x, ∂ t f ) şi u (0, x, f ) = f (x ) .
dt 2

1
Fie L operatorul definit prin L ( f ) = σ 2 ∂ xx f + µ∂ x f .
2
Propoziţia 2.7. Dacă f este o funcţie de clasă Cb1 în parametrul timp şi de

clasă Cb2 în parametrul stare atunci are loc relaţia

t
E ( f (t , x + µt + σBt )) = f (0, x ) + ∫ E [Lf (s, x + µs + σBs ) + ∂ t f (s, x + µs + σBs )]ds .
0

Propoziţia 2.8. Dacă Lu = 0 atunci u (t , Bt ) este un martingal.


Demonstraţie. Având în vedere că mişcarea browniană este un proces ale cărui creşteri
sunt independente rezultă

E (u (t , Bt ) F s ) = E (u (s + t − s, x + Bt − s )) x = Bs = E (u s , x (t − s, Bt − s )) x = Bs ,

unde u s , x (t , y ) = u (s + t , x + y ) . De asemenea,

t
E (u s , x (t − s, Bt = s )) = u s , x (0,0 ) + ∫ Lu s , x (ω , Bω )dω .
0

48
Din ipoteză L (u ) = 0 deci Lu s , x = 0 . Prin urmare axioma 3 din definiţia martingalului

este verificată: E (u (t , Bt ) F s ) = u s , x (0,0 ) x = Bs = u (s , B s ) .

2.4. Traiectoriile unei mişcări browniene

Traiectoriile unei mişcări browniene sunt continue.


j
Propoziţia 2.9. Fie n fixat şi t j = t pentru j cu valori între 0 şi 2 n . Atunci
2n
2n

∑ [B(t ) − B(t )]
a.s.
2
j j −1 → t pentru n → ∞ .
j =1

2n
[ ]
Demonstraţie. Fie Z = ∑ B (t j ) − B (t j −1 ) , atunci E Z tn = t . Dorim să arătăm că
t
n 2
( )
j =1

((
E Z tn − t ) ) → 0 . Avem în vedere faptul că dacă X este o variabilă a cărei lege de
2

repartiţie este N (0, σ ) şi variabila X are varianţa 2σ putem demonstra


2 2 4

convergenţa: Var (Z ) → 0 . Calculăm varianţa variabilei Z :


t
n
t
n

2n 2n 2

Var Z ( ) = ∑Var [B(t ) − B(t )]


t
n
j j −1
2  t  t2
= ∑ 2 n  = 2 n +1 2 n .
j =1 j =1  2  2

 ∞ 2
Prin urmare E  ∑ (Z tn − t )  = ∑ n < ∞ . Deci ∑ (Z )
∞ ∞
t 2
t
n
−t < ∞ şi termenul general
 n =1  n =1 2 n =1

converge aproape sigur la 0.


Propoziţia 2.10. Fie σ o partiţie a intervalului [0, t ] , 0 = t 0 ≤ t1 ≤ ... ≤ t n = t .

Fie Vt variaţia traiectoriei mişcării browniene în intervalul [0, t ] definită prin

Vt (ω ) = sup σ ∑ i
Bti +1 (ω ) − Bti (ω ) . Atunci Vt (ω ) = ∞ aproape sigur.

2n
Demonstraţie. sup σ ∑ i
Bti +1 − Bti ≥ sup n ∑ Yk
k =0
, unde Yk = Bt * − Bt * iar punctele
k +1 k

n
2
k
sunt definite astfel: t = n t . Majorând Z tn obţinem Z tn ≤  sup Bt * − Bt * ∑ Yk .
*
k
2  k k +1 k
 k =0
Cum traiectoriile sunt uniform continue pe intervalul [0, t ] , pentru n tinzând la ∞ ,

49
2n
termenul Btk +1 − Btk tinde la 0 aproape sigur. Seria ∑Y
k =0
k este crescătoare şi nu poate

avea limită finită dacă Z tn nu converge la 0.

2.5. Proprietatea de martingal

Propoziţia 2.11. Mişcarea browniană Bt este un martingal. Analog, procesul

(Bt
2
)
− t , t ≥ 0 este un martingal. Reciproc, dacă X este un proces continuu astfel încât

X şi (X t2 − t , t ≥ 0) sunt martingale atunci X este o mişcare browniană.


Demonstraţie. Calculăm mediile condiţionate ţinând cont de independenţa creşterilor în
cazul mişcării browniene şi de egalitatea E (X G ) = E ( X ) pentru, X şi G independente.

Fie s ≤ t , atunci E (Bt Fs ) = E (Bt − Bs F s ) + E (Bs F s ) = 0 + Bs . Analog se arată

( )
egalităţile: E (Bt − Bs ) F s = t − s şi
2

( ) ( ) ( ) (
E (Bt − Bs ) F s = E Bt2 + Bs2 − 2 Bt Bs F s = E Bt2 Fs + Bs2 − 2 Bs E (Bt F s ) = E Bt2 F s − Bs2
2
)
Prin urmare obţinem E (B − t Fs ) = B − s .
t
2 2
s

Observaţie. Analog se demonstrează că dacă Bt este o mişcare browniană atunci


2
e aX t − a t 2 este un martingal.
Propoziţia 2.12. Fie B1 şi B2 două mişcări browniene independente. Produsul
B1 B2 este un martingal.
Demonstraţie. Pentru demonstraţie putem utiliza proprietatea următoare: fie F şi G
două σ -algebre , X şi Y două variabile aleatoare astfel încât X ∨ F şi G sunt
independente şi Y ∨ G şi F sunt independente. Atunci are loc egalitatea
E (XY F ∨ G ) = E (X F )E (Y G ) .

1
Altă metodă: utilizăm faptul că (B1 + B2 ) este un proces gaussian de covarianţă t ∧ s
2
1
deci o mişcare browniană. Prin urmare (B1 (t ) + B2 (t ))2 − t este un martingal. Dar cum
2
1
(B1 (t ) + B2 (t ))2 − t = 1 (B12 (t ) − t ) + 1 (B22 (t ) − t ) + B1 (t )B2 (t ) obţinem rezultatul căutat.
2 2 2

50
Definiţia 2.4. Spunem că procesul B este o (G t ) - mişcare browniană dacă B şi

(B t
2
)
− t , t ≥ 0 sunt (G t ) -martingale.

  1  
Propoziţia 2.13. Pentru orice λ real, procesul  exp λBt − λ2 t , t ≥ 0  este
  2  
un martingal. Reciproc, dacă X este un proces continuu astfel încât
  1  
 exp λX t − λ2 t , t ≥ 0  este un martingal, atunci pentru orice λ real procesul X
  2  
este o mişcare browniană.
Demonstraţie. Independenţa implică egalitate:
  1     1 
E  expλ (Bt − Bs ) − λ2 (t − s ) F s  = E  expλ (Bt − Bs ) − λ2 (t − s )  . Media din
  2     2 
membrul drept se calculează ca transformata Laplace a unei variabile gaussiene.
Obţinem
  1    1    1 
E  expλ (Bt − Bs ) − λ2 (t − s )  = 1 şi E  expλBt − λ2 t  F s  = expλBs − λ2 s  .
  2    2    2 
Pentru a demonstra reciproca se ţine cont de caracterizarea variabilei gaussiene prin
intermediul transformatei Laplace.

Generalizare

Propoziţia 2.14. Fie spaţiul (Ω,F ,Ft , P ) şi fie B o Ft - mişcare browniană pe

acest spaţiu. Dacă X t = µt + σBt atunci, pentru orice β real

   
 exp β X t −  µβ + σ 2 β 2 t  , t ≥ 0  este un Ft - martingal. Reciproc, dacă X este un
1
  2   
  
   1   
proces stochastic continuu astfel încât  exp β X t −  µβ + σ 2 β 2 t  , t ≥ 0  este un
   2   
Ft -martingal, există atunci B o Ft - mişcare browniană astfel încât X t = µt + σBt .
  1  
Demonstraţie. Cum  exp λBt − λ2 t , t ≥ 0  este un martingal, trebuie doar să ţinem
  2  
1
cont de faptul că Bt = ( X t − µt ) şi să facem subtituţia λ = βσ .
σ

51
2.6. Timp de lovire

Propoziţia 2.15. Fie (Bt , t ≥ 0) o mişcare browniană şi fie a un număr real. Fie

Ta = inf {t ≥ 0; Bt = a}. Atunci Ta este un timp de lovire finit aproape sigur, cu

E (Ta ) = ∞ . Pentru λ ≥ 0 are loc relaţia E (exp− λTa ) = exp − a 2λ . ( )


Demonstraţie. Variabila aleatoare Ta este un timp de oprire. Prin urmare pentru a > 0

avem Ta = inf {t ≥ 0; Bt ≥ a}. Se obţine atunci relaţia

{Ta ≤ t} = sup Bs
 s ≤t
( )
≥ a  = {∀ε∃s ∈ Q : Bs > a − ε } = ∩ ε ∈Q + ∪ s ≤t , s∈Q {Bs > a − ε }

care spune că {Ta ≤ t} se obţine din reuniuni şi intersecţii numărabile de elemente din

Ft , prin urmare aparţine acestei σ -algebre.


Pentru a calcula transformata Laplace a legii variabilei aleatoare Ta , mai precis

( )
E e − λTa , utilizăm faptul că t ∧ Ta este timp de oprire mărginit şi teorema de orpire a lui

  λ2 
Doob. Astfel, pentru orice t avem E exp λBt ∧Ta − (t ∧ Ta ) = 1 . Cum t tinde la ∞ ,
  2 
şi Ta este finit are loc relaţia Bt ∧Ta → BTa = a . De asemenea putem scrie:

 λ2   λ2 
exp λBt ∧Ta − (t ∧ Ta ) → exp λa − Ta  .
 2   2 

Pentru Ta infinit avem Bt ∧Ta ≤ a şi (t ∧ Ta ) = t → ∞ .

 λ2 
Prin urmare exp λBt ∧Ta − (t ∧ Ta ) → 0 . Trecând la limită şi utilizând teorema
 2 

  λ2  
convergenţei dominante a lui Lebesgue, E  1Ta <∞ exp − Ta   = exp(− aλ ) . Pentru a
  2 
obţine E (Ta ) derivăm în raport cu λ şi punem condiţia λ = 0 .

De asemenea, se poate spune că pentru a > 0 şi λ > 0 , martingalul


 λ2 
exp λBt ∧Ta − (t ∧ Ta ) este mărginit, deci este uniform integrabil şi se aplică teorema
 2 
de oprire a lui Doob pentru t = ∞ .

52
Se observă că pentru a < 0 , Ta = inf {t ≥ 0 ; Bt = a} = inf {t ≥ 0 ;Wt = − a}, unde

(
W = − B . Egalitatea E (exp − λTa ) = exp − a 2λ ) nu este adevărată pentru orice a.

Dacă a < 0 şi λ > 0 , termenul din membrul stâng este mai mic decât 1 în timp ce
termenul din membrul drept este mai mare decât 1.
Densitatea variabilei aleatoare Ta pentru a > 0 este dată de formula

a  a2 
exp −  şi se determină aplicând inversa transformatei Laplace.
2πt 3  2t 
In mod analog se obţin următoarele rezultate:

• ( ) [ (
Fie Tˆa = inf {t ≥ 0 ; Bt = a}, cu a > 0 atunci E exp− λTˆa = cosh a 2λ )]−1
.

b
• Dacă a ≤ 0 ≤ b atunci P(Ta < Tb ) = .
b−a
• Dacă c şi d sunt reali pozitivi şi T = Tc ∧ T− d atunci

  λ2   sinh (λd )   λ2  cosh (λ (c − d ) 2)


E exp − T 1T =Tc  = şi E exp − T  = .
  2   sinh (λ (c + d ))   2  cosh (λ (c + d ) 2)

Generalizare

Dacă X t = µt + Bt şi Taµ = inf {t ≥ 0 ; X t = a} atunci utilizând martingalul

   
 exp β X t −  µβ + σ 2 β 2 t , t ≥ 0  putem spune că pentru µ > 0 şi λ > 0 are loc
1
  2   
  
relaţia

( ) (
E exp− λTaµ = exp µa − a µ 2 + 2λ , )
1
unde λ = µβ + σ 2 β 2 .
2
Pentru λ = 0 obţinem P(Ta < ∞ ) . Dacă a şi µ au acelaşi semn atunci această cantitate
este 1.

53
2.7. Mişcarea browniană multidimensională

Fie Bt = (Bt(1) , Bt(2 ) ,....., Bt(n ) ) un proces stochastic n -dimensional. Spunem că


T

B este o mişcare browniană multidimensională dacă procesele stochastice (B (i ) , i ≤ n )


sunt mişcări browniene independente. Bt este un proces cu creşteri independente.

Pentru fiecare pereche (a, b ) procesul aBt(1) + bBt(2 ) este un proces gaussian. Este uşor de

1
(aB ( ) + bB ( ) ) este o mişcare browniană.
def
verificat faptul că Bt = t
1
t
2

a +b
2 2

Dacă B este o mişcare browniană n -dimensională atunci are loc relaţia


E (BtT Bs ) = n(s ∧ t ) .
Procesul n -dimensional B este o mişcare browniană dacă şi numai dacă
procesele B (i ) şi B (i ) B ( j ) − δ i , j t sunt martingale, unde δ i ,i = 1 şi δ i , j = 0 pentru i ≠ j .

Dacă B1 şi B2 sunt două mişcări browniene independente cu valori reale, atunci


produsul B1 B2 este un martingal.
Spunem că mişcările browniene cu valori reale B1 şi B2 sunt corelate şi au
coeficientul de corelaţie ρ , dacă B1 (t )B2 (t ) − ρt este un martingal.
1
Fie procesul B3 definit prin B3 (t ) = (B2 (t ) − ρB1 (t )) . Atunci B3 este un
1− ρ 2
martingal. Din relaţia

(B3 (t ))2 − t = 1
1− ρ 2
[
(B2 (t ))2 + ρ 2 (B1 (t ))2 − 2 ρB2 (t )B1 (t ) − t (1 − ρ 2 ) = ]

=
1
1− ρ 2
[ [ ]
(B2 (t ))2 − t + ρ 2 (B1 (t ))2 − t − 2 ρ [B2 (t )B1 (t ) − ρt ] ]
rezultă (B3 (t )) − t este un martingal şi deci B3 este o mişcare browniană. Se poate
2

demonstra că B1 şi B3 sunt independente iar B1 B3 este un martingal . In cazul în care

B1 B3 este un martingal, există o mişcare browniană B (3) independentă de B (2 ) astfel

încât B (1) = ρB (2 ) + 1 − ρ 2 B (3) şi pentru orice pereche (a, b )

procesul Bt =
1
(aB ( ) + bB ( ) ) este o mişcare browniană.
1 2

a + b + 2 ρab
2 2

54
2.8. Integrala Weiner

( )
Definiţia 2.5. Fie L2 R + mulţimea funcţiilor boreliene f definite pe R + cu

∫ f (s )
2
valori în R de pătrat integrabile, adică ds < ∞ . Acest spaţiu înzestrat cu norma
0

12
∞ 
f 2
=  ∫ f 2
(s )ds  este un spaţiu Hilbert.
0 

Funcţii scară


Pentru f = 1(u ,v ] , avem ∫ f (s )dBs = B(v ) − B(u ) .
0

∞ n
Fie f o funcţie scară, atunci putem scrie ∫ f (s )dBs = ∑ f i −1 (B(t i ) − B(t i −1 )) .
0 i =1

def ∞
Variabila aleatoare I ( f ) = ∫ f (s )dB s este o variabilă gaussiană de medie 0 şi varianţă
0

∫ f (s )ds . Cum B este o variabilă gaussiană centrată rezultă că I ( f ) este o variabilă


2

gaussiană centrată. Mai mult varianţa variabilei I ( f ) este dată de relaţia:

n n ∞
Var (I ( f )) = ∑ f i −21Var (B(t i ) − B(t i −1 )) = ∑ f i −21 (t i − t i −1 ) = ∫ f 2
(s )ds .
i =1 i =1 0

Integrala este liniară I ( f + g ) = I ( f ) + I (g ) . Dacă f şi g sunt funcţii scară atunci

E (I ( f )I ( g )) = ∫ f (s )g (s )ds şi prin urmare putem scrie relaţia:


R+

Var (I ( f + g )) = Var (I ( f ) + I ( g )) = Var (I ( f )) + Var (I ( g )) + 2 E (I ( f )I (g )) =

∞ ∞ ∞ ∞
= ∫ ( f + g ) (s )ds + ∫ f (s )ds + ∫ g 2 (s )ds + 2∫ f (s )g (s )ds .
2 2

0 0 0 0

55
Cazul general

Dacă f aparţine L2 (R + ) , există un şir de funcţii scară f n convergent în L2 (R + )



la f , adică un şir care verifică relaţia ∫ fn − f
2
(x )dx n→
→∞
0 . In acest caz, şirul f n este
0


şir Cauchy în L2 (R + ) . Şirul de variabile aleatoare Fn = ∫ f n (s )dBs este un şir Cauchy în
0

spaţiul Hilbert L2 (Ω ) , prin urmare este convergent. Este suficient să demonstrăm că


limita depinde numai de f şi nu de alegerea lui fn . Fie
def ∞ ∞
I( f ) = ∫ f (s )dBs = lim ∫ f n (s )dBs , limita fiind considerată în L2 (Ω ) . In aceste condiţii
n →∞
0 0

spunem că I ( f ) este integrala stochastică sau integrala Weiner a lui f în raport cu B .



Subspaţiul L (Ω ) al variabilelor aleatoare
2
∫ f (s )dB s coincide cu spaţiul gaussian
0

generat de mişcarea browniană.

Proprietăţi
Aplicaţia f → I ( f ) definită pe L2 (R + ) cu valori în L2 (Ω ) este liniară şi
verifică proprietatea de izometrie. Liniaritatea se referă la relaţia I ( f + g ) = I ( f ) + I ( g )
iar izometria se referă la faptul că norma lui I ( f ) este egală cu norma lui f . Norma lui

I ( f ) este norma pe L2 (Ω ) definită prin I ( f ) = E (I ( f ))


2
( 2
) iar norma lui f este

norma pe L (R ) definită prin =∫f (s )ds .
2 + 2 2
f
0

Proprietatea de izometrie implică E (I ( f )I ( g )) = ∫ f (s )g (s )ds .


R+

Fie f din L2 (R + ) . Variabila I ( f ) este o variabilă aleatoare gaussiană cu media

∫ f (s )ds din spaţiului gaussian generat de (B , t ≥ 0) , iar pentru orice


2
0 şi varianţa t t
+
R

  t
verifică relaţia: E  Bt ∫ f (s )dBs  = ∫ f (s )ds . Acestă relaţie este o caracterizare a

 R+  0

56
t
integralei stochastice în sensul următor: dacă pentru orice t , E (ZBt ) = ∫ f (s )ds atunci
0


Z = ∫ f (s )dBs .
0

Demonstraţie. Este suficient să observăm egalitatea:

  t 
E  B(t ) ∫ f (s )dBs  = E  ∫ dBs ∫ f (s )dBs  .
   
 R+  0 R+ 

t ∞
Fie f din L2 (R + ) . Definim variabila aleatoare ∫ f (s )dBs = ∫ 1[0,t ] (s ) f (s )dBs .
0 0

∫ f (s )
2
Analog, pentru orice T şi pentru funcţii f care verifică condiţia ds < ∞ ,
0

t
putem defini ∫ f (s )dB
0
s ceea ce permite definirea integralei stochastice pentru o clasă

mai largă de funcţii. Notăm acestă clasă prin L2loc .


t
Propoziţia 2.16. Fie f din L2loc şi fie M t = ∫ f (s )dBs . Atunci:
0

1. dacă procesul M este un martingal continuu, atunci variabila aleatoare M t


t

∫ f (s )ds .
2
are media 0 şi varianţa
0

2. procesul M este un proces gaussian centrat, cu creşteri independente, a cărui


t ∧s

∫ f (u )du .
2
covarianţă este
0

 t

3. procesul  M t2 − ∫ f 2
(s )ds, t ≥ 0  este un martingal.
 0 
4. dacă f şi g sunt din L2loc atunci are loc relaţia

t s
 t ∧s
E  ∫ f (u )dBu ∫ g (u )dBu  = ∫ f (u )g (u )du .
0 0  0

57
Demonstraţie. Considerăm cazul în care f este o funcţie elementară şi trecem la
limită. Pentru a verifica faptul că M un martingal demonstrăm că pentru
n t 
f = ∑ f i −1 1(ti −1 ,ti ] are loc relaţia : 0 = E (M t − M s F s ) = E  ∫ f (u )dBu F s  .
i =1 s 

t 
Presupunem t i < s < t ≤ t i +1 , atunci E  ∫ f (u )dBu F s  = f i E ((Bt − Bs ) F s ) şi relaţia
s 
precedentă este demonstrată.
Presupunem t i < s ≤ t i +1 ≤ t j < t ≤ t j +1 , atunci

t  
( ) 
j −1
(
E  ∫ f (u )dBu F s  = E  f j Bt − Bt j + ∑ f k Btk +1 − Btk + f i Bti +1 − Bs F s  = ) ( )
s   k =i +1 

( ) ∑ f E (B
j −1
= f j E Bt − Bt j F s + k t k +1 ) (
− Btk F s + f i E Bti +1 − Bs F s = 0 )
k = i +1

Analog se procedează în celelelate cazuri. In particular are loc relaţia:

 t 2

( )
E M − M F s = E (M t − M s )
t
2 2
s ( 2
)  
Fs = E   ∫ f (u )dBu  Fs  =
 s  

( (
= E ∑ f (t k ) Btk +1 ∧t − Btk ∧t Fs = ∑ f )
2
) 2
(t k )((t k +1 ∧ t ) − (t k ∧ t )) .

Propoziţia 2.17. Dacă f este o funcţie de clasă C 1 atunci are loc formula:

t t

∫ f (s )dBs = f ( f )B(t ) − ∫ f ′(s )Bs ds .


0 0

Demonstraţie. Pentru a demonstra formula este suficient să arătăm că are loc egalitatea:

 t    t
 t ∧u
E  Bu ∫ f (s )dBs  = E  Bu  f (t )Bt − ∫ f (s )Bs ds  . Membrul stâng este egal cu ∫ f (s )ds .
 ′ 
 0    0  0

Membrul drept se calculează având în vedere egalităţile:

 t  t
E (Bu f (t )Bt ) = f (t )(t ∧ u ) şi E  Bu ∫ f ′(s )Bs ds  = ∫ f ′(s )(s ∧ u )ds .
 0  0

58
In aceste condiţii relaţia căutată rezultă aplicând formula clasică de integrare prin părţi
b
pentru o expresie de tipul ∫ sf ′(s )ds .
0

Observaţie. Formula poate fi rescrisă în forma: d (Bt f (t )) = f (t )dBt + bt f ′(t )dt .

2.9. Mişcarea browniană geometrică

Definiţia 2.6. Fie B o mişcare browniană şi fie b şi σ două constante. Atunci


 1  
procesul stochastic X t = X 0 exp b − σ 2 t + σBt  se numeşte mişcare browniană
 2  
 1 
geometrică sau proces log-normal. Prin urmare ln X t = b − σ 2 t + σBt + ln x iar
 2 
variabila din membrul drept are o lege de repartiţie normală.
Propoziţia 2.18. Procesul X t e −bt este un martingal.

 1  
Din expresia X t = X s exp b − σ 2 (t − s ) + σ (Bt − Bs ) rezultă caracterul markovian
 2  
al lui X . Caracterul markovian al lui X şi proprietăţile mişcării browniene permit
calcularea următoarei medii condiţionate:

  1   
E (X t F s ) = X s E  exp b − σ 2 (t − s ) + σ (Bt − Bs ) F s  =
  2   

  1   
= X s exp(b(t − s ))E  exp  − σ 2 (t − s ) + σ (Bt − Bs ) F s  =
  2   

  1  
= X s exp(b(t − s ))E  exp − σ 2 (t − s ) + σBt − s   = X s e b (t − s ) = E ( X t X s ) .
  2  

Analog, fie G o variabilă aleatoare cu legea de repartiţie N (0,1) , atunci are loc relaţia:

   1  
E ( f ( X t )F s ) = E ( f ( X t ) X s ) = E  f  x exp b − σ 2 (t − s ) + σ (Bt − Bs )   =
  2     x = X s
 

   1  
= E f  x exp b − σ 2 (t − s ) + σG t − s    =
  2     x = X s
 

  1  
= ∫ f  X s exp b − σ 2 (t − s ) + σy t − s  q (1,0, y )dy
−∞  2  

59
Observaţie. Acest proces este deseori utilizat pentru modelarea preţului activelor.
Randamentul unui activ între două date fixate este dat de variabila gaussiană

 1 2
b − σ (t − s ) + σ (Bt − Bs ) .
 2 

Calcularea momentelor unei mişcări browniene geometrice este relativ simplă.


De exemplu, E ( X t ) = X 0 e bt . Pentru calcularea momentului de ordinul doi este
suficientă următoarea transformare:
 
E (X t2 ) = X 02 E (exp{(2b − σ 2 )t + 2σBt }) = X 02 E  exp(2b | +σ 2 )t − (2σ ) t + (2σ )Bt   =
 1 2

  2 

[( )]
= X 02 exp 2b + σ 2 t . Prin urmare VarX t = x 2 e 2bt e σ t − 1 . ( 2
)
E(X t ) − x
Raportul lui Sharp este dat de formula .
VarX t

Proces Ornstein-Uhlenbeck

t
Propoziţia 2.19. Ecuaţia lui Langevin Vt = − ∫ aVs ds + σBt + V0 (sau altfel scris
0

dVt + aVt dt = σdBt ) are ca soluţie unică variabila aleatoare

t
Vt = e V0 + ∫ e −(t − s )aσdBs .
−ta

Observaţie. Variabila aleatoare V0 , mişcarea browniană B şi constantele a şi σ sunt


date.
t
Demonstraţie. Fie X = ( X t , t ≥ 0 ) procesul definit prin e −taV0 + ∫ e −(t − s )aσdBs .
0

Verificăm faptul că X este soluţie a ecuaţiei lui Langevin. Aplicând formula integrării
t t
 t

prin părţi obţinem: ∫ e −(t − s )aσdBs = σe − at ∫ e sa dBs = σe − at  e at Bt − a ∫ e sa Bs ds  .
0 0  0 
t
Atunci are loc relaţia: X t = e −taV0 + σBt − σe − at a ∫ e sa Bs ds .
0

60
t t t t
 s ua 
∫0 ∫0 σ ∫0 σ ∫0  ∫0  ds . Calculând integrala
− sa − as
Calculăm X s ds = e V 0 ds + B s ds − a e e Bu du 

1 
t t t t

∫ due Bu ∫ dse =  ∫ Bs ds − e ∫ e − as ds  .
ua − as − at
dublă din membrul drept rezultă
0 u
a 0 0 
Inlocuirea rezultatului obţinut în relaţia precedentă implică:
t t
(
a ∫ X s ds = V0 1 − e − at
) + σa ∫ e ( a s −t )
Bs ds = − X t + σBt + V0 .
0 0

Prin urmare X verifică ecuaţia lui Langevin.


Analog, notând Yt = e − atVt şi aplicând formula integrării prin părţi
t
dYt = e − at
dVt − ae Vt dt = e σdBt obţinem soluţia Yt = Y0 + ∫ e − asσdBs .
− at − at

Propoziţia 2.20. Dacă V0 este o variabilă aleatoare reală, gaussiană,

independentă de mişcarea browniană (în particular dacă V0 este o constantă) atunci,

procesul V, numit proces Ornstein-Uhlenbeck, este gaussian cu media


s
E (Vt ) = e −ta E (V0 ) şi covarianţa cov[Vs , Vt ] = e − sa ve −ta + ∫ e −( s −u )aσ 2 e −(t −u )a du , pentru
0

s ≤ t şi v varianţa lui V0 . Procesul V este un proces Markov.


Demonstraţie. Având în vedere forma soluţiei ecuaţiei lui Langevin şi faptul că media
integralei stochastice este 0, rezultă E (Vt ) = e −ta E (V0 ) şi

 s t

cov[Vs , Vt ] = covV0 e − as + σe − as ∫ e au dBu , V0 e − at + σe − at ∫ e au dBu  =
 0 0 

s t

( )
= cov V0 e − as , V0 e − at + σ 2 e − as e − at cov ∫ e au dBu , ∫ e au dBu  =
0 0 

s ∧t
= ve − as e − at + σ 2 e − as e − at ∫ e 2 au du .
0

Caracterul gaussian este uşor de stabilit iar unicitatea se demonstrează prin reducere la
absurd.

61
σ2
In particular, dacă V0 este o constantă ( v = 0 ) atunci cov[Vs ,Vt ] =
2a
( )
e − a ( s +t ) e 2 as − 1 şi

σ2
Var (Vt ) = (1 − exp− 2at ) .
2a
s s
Scriind Vs = e − saV0 + ∫ e −( s −u )aσdBu şi Vs e ( s −t )a = e −taV0 + ∫ e −(t −u )aσdBu obţinem pentru
0 0

s ≤ t relaţia:
t t
~
Vt = Vs e −(t − s )a + ∫ e −(t −u )aσdBu sau Vt + s = Vs e −ta + ∫ e −(t −u )aσdBu ,
s 0

~
unde Bu = Bs +u − Bs este o mişcare browniană independentă de F s şi deci de Vs . In

( ( ) )
particular, E ( f (Vt + s )F s ) = E f Vs e − ta + Y F s = E ( f (Vt + s )Vs ) , unde Y este o variabilă

aleatoare independentă de F s , ceea ce stabileşte caracterul markovian al lui V .

Calculul poate fi refăcut utilizând relaţia ( ( ) ) ( )


E f Vs( x )e − ta + Y F s = Ψ Vs( x ) , unde
t
( ( ))
Ψ ( y ) = E f ye −ta + Y = E f Vt ( y ) ( ( )) şi V ( ) = e
t
x −ta
x + ∫ e −(t − s )aσdBs .
0

t
Propoziţia 2.21. Variabila aleatoare ∫ V ds ,
0
s este o variabilă aleatoare

1 − e − at σ2 σ 2  1 − e − at 
şi varianţa − 3 (1 − e − at ) + 2  t −
2
gaussiană, cu media V0  .
a 2a a  a 

Modelul Vasicek

O generalizare a modelului precedent este ecuaţia drt = a (b − rt )dt + σdBt . In

această formă el este utilizat pentru studierea fluctuaţiei ratei dobânzii şi este cunoscut
sub numele de modelul lui Vasicek.
t
Forma explicită a soluţiei ecuaţiei este rt = (r0 − b )e − at
+ b + σ ∫ e − a (t −u ) dBu .
0

Notăm rt − b = Vt , atunci procesul V este soluţia ecuaţiei lui Langevin. Egalitatea


t
rt = (rs − b )e − a (t − s ) + b + σ ∫ e − a (t −u ) dBu , s ≤ t , stabileşte caracterul markovian al lui r .
s

62
Dacă r0 este constantă, atunci rt este o variabilă gaussiană cu media (r0 − b )e − at + b şi

σ2
varianţa (1 − exp− 2at ) . Procesul r este gaussian cu covarianţa:
2a

σ2
Cov(rs , rt ) =
2a
( )
e − a ( s + t ) e 2 as − 1 , s ≤ t .

Propoziţia 2.22. Pentru s < t , şi pentru procesul r definit mai sus au loc
următoarele formulele:

σ2
E (rt rs ) = (rs − b )e − a (t − s ) + b şi var(rt rs ) =
2a
(1 − e − 2 a (t − s )
).
t
Propoziţia 2.23. Variabila aleatoare ∫ r ds este o variabilă gaussiană cu media
0
s

t  1 − e − at σ2 σ 2  1 − e − at 
E  ∫ rs ds  = bt + (r0 − b ) şi varianţa − 3 (1 − e − at ) + 2  t −
2
 .
0  a 2a a  a 
t
Demonstraţie. Prin definiţie rt = r0 + abt − a ∫ rs ds + σBt . De unde rezultă relaţia:
0

t
1  t

∫ rs ds = [− rt + r0 + abt + σBt ] = 1 − (r0 − b )e −at − b − σ ∫ e −a (t −u ) dBu + r0 + abt + σBt  .
0
a a 0 

In general, pentru t ≥ s au loc formulele:

t  1 − e − a (t − s )
E  ∫ ru du F s  = b(t − s ) + (rs − b ) = M (t , s )
s  a

t  σ2 σ2  1 − e − a (t − s ) 
(
Var  ∫ ru du F s  = − 3 1 − e − a (t − s ) )2
+ t − s −  = V (t , s ) .
s  2a a 2  a 

t
Cum variabila ∫ ru du este gaussiană cu media şi varianţa condiţionate de F s cunoscute
s

atunci are loc relaţia:

 t
  1 
E  exp− ∫ ru du F s  = exp − M (t , s ) + V (t , s ) .
 s   2 

63
Observaţie. Acest calcul este utilizat pentru evaluarea obligaţiunilor cu cupon zero:

dacă B(t , T ) este valoarea unei obligaţiuni cu cupon zero a cărei termen de scadenţă
este T , atunci

  T  
B(t , T ) = E  exp − ∫ ru du  Ft 
 
  t  

şi

 1 − e − a (t − s ) σ 2 σ2  1 − e − a (t − s )  
B(t , T ) = exp b(t − s ) + (rs − b ) (
− 3 1 − e − a (t − s ) )
2
+ t − s − 
 a 4a 2 sa 2  a 

Bibliografie

D. Revuz, M. Yor - Continuous Martingales and Brownian Motion. Springer,


Berlin, 1991

A. Borodin, P. Salminen - Handbook of Brownian Motion: facts and formulae.


BirkhÄauser, 1996

Malliaris A. G. - Stochastic Methods in Economics and Finance,


Advanced Textbooks in Economics, vol. 17, Elsevier
Science, 1982

64
Capitolul 3

Calcul stochastic

In acest capitol definim variabile aleatoare de forma

t 
ω → Yt (ω ) =  ∫ X s dBs (ω ) ,
0 

unde ( X t , t ≥ 0) este un proces sigur (determinat) şi (Bt , t ≥ 0) este o mişcare

browniană. Problema care apare este legată de elementul diferenţial dBs , deoarece

funcţia s → Bs nu este derivabilă. Un instrument adecvat a fost introdus în 1942 de K.

Itô. Acest instrument se numeşte integrală stochastică şi permite construirea în anumite


condiţii a variabilei Yt (ω ) sub forma unui martingal.

3.1. Integrala stochastică

3.1.1. Definiţie

Fie (Ω,F , P ) un spaţiu probabilistic, fie B o mişcare browniană pe acest spaţiu


şi fie Ft = σ (Bs , s ≤ t ) filtrarea naturală a mişcării browniene B .

Definiţia 3.1. Spunem că un proces θ este elementar dacă există un şir de


numere reale t j , 0 ≤ t 0 ≤ t1 ≤ .... ≤ t n şi un şir de variabile aleatoare θ j din L2 (Ω ) ,

Ft -măsurabile, cu
j
proprietatea θ t = θ j pentru orice t ∈ (t j , t j +1 , mai precis ]
n −1
θ s (ω ) = ∑ θ j (ω )1(t j , t j +1 ] (s ) .
j =0

Definiţia 3.2. Definim integrala Weiner a procesului elementar θ în raport cu


mişcarea browniană B prin relaţia :
∞ n −1

∫ θ s dBs = ∑θ j (B(t j +1 ) − B(t j )) .


0 j =0

65
∞  ∞  ∞ 2 
Atunci au loc relaţiile: E  ∫ θ s dBs  = 0 şi Var  ∫ θ s dBs  = E  ∫ θ s dBs  .
   
0  0  0 
Obţinem:
t n −1

∫ θ s dBs = ∑θ j (B(t j +1 ∧ t ) − B(t j ∧ t )) ,


0 j =0

t
de unde rezultă cotinuitatea aplicaţiei t → ∫ θ s dBs . Fie T j un şir crescător de timpi de
0

n −1
oprire 0 ≤ T0 ≤ T1 ≤ .... ≤ Tn , şi fie θ s (ω ) = ∑ θ j (ω )1 (T j ,T j +1 ] (s ) , unde θ j este un şir de
j =0

variabile aleatoare din L2 (Ω ) , FT j - măsurabile. In aceste condiţii putem defini

următoarea integrală:
t n −1

∫ θ s dBs = ∑θ j (B(T j +1 ∧ t ) − B(T j ∧ t )) .


0 j =0

Cazul general

Definiţia integralei Weiner poate fi extinsă la o clasă mai largă de procese


stochastice.
Definiţia 3.3. Procesele θ continue la stânga cu limită la dreapta, Ft -adaptate

def ∞ 
= E  ∫ θ t2 dt  < ∞ , se numesc procese càglàd de pătrat integrabile,
2
pentru care θ
0 
( )
adică procese din L2 Ω × R + . Notăm cu Γ mulţimea acestor procese.
Observaţie. Procesele elementare aparţin mulţimii Γ .

Definiţia 3.4. Spunem că θ n converge la θ în L2 (Ω × R + ) dacă θ − θ n


2
→0

pentru n → ∞ .
Observaţie. Aplicaţia θ → θ defineşte o normă care face din Γ un spaţiu complet.

Putem defini ∫ θ dB
0
s s pentru orice proces θ din Γ : privim θ prin prisma

k (n )
~ ~
proceselor elementare. In acest sens, fie θ = lim θ n , unde θ n = ∑ θ jn 1 (t j ,t j +1 ] cu θ jn din
n →∞
j =1

66

Ft , limita fiind considerată în L2 (Ω × R + ) . Atunci integrala ∫ θ s dBs este limita în
j
0

k (n )

∑ θ (B(t ) − B(t )) iar media şi varianţa au valorile 0 şi respectiv


~
L2 (Ω ) a sumei j
n
j +1 j
j =1

 ~ 
E  ∑ θ j2 (t j +1 − t j ) . Atunci au loc relaţiile:
 j 
2
∞  ∞  ∞ 
. E  ∫ θ s dBs  = 0 şi E  ∫ θ s dBs  = E  ∫ θ s2 ds 
0  0  0 

t ∞
Notăm ∫ θ dB = ∫ θ 1[ ] (s )dB
0
s s
0
s 0 ,t s . Dacă θ este un proces elementar atunci

∫ θ dB = ∑θ (B
0
s s
i
i t i +1 ∧ t )
− Bti ∧t . Mai general, dacă τ este timp de oprire procesul 1(0,τ ] (t )

τ ∧t t
este adaptat şi definim ∫ θ dB = ∫ θ 1( τ ] (s )dB
0
s s
0
s 0, s .

3.1.2. Proprietăţi

Fie Λ mulţimea proceselor θ adaptate, càglàd din L2loc Ω × R + cu proprietatea ( )


t 
E  ∫ θ s2 (ω )ds  < ∞ , pentru orice t .
0 
Liniaritatea. Fie a şi b două constante şi fie θ i ; i = 1,2 două procese din Λ . ( )
t t t

∫ (aθ + bθ s2 )dBs = a ∫ θ s1 dBs + b ∫ θ s2 dBs .


1
Atunci are loc relaţia: s
0 0 0

Proprietatea de martingal
t
Propoziţia 3.1. Fie M t = ∫ θ s dBs , unde θ aparţine Λ . Atunci:
0

1. procesul M este un martingal cu traiectorii continui.


2
t  t
2. dacă N t =  ∫ θ s dBs  − ∫ θ s2 ds , procesul ( N t , t ≥ 0 ) este un martingal.
0  0

Demonstraţie. Demonstraţiile celor două proprietăţi se fac mai întâi pentru cazul în
care procesele sunt elementare şi apoi prin trecere la limită pentru procese din Λ .
67
t  s
Proprietatea de martingal se transcrie astfel: E  ∫ θ u dBu F s  = ∫ θ u dBu , pentru

0  0

t  t 
orice t ≥ s , sau E  ∫ θ u dBu F s  = 0 şi în particular rezultă E  ∫ θ u dBu  = 0 .
 
s  s 

 t 
2
 t 
Proprietatea 2 este echivalentă cu relaţia E  ∫ θ u dBu  F s  = E  ∫ θ u2 du Fs  .
 s   s 

Pentru a defini M t pentru t ≤ T este suficient să punem condiţia ca procesul θ să fie

T 
din L2 (Ω × [0, T ]) , adică să fie adaptat şi E  ∫ θ t2 dt  < ∞ . In aceste condiţii (M t , t ≤ T )
0 
este un martingal.
Propoziţia 3.2. Media procesului M t este E (M t ) = 0 iar varianţa este
t
Var (M t ) = ∫ E (θ s ) ds . Fie φ din Λ , atunci are loc relaţia:
2

t t
 t 
E  ∫ θ s dBs ∫ φ s dBs  = E  ∫ θ sφ s ds  .
 
0 0  0 

t t t
Dacă M t (θ ) = ∫ θ s dBs şi M t (ϕ ) = ∫ ϕ s dBs atunci procesul M t (θ )M t (ϕ ) − ∫ θ sϕ s ds
0 0 0

este un martingal.
t
Demonstraţie. Este suficient să observăm faptul că ∫ (θ
0
s + φ s )dBs şi

2
t  t
 ∫ (θ s + φ s )dBs  − ∫ (θ s + φ s )2 ds sunt martingale.
 
0  0

Propoziţia 3.3. Fie τ un timp de oprire şi fie θ un proces F B -adaptat astfel


2
τ  τ  τ  τ 
încât E  ∫ θ s2 ds  < ∞ . Atunci E  ∫ θ s dBs  = 0 şi E  ∫ θ s dBs  = E  ∫ θ s2 ds  .
0  0  0  0 
t
Exemplu. Pentru orice t are loc relaţia ∫ B dB
s s =
2
(
1 2
Bt − t )
0

68
t
Demonstraţie. Prin definiţie ∫ B dB
s s (
= lim ∑ Bt i Bti +1 − Bti . Egalitatea )
0

( ) ( ) ( )
n n n
2∑ Bti Bti +1 − Bti = ∑ Bt2i +1 − Bt2i − ∑ Bti +1 − Bti
2

i =0 i =0 i =0

implică relaţia:

[ ]
t
1 2
(2
)
n
1
∫ Bs dBs = 
2
Bt − lim
n

i =0
Bti +1 − Bti  = Bt2 − t .
 2
0

Propoziţia 3.4. Fie θ din Λ , atunci are loc următoarea relaţie :

  
2
 T  
2

[ ]
s T
 
E sup ∫ θ u dBu  ≤ 4 E  ∫ θ u dBu  = 4 ∫ E θ u2 du .
 s ≤T   
 0    0   0

Demonstraţie. Afirmaţia rezultă din inegalitatea lui Doob.

3.1.3. Proces Itô

t t
Definiţia 3.5. Un proces X este un proces Itô dacă X t = x + ∫ bs ds + ∫ σ s dBs ,
0 0

t
unde b este un proces adaptat astfel încât ∫b
0
s ds există (în sens Lebesque) aproape

sigur pentru orice t şi σ este un proces din Λ .

dX t = bt dt + σ t dBt
Procesul Itô poate fi scris şi în forma  .
X 0 = x

Coeficientul b este cunoscut sub numele de derivă iar σ este coeficientul de difuzie.
~
Scrierea dX t = bt dt + σ t dBt este unică. Adică dacă dX t = bt dt +σ tdBt = bt dt + σ~t dBt
~
atunci b = b şi σ = σ~ . In particular, dacă X este un martingal local b = 0 şi reciproc.
Proprietăţi. 1. Dacă σ este un proces din Λ atunci
t
E ( X t ) = E ( X 0 ) + ∫ E (bs )ds şi pentru orice t ≥ s are loc relaţia:
0

s
t  s t 
E (X t F s ) = X 0 + ∫ bu du + E  ∫ bu du Fs  + ∫ σ u dBu = X s + E  ∫ bu du Fs  .
0 s  0 s 

69
2. Dacă b ≡ 0 şi σ ∈ Λ atunci procesul X este un martingal continuu.
Reciproca este adevărată: în condiţii bine stabilite de integrabilitate şi măsurabilitate
t
orice martingal continuu poate fi scris în forma x + ∫ φ s dBs .
0

Fie X un proces Itô, dX t = bt dt + σ t dBt , atunci având în vedere de condiţiile


t def t t
de integrabilitate putem defini ∫ θ s dX s = ∫ θ s bs ds + ∫ θ sσ s dBs .
0 0 0

Croşetul unui proces Itô. Fie Z un martingal continuu de pătrat integrabil,


( )
E sup t Z t2 < ∞ . Se poate demonstra că există un proces crescător continuu A astfel

încât (Z t2 − At , t ≥ 0) este un martingal. Procesul A se numeşte “croşetul” lui Z şi

notăm At = Z , Z t
sau At = Z t .

Demonstraţie. Se are în vedere descompunerea următoare:


( ) (
Z t2 = Z 02 + ∑ Z t2∧tk +1 − Z t2∧tk = Z 02 + 2∑ Z t ∧tk +1 Z t2∧tk +1 − Z t ∧tk + ∑ Z t ∧tk +1 − Z t2∧tk ( ))
t
→ Z + 2 ∫ Z s dZ s + At
2
0
0

Observaţie. Croşetul unei mişcări browniene este t . Croşetul unei integrale stochastice
t t
M t = ∫ θ s dBs este ∫θ
2
s ds . Croşetul a două martingale locale continue este dat de
0 0

formula: M,N t
=
1
2
(M + N, M + N t
− M,M t
− N, N t
). Croşetul a două

t t
integrale stochastice X t = x + ∫ H s dBs , Yt = y + ∫ K s dBs este definit prin
0 0

t
X ,Y t
= ∫ H s K s ds .
0

Propoziţia 3.5. Croşetul a două martingale continue M şi N este egal cu


variaţia pătratică a acestor procese şi este dat de formula

( )( )
n
M,N t
= lim ∑ M ti +1 − M ti N ti +1 − N ti .
i =1

Observaţie. Dacă P şi Q sunt două probabilităţi echivalente atunci croşetul lui


M în raport cu P este egal cu croşetul lui M în raport cu Q . Spunem că două

70
martingale continue sunt ortogonale dacă croşetul lor este nul sau dacă produsul lor este
un martingal.
Extindem definiţia croşetului pentru cazul proceselor Itô în felul următor: dacă
dX i (t ) = bi (t )dt + σ i (t )dBi , i = 1,2 sunt două procese Itô atunci croşetul lor este prin
definiţie croşetul martingalelor corespunzătoare. Croşetul unui proces Itô X este dat de
t
formula: At = X t
= ∫ σ s2 ds .
0

Observaţie. Spunem că două mişcări browniene sunt corelate dacă croşetul lor este
ρ t . O mişcarea browniană poate fi caracterizată ca un martingal continuu de medie 0
şi de croşet t .

3.1.4. Lema lui Itô

Formula lui Itô a apărut ca o necesitate de a stabili o regulă de derivare a


expresiilor de forma f (B(t )) , unde f ( x ) este o funcţie diferenţiabilă. Dacă B(t ) ar fi
diferenţiabilă atunci conform regulii de derivare a funcţiilor compuse rezultă:


f (B(t )) = f ′(B(t ))B ′(t ) ,
∂t

sau în formă diferenţială: df (B(t )) = f ′(B(t ))B ′(t )dt = f ′(B(t ))dB(t ) .
Dar, B(t ) nu este diferenţiabilă şi în particular are variaţii pătratice diferite de 0, prin
urmare formula corectă mai conţine un termen:

1
df (B(t )) = f ′(B(t ))dB(t ) + f ′′(B(t ))dt , unde dt = dB(t )dB(t ) .
2

Integrând obţinem:
Propoziţia 3.6. (formula lui Itô sau formula de schimbare a variabilelor). Fie
Bt o mişcare browniană şi f o funcţie definită pe R cu valori în R , de clasă C 2 .
t t
1
Atunci f (Bt ) − f (B0 ) = ∫ f ′(Bs )dBs + f ′′(Bs )ds .
0
2 ∫0

Observaţie. Comparând această formulă cu teorema fundamentală de calcul:


t
f (t ) − f (0 ) = ∫ f ′(s )ds , se observă că în formula lui Itô apare şi un termen de ordinul
0

71
doi. Demonstraţia formulei lui Itô are la bază teorema lui Taylor. Prima integrală din
membrul drept este o integrală Itô iar a doua este o integrală Riemann.
Fie X un proces Itô definit prin ecuaţia dX t = bt dt + σ t dBt . Atunci:

Generalizare (formula lui Itô). Fie f o funcţie definită pe R cu valori în R ,

de clasă C 2 cu derivata mărginită. Atunci

t t
1
f ( X t ) = f ( X 0 ) + ∫ f ′( X s )dX s + f ′′( X s )σ s2 ds
0
2 ∫0

sau altfel scris

1
df ( X t ) = f ′( X t )dX t + f ′′( X t )σ t2 dt . (1)
2

Demonstraţie. Cum f ( X t ) = f ( X 0 ) + ∑ f X tk +1 rezultă ( )

( ) ( ) ( )(
f X t k +1 − f X t k = f ′ X t k X t k + 1 − X t k + ) 1
2
( )(
f ′′ X tk X tk +1 − X tk )
2
((
+ o X t k +1 − X t k ))
şi trecem la limită.
Formula (1) poate fi rescrisă astfel:
1
df ( X t ) = f ′( X t )bt dt + f ′′( X t )σ t2 dt + f ′( X t )σ t dBt . Aplicând croşetul obţinem
2
1
relaţia: df ( X t ) = f ′( X t )bt dt + f ′′( X t )d X t
+ f ′( X t )σ t dBt .
2
Observaţie. Formula este uşor de reţinut în forma:

1
df ( X t ) = f ′( X t )dX t + f ′′( X t )dX t ⋅ dX t ,
2

dacă ţinem cont de formula lui Taylor şi de regulile de calcul: dt ⋅ dt = 0 , dt ⋅ dBt = 0 ,

dBt ⋅ dBt = dt .

Exemplu. Fie Bt o mişcare browniană, X t = σBt − σ 2 t 2 şi f ( x ) = e x . Atunci

X t
= σB t
= σ 2 t , f ′( x ) = f ′′( x ) = e x şi

t t t t
1 Xs 1 2 1
= 1 + ∫ e X s σdBs − ∫ σ ds + ∫ e X s σ 2 ds = 1 + ∫ e X s σdBs .
2
eσBt −σ 2
e
0
20 2 20 0

72
Aplicaţii: 1. Calculăm E ( f ( X t )) şi E ( f ( X t )Fs ) în condiţiile în care f ′ şi σ

sunt mărginite.

t  1  
E ( f ( X t )) = E ( f ( X 0 )) + E  ∫  f ′( X s )bs + f ′′( X s )σ s2  ds  =
0 2  

t
 1 
= E ( f ( X 0 )) + ∫ E  f ′( X s )bs + f ′′( X s )σ s2 ds .
0  2 

t   
Analog obţinem E ( f ( X t ) Fs ) = f ( X s ) + E  ∫  f ′( X u )b(u ) + f ′′( X u )σ u2  du Fs  =
1
s 2  
t
 1 
= f ( X s ) + ∫ E  f ′( X u )b(u ) + f ′′( X u )σ u2 Fs du .
s  2 
t
2. ∫ B dB
s s =
2
(
1 2
Bt − t )
0

 1 
3. d (exp X t ) = (exp X t ) dX t + σ t2 dt 
 2 
 1 
4. S t = xe X t , unde X t =  µ − σ 2 t + σWt , reprezintă soluţia unică a ecuaţiei
 2 
dS t = S t (µdt + σdWt ) ,
t t
Propoziţia 3.7. Fie X t = X 0 + ∫ b( X s )ds + ∫ σ ( X s )dBs unde b şi σ sunt
0 0

funcţii mărginite definite pe R cu valori în R . Dacă f este o funcţie de clasă

C 2 definită pe R cu valori în R , cu derivatele mărginite, verificând relaţia:


1
b( x ) f ′(x ) + σ 2 (x ) f ′′(x ) = 0 pentru orice x atunci procesul f ( X ) este un martingal.
2
Demonstraţie. Se aplică formula lui Itô.
Observaţie. 1. Funcţia f este numită funcţie scară şi este definită prin
x
 u 
f ( x ) = ∫ exp − 2∫ b(v ) / σ 2 (v )dv du .
c  c 

73
2. Operatorul L aplicat unei funcţiei f din C2 stabileşte relaţia
1
Lf (x ) = b(x ) f ′(x ) + σ 2 (x ) f ′′(x ) . Operatorul L este generatorul infinitezimal al
2
E x ( f ( X t )) − f (x )
procesului de difuzie X . L verifică relaţia Lf (x ) = lim .
t →0 t
Propoziţia 3.8. Fie f o funcţie definită pe R+ × R de clasă C 1 în raport cu t ,

de clasă C 2 în raport cu x , cu derivatele mărginite, atunci are loc relaţia:

t t t
1
f (t , X t ) = f (0, X 0 ) + ∫ f t′(s, X s )ds + ∫ f x′ (s, X s )dX s + f xx′′ (s, X s )σ s2 ds .
0 0
2 ∫0

Observaţie. Relaţia precedentă poate fi rescrisă astfel:

 1 
df (t , X t ) =  f t′(t , X t ) + f xx′′ (t , X t )σ t2  dt + f x′(t , X t )dX t =
 2 
1
= f t′(t , X t )dt + f x′ (t , X t )dX t + f xx′′ (t , X t )d X t .
2

Aplicaţie. 1. Fie X un proces stochastic:


t t
X t = X 0 + ∫ b(s, X s )ds + ∫ σ (s, X s )dBs .
0 0

Dacă f este o funcţie definită pe R+ × R cu valori în R astfel încât σ f x′ este

1
mărginită şi f t′(t , x ) + b(t , x ) f x′ (t , x ) + σ 2 (t , x ) f xx′′ (t , x ) = 0 atunci ( f (t , X t ), t ≥ 0) este
2
un martingal.
Operatorul L definit pe funcţiile din C 1, 2 prin

1
L ( f )(t , x ) = b(t , x ) f x′(t , x ) + σ 2 (t , x ) f xx′′ (t , x )
2

este generatorul infinitezimal al procesului de difuzie.


Dacă f este o funcţie definită pe R+ × R cu valori în R astfel încât σ f x′ este

mărginită şi

1
f t′(t , x ) + b(t , x ) f x′ (t , x ) + σ 2 (t , x ) f xx′′ (t , x ) = rf (t , x ) (2)
2

74
( )
atunci e − rt f (t , X t ), t ≥ 0 este un martingal. In acest caz

(
e − rt f (t , X t ) = E e − rT f (T , X T )Ft . )
Dacă f verifică relaţia f (T , x ) = h(x ) şi este soluţie a ecuaţiei (2) atunci

(
e − rt f (t , X t ) = E e − rT h( X T )Ft . )
2. Fie X un proces stochastic (o mişcare browniană geometrică) astfel încât
dX t = X t (rdt + σdBt ) , unde r şi σ sunt două constante. Atunci procesul

(e − rt
)
X t , t ≥ 0 este un martingal. Este suficient să observăm că d e − rt X t = e − rt X t σdBt ( )
şi să verificăm condiţiile de integrabilitate. Soluţia ecuaţiei dX t = X t (rdt + σdBt ) ,

 1 
X 0 = x , unde r şi σ sunt două constante este X t = x exp rt + σBt − σ 2 t  . Spunem
 2 
că X este o mişcare browniană geometrică sau un proces log-normal.
3. Fie X un proces stochastic definit prin ecuaţia dX t = X t (b(t )dt + σ (t )dBt ) unde b

  t  
şi σ sunt funcţii. Atunci procesul  exp − ∫ b(s )ds  X t , t ≥ 0  este un martingal.
 
  0  

Cazul multidimensional

Propoziţia 3.9. Fie ( X i , i = 1,2 ) două procese Itô definite prin ecuaţiile:

dX i (t ) = bi (t )dt + σ i (t )dBt .

Fie f o funcţie de clasă C 2 definită pe R 2 cu valori în R . Atunci are loc relaţia:

df ( X 1 (t ), X 2 (t )) = f 1′( X 1 (t ), X 2 (t ))dX 1 (t ) + f 2′( X 1 (t ), X 2 (t ))dX 2 (t ) +

1
2
( )
f 11′′σ 12 (t ) + 2 f 12′′σ 1 (t )σ 2 (t ) + f 22′′ σ 22 (t ) ( X 1 (t ), X 2 (t ))dt ,

unde f i′ este derivata în raport cu xi , i = 1,2 şi f ij′′ derivata de ordinul doi în raport cu

xi , x j .

In formă restrânsă putem scrie:


2
1
df ( X 1 , X 2 )(t ) = ∑ f i′( X 1 (t ), X 2 (t ))dX i (t ) + ∑ f ij′′( X 1 (t ), X 2 (t ))σ iσ j dt .
i =1 2 i, j

75
Formula lui Itô implică formula de integrare prin părţi:

d [X 1 X 2 ](t ) = X 1 (t )dX 2 (t ) + X 2 (t )dX 1 (t ) + σ 1 (t )σ 2 (t )dt ,

t
unde cantitatea σ 1 (t )σ 2 (t ) corespunde croşetului X 1 , X 2 t
= ∫ σ 1 (s )σ 2 (s )ds .
0

Propoziţia 3.10. Fie ( X i , i = 1,2) două procese Itô astfel încât

dX i (t ) = bi (t )dt + σ i (t )dBi (t ) , unde B1 şi B2 sunt două mişcări browniene

independente. Atunci are loc formula:

df ( X 1 (t ), X 2 (t )) = f 1′( X 1 (t ), X 2 (t ))dX 1 (t ) + f 2′( X 1 (t ), X 2 (t ))dX 2 (t ) +

+
1
2
[ ]
f 11′′ ( X 1 (t ), X 2 (t ))σ 12 (t ) + f 22′′ ( X 1 (t ), X 2 (t ))σ 22 (t ) dt .

Cazul general: Fie ( X i , t ≥ 0 ) un proces Itô multidimensional, compus din procesele

( X i (t ), i ≤ n ) astfel încât dX t = u t dt + vt dBt . Altfel spus:

 dX 1   u1   v1,1 v1, 2 ... ... v1, p   dB1 


 dX  u  v v 2, 2 ... ... v 2, p   dB 
 2  =  2  dt +  2,1  2 .
 .....  ....  ... ... ... ... ...   ... 
       
dX n  u n  v p ,1 v p,2 ... ... v n , p  dB p 

Fie f o funcţie de clasă C 1, 2 definită pe R + × R n . Atunci

n
1 n
df (t , X t ) = f t′(t , X t )dt + ∑ f i′(t , X t )dX i (t ) + ∑ f ij′′(t , X t )dX i (t )dX j (t ) ,
i =1 2 i , j =1

unde dBi dB j = δ ij dt , dBi dt = 0 , dtdt = 0 .

Propoziţia 3.11. Fie ( X i , i = 1,2) două procese Itô astfel încât

dX i (t ) = bi (t )dt + σ i (t )dBi (t ) , unde B1 şi B2 sunt două mişcări browniene corelate cu

coeficientul de corelaţie ρ . Atunci are loc relaţia:

df ( X 1 (t ), X 2 (t )) = f 1′( X 1 (t ), X 2 (t ))dX 1 (t ) + f 2′( X 1 (t ), X 2 (t ))dX 2 (t ) +

+
1
2
[ ]
f 11′′ ( X 1 (t ), X 2 (t ))σ 12 (t ) + 2 f12 ( X 1 (t ), X 2 (t ))ρσ 1 (t )σ 2 (t ) + f 22′′ ( X 1 (t ), X 2 (t ))σ 22 (t ) dt .

Observaţie. In acest caz regula de înmulţire se modifică dB1 dB2 = ρdt .

76
Aplicaţie. Fie B1 şi B2 două mişcări browniene corelate, şi fie B3 definită prin

1  1 
relaţia B3 = (B2 − ρB1 ) . Fie M i (λ , t ) = exp λBi (t ) − λ2 t  . Aceste procese
1− ρ 2
 2 

sunt martingale pentru orice λ şi are loc relaţia dM i (t ) = λM i (t )dBi (t ) . De unde, având

în vedere faptul că, mişcările browniene B3 şi B1 au croşetul nul, obţinem

d [M 1 M 3 ](t ) = M 1 (t )dM 3 (t ) + dM 1 (t )M 3 (t ) . Acest produs este un martingal, ceea ce

implică E (exp(λB1 (t ) + µB3 (t ))) = E (exp[λB1 (t )])E (exp[µB3 (t )]) , de unde obţinem

independenţa mişcărilor browniene B3 şi B1 . Pentru a obţine independenţa proceselor

t 1
t

utilizăm expresia M i (t ) = exp ∫ λ (s )dBi (s ) − ∫ λ2 (s )ds  .
0 20 

3.1.5. Formula Black-Scholes

Fie S preţul unui activ cu risc de pe o piaţă financiară . Preţul activului este
modelat de ecuaţia:
t t
( (
S t = S 0 + b ∫ S s ds + σ ∫ S s dBs = S 0 exp σBt + b − σ 2 2 t , ))
0 0

unde B este o mişcare browniană iar b şi σ ∈ R . Fie T > 0 , timpul de maturitate.


Studiem funcţia h(S T ) care reprezintă câştigul obţinut în urma investiţiei pe piaţa
financiară. Considerăm ca instrument financiar opţiunea call europeană, atunci
h( x ) = ( x − K ) .
+

Construim un portofoliu, dependent de timp, compus din opţiunea call şi β t părţi din

activul cu risc.Valoarea portofoliului este dată de formula Vt = C t + β t S t , unde

Ct = C (t , S t ) reprezintă preţul opţiunii call. Presupunem că portfoliul este cu

autofinanţare, adică verifică relaţia: dVt = dC t + β t dS t . Aplicând formula lui Itô


obţinem:

(t , S t ) + ∂C (t , S t ) + σ S t ∂ C2 (t , S t )dt + σβ t S t + σS t ∂C (t , S t )dBt


 ∂C 2 2 2

dVt =  bβ t S t + bS t
 ∂x ∂t 2 ∂x   ∂x 

77
∂C
Rezultă că portofoliul este fără risc dacă σβ t S t + σS t (t , S t ) = 0 sau β t = ∂C (t , S t ) .
∂x ∂x

 ∂C 
(t , S t ) + σ S t ∂ C2 (t , S t )dt .
2 2 2
In aceste condiţii dVt = 
 ∂t 2 ∂x 

Portofoliul are randamentul r dacă dVt = rVt dt sau dC t + β t dS t = r (C t + β t S t )dt .

Inlocuind β t prin valoarea sa obţinem :

∂C
(t , S t ) + ∂C (t , S t ) + σ S t ∂ C2 (t , S t ) − rC (t , S t ) = 0 ,
2 2 2
rS t
∂x ∂t 2 ∂x

cu condiţia terminală C (T , S T ) = h(S T ) . Cum S t este o variabilă aleatoare cu valori în

∂C
(t , x ) + ∂C (t , x ) + σ x ∂ C2 (t , x ) − rC (t , x ) = 0 cu
2 2 2
R + rezultă C satisface ecuaţia rx
∂x ∂t 2 ∂x
condiţia terminală C (T , x ) = h( x ) .

In cazul opţiunii call europene h( x ) = ( x − K ) ecuaţia devine:


+

C (t , x ) = xErf (d1 ) − Ke − r (T −t ) Erf (d 2 ) ,

unde Erf reprezintă funcţia eroare a lui Gauss

Erf ( x ) =
1
x
(
1 ln xe r (T −t ) K )
∫ e du , d1 =
2
−u 2
+ şi d 2 = d1 − σ T − t .
2π −∞
2 σ T −t

Analog se procedează în cazul dublării portofoliului format din α t părţi ale unui
t
activ fără risc S = S + r ∫ S s ds = S 00 e rt şi γ t părţi ale unui activ cu risc. Valoarea
t
0 0
0
0

portofoliului la momentul t este dată de formula Vt = α t S t0 + γ t S t şi ipoteza de

autofinanţare este asigurată de relaţia: dVt = α t dS t0 + γ t dS t .

Punem condiţia Vt = C (t , S t ) . Printr-o grupare a termenilor în expresiile dVt şi

respectiv dC t obţinem:

∂C
γ t S tσ = (t , S t )S t σ sau γ t = ∂C (t , S t )
∂x ∂x

78
deoarece

∂C
(t , S t ) = α t rS t0 + bγ t S t = bS t ∂C (t , S t ) + ∂C (t , S t ) + ∂ S t ∂ C2 (t , S t )
2 2 2
α t rS t0 + S t
∂x ∂x ∂t 2 ∂x

∂C
Dar α t S t0 + γ t S t = C (t , S t ) , de unde rezultă α t S t0 = C (t , S t ) − S t (t , S t ) şi regăsim
∂x
ecuaţia:

∂C
(t , S t ) + ∂C (t , S t ) + σ S t ∂ C2 (t , S t ) − rC (t , S t ) = 0 ,
2 2 2
rS t
∂x ∂t 2 ∂x

cu condiţia terminală C (T , S T ) = h(S T ) .

In cazul opţiunii call europene avem C (t , x ) = xErf (d1 ) − Ke − r (T −t ) Erf (d 2 ) , unde

1 ln (xe r (T −t ) K )
x
1
Erf ( x ) = ∫ e du , d1 =
2
−u 2
+ şi d 2 = d1 − σ T − t .
2π −∞
2 σ T −t
∂C
De asemenea putem calcula γ t = (t , S t ) = Erf (d1 ) care reprezintă un factor de
∂x
acoperire a pieţei.
Observaţie. Folosind formula lui Itô se poate stabili o formulă probabilistă pentru
(
determinarea preţului opţiunii call C (t , S t ) = e r (t −T ) E (S T − K ) Ft .
+
)
3.2. Ecuaţii diferenţiale stochastice

3.2.1. Teorema de existenţă şi unicitate a soluţiei

Definiţia 3.6. O ecuaţie diferenţială stochastică este o ecuaţie de forma


t t
X t = x + ∫ b(s, X s )ds + ∫ σ (s, X s )dBs , (3)
0 0

sau în forma restrânsă:

dX t = b(t , X t )dt + σ (t , X t )dBt



X 0 = x

unde B este o mişcare browniană.


Observaţie. In această ecuaţie necunoscuta este procesul stochastic X .

79
Definiţia 3.7. Fie date b şi σ două funcţii definite pe R + × R n cu valori reale.
Fie dat spaţiul probabilistic (Ω,F , P ) înzestrat cu o filtrare (Ft ) şi o (Ft ) -mişcare

browniană B . O soluţie a ecuaţiei (3) este un proces stochastic X , continuu,


t t
(Ft ) -adaptat care verifică egalitatea X t = x + ∫ b(s, X s )ds + ∫ σ (s, X s )dBs P -aproape
0 0

t t
sigur pentru orice t . Integralele ∫ b(s, X s )ds şi ∫ σ (s, X s )dBs au acelaşi semn.
0 0

Fie Bt o mişcare browniană. Demonstrăm existenţa şi unicitatea soluţiei unei

ecuaţii diferenţiale stochastice de forma:

dX t = b( X t )dt + σ ( X t )dBt , X 0 = x .

Existenţa. Fie X 0 (t ) = x pentru orice t şi fie

t t
X i +1 (t ) = x + ∫ b( X i (s ))ds + ∫ σ ( X i (s ))dBs .
0 0

Fie t 0 arbitrar, fixat. Demonstrăm existenţa (şi unicitatea) până la momentul arbitrar t 0 .

Are loc următoarea inegalitate:

 t
t  
2

EX 1 (t )
2 

2 2

( )
≤ c1 x + ∫ σ ( x ) ds +  ∫ b(x )ds  ≤ c 2 x 2 + t + t 2 .
 0 0  

Cum ( x + y ) ≤ 2 x 2 + 2 y 2 rezultă:
2

 r  
2

E sup X i +1 (r ) − X i (r ) ≤ 2 E sup ∫ (σ ( X i (s )) − σ ( X i −1 (s )))dBs  +
2
 
 r ≤t 
 0  
r ≤t

 r  
2

+ 2 E sup ∫ (b( X i (s )) − b( X i −1 (s )))ds  .
 r ≤t 
 0  

Aplicând inegalitatea lui Doob, primul termen din membrul drept al inegalităţii este
mărginit de

 t  
2 t

8 E  ∫ (σ ( X i (s )) − σ ( X i −1 (s )))dBs  = 8E ∫ (σ ( X i (s )) − σ ( X i −1 (s ))) ds ≤
2
 
 0   0

80
t
≤ c3 E ∫ X i (s ) − X i −1 (s ) ds .
2

Al doilea termen din membrul drept este mărginit de


2
t  t t
2 E  ∫ b( X i (s )) − b( X i −1 (s )) ds  ≤ 2t 0 E ∫ b( X i (s )) − b( X i −1 (s )) ds ≤ c 4 E ∫ X i (s ) − X i −1 (s ) ds
2 2

0  0 0

unde pentru prima inegalitate am aplicat inegalitatea lui Hölder.

Fie g i (t ) = E sup X i (r ) − X i −1 (r ) . Fie a suficient de mare astfel încât pentru t ≤ t 0 au


2

r ≤t

t
loc inegalităţile: g1 (t ) ≤ a şi g i +1 (t ) ≤ a ∫ g i (s )ds .
0

t t
Deci, g 2 (t ) ≤ a ∫ ads = a 2 t , g 3 (t ) ≤ a ∫ a 2 sds = a 3t 2 2 şi prin inducţie obţinem
0 0

g i (t ) ≤ a i t i −1 (i − 1)!. Cum ∑ (g (t ))
i
12
(
≤ ∑ a i t i −1 (i − 1)! )
12
< ∞ atunci pentru m şi n
12
suficient de mari, expresia  E sup X m (s ) − X n (s )  poate lua o valoare mică. Prin
2

 s ≤t 

urmare există X t astfel încât E sup X n (s ) − X t


2
→ 0 pentru n → ∞ . Cum X i este
s ≤t

continuă în t rezultă X t este continuă. Trecând la limită în relaţia

t t
X i +1 (t ) = x + ∫ b( X i (s ))ds + ∫ σ ( X i (s ))dBs
0 0

t t
rezultă că pentru i → ∞ X t verifică ecuaţia X t = x + ∫ b( X s )ds + ∫ σ ( X s )dBs .
0 0

t t
Unicitatea. Fie X t şi X t′ două soluţii ale ecuaţiei X t = x + ∫ b( X s )ds + ∫ σ ( X s )dBs .
0 0

Fie g (t ) = E sup X r − X r′ . Există a > 0 astfel încât g (t ) este mărginită de a şi are loc
2

r ≤t

t t t
inegalitatea g (t ) ≤ a ∫ g (s )ds . Atunci g (t ) ≤ a ∫ ads = a t , g (t ) ≤ a ∫ a 2 sds = a 3 t 2 2 ,
2

0 0 0

etc. Astfel g (t ) ≤ a i t −i −1 (i − 1)! → 0 sau g (t ) = 0 .

81
Teorema de existenţă. A. Fie b şi σ două funcţii continue;
B. există K astfel încât pentru orice t ∈ [0, T ] , x, y ∈ R au loc relaţiile:

1. b(t , x ) − b(t , y ) + σ (t , x ) − σ (t , y ) ≤ K x − y

2. b(t , x ) + σ (t , x ) ≤ K 2 1 + x
2 2
( 2
)
C. condiţia iniţială X 0 este independentă de (Bt , t ≥ 0 ) şi este de pătrat integrabilă ,

atunci pentru t ≤ T există o soluţie unică a ecuaţiei (3) cu traiectorii continue. Mai

mult această soluţie verifică relaţia E  sup X t  < ∞ .


2

 0≤t ≤T 
Propoziţia 3.12. Fie ρ o funcţie boreliană definită pe (0, ∞ ) cu valori în

(0, ∞ ) astfel încât integrala funcţiei ρ −1 este divergentă în vecinătatea lui 0. Dacă

σ (s, x ) − σ (s, y ) ≤ ρ ( x − y ) şi b este lipchitziană, adică b(s, x ) − b(s, y ) ≤ K t x − y


2

pentru orice x, y din R şi s ≤ t atunci există o soluţie unică a ecuaţiei (3).

Proprietatea Markov

( )
Fie X st , x , s ≥ t soluţia ecuaţiei (3) – procesul se află în starea x la momentul

t . Aceasta are forma


s s
X t,x
s = x + ∫ b u, X ( t,x
u )du + ∫ σ (u, X )dBt,x
u u .
t t

0, x
In condiţiile teoremei de existenţă putem scrie X s0, x = X st , X t , s ≤ t ceea ce afirmă că

soluţia ecuaţiei (3) este un proces Markov în raport cu filtrarea Ft :

E ( f ( X s )Ft ) = E ( f ( X s ) X t ) = Φ (s, t , X t ) , unde Φ (s, t , x ) = E f X st , x , s ≥ t . ( ( ))


Acest rezultat permite calcularea mediei condiţionate.
s s
In particular. dacă X t,x
s = x + ∫b X ( t,x
u )du + ∫ σ (X )dB t,x
u u obţinem un proces Markov
t t

omogen

E ( f ( X s )Ft ) = E ( f ( X s ) X t ) = Φ (s, t , X t ) = Ψ (s − t , X t ) ,

( ( ))
unde Φ(s, t , x ) = E f X st , x = E f X s0−, xt ( ( )) şi Ψ (u, x ) = E ( f (X )). 0, x
u

82
Observaţie. O pereche de variabile aleatoare ( X , Y ) poate fi markoviană fără ca fiecare
componentă să fie markoviană.
Teorema de comparaţie. Fie dX i (t ) = bi ( X i (t ))dt + σ ( X i (t ))dWt , i = 1,2 unde

bi este lipschitziană şi [σ (x ) − σ ( y )]2 ≤ k x − y . Presupunem X 1 (0 ) ≥ X 2 (0 ) şi

b1 ( x ) ≥ b2 (x ) . Atunci X 1 (t ) ≥ X 2 (t ) .

Exemple: Martingale exponenţiale

Propoziţia 3.13. Fie θ din Λ şi Z 0 o constantă. Soluţia ecuaţiei

t 1
t

dZ t = θ t Z t dBt este Z t = Z 0 exp  ∫ θ s dBs − ∫ θ s2 ds  . Mai mult, dacă
0 20 

 1T 
E  exp ∫ θ s2 ds   < ∞ procesul (Z t , t ≤ T ) este un martingal al cărui medie este Z 0 .
 
 2 0 
Demonstraţie. Din definiţie Z este un martingal local. Aplicând formula lui Itô
t 1
t

verificăm faptul că Z t = Z 0 exp  ∫ θ s dBs − ∫ θ s2 ds  este soluţia ecuaţiei date.
0 20 
t t
1 1
Notând U t = ∫ θ s dBs − ∫ θ s2 ds obţinem relaţia dU t = θ t dBt − θ t2 dt ,de unde rezultă
0
20 2

 1 
dZ t = (exp U t ) dU t + θ t2 dt  = θ t Z t dBt .
 2 
Observaţie. Procesul Z , notat prin E (θB )t este numit exponenţiala lui Doléans-Dade .

Dacă Z 0 este strict pozitivă atunci acest proces este un martingal local pozitiv. Relaţia

 1T 
E  exp ∫ θ s2 ds   < ∞ este numită condiţia lui Novicov. In această condiţie
 
 2 0 
E (Z T ) = Z 0 şi (Z t , t ≤ T ) este un martingal. Dacă această condiţie nu este verificată

atunci procesul (Z t , t ≤ T ) este un martingal local pozitiv deci un supermartingal şi

E (Z T ) ≤ Z 0 .

Propoziţia 3.14. Fie f astfel încât f (t , x ) − f (t , y ) ≤ C x − y şi


t t
1
sup f ′(s,0 ) ≤ C . Atunci ∫ f (s, Bs )dBs − f (s, Bs ) ds este un martingal.
2 ∫0
2

83
3.2.2. Ecuaţii cu derivate parţiale

Fie b şi σ două funcţii date, definite pe [0, T ]× R cu valori în R , verificând

ipotezele teoremei de existenţă. Fie A un operator definit pentru funcţiile de clasă C 1, 2


prin expresia:

1
Af (t , x ) = f t′(t , x ) + f x′ (t , x )b(t , x ) + f xx′′ (t , x )σ 2 (t , x ) .
2

( )
Fie X ux ,t , u ≥ t procesul Itô definit prin

u u
X x ,t
u =X t
x ,t
(
+ ∫ b s, X x ,t
s )ds + ∫ σ (s, X )dB
x ,t
s s , u≥t (4),
t t

cu starea iniţială în t dată de relaţia X tx ,t = x .

Observaţie. Af (t , x ) = f t′(t , x ) + Lf (t , x ) , unde L este operatorul infinitezimal a lui X .

Problema parabolică

Căutăm soluţiile problemei parabolice


 Af (t , x ) = 0
 , pentru orice x din R şi t din [0, T ] ,
 f (T , x ) = g (x )
unde g este o funcţie definită pe R cu valori în R .
Dacă f este o soluţie a problemei parabolice şi X este o soluţie a ecuaţiei (4) formula
lui Itô conduce la relaţia :
u
( ) ( )(
f u , X ux ,t = f (t , x ) + ∫ f x′ s, X sx ,t σ s, X sx ,t dBs . )
t

T
în particular, pentru T avem f (T , X Tx ,t ) = g (X Tx ,t ) = f (t , x ) + ∫ f x′ (s, X sx ,t )σ (s, X sx ,t )dBs şi
t

dacă integrala este un martingal obţinem f (t , x ) = E (g (X Tx ,t )) .

Propoziţia 3.15. In condiţii de regularitate soluţia problemei parabolice


 Af (t , x ) = 0
 , pentru orice x din R şi t din [0, T ] ,
 f (T , x ) = g (x )

84
unde g este o funcţie definită pe R cu valori în R , este f (t , x ) = E (g (X Tx ,t )) iar X x ,t
u u
este procesul Itô definit prin X ux ,t = X tx ,t + ∫ b(s, X sx ,t )ds + ∫ σ (s, X sx ,t )dBs , u ≥ t cu
t t

condiţia iniţială în t dată de X tx ,t = x .

Generalizare

Fie α o constantă pozitivă. Determinăm soluţia problemei parabolice:

Af (t , x ) = αf (t , x ) , pentru orice x din R şi t din [0, T ] (5)


f (T , x ) = g ( x ) .

Dacă f este soluţie a ecuaţiei (5) şi X este soluţie a ecuaţiei (4) atunci formula lui Itô
implică următoarea relaţie:
T
( ) ( )
f T , X Tx ,t exp(− αT ) = f (t , x ) exp(− αt ) + ∫ f x′ s, X sx ,t exp(− αs )σ s, X sx ,t dBs ( )
t

şi dacă integrala este un martingal obţinem f (t , x ) = E (exp(− α (T − t ))g (X Tx ,t )) . Având


în vedere caracterul markovian are loc şi relaţia

f (t , x ) = E (exp(− α (T − t ))g ( X T ) XT = x) ,

s s
unde X s = X 0 + ∫ b(u , X u )du + ∫ σ (u , X u )dBu .
0 0

Propoziţia 3.16. Soluţia problemei

1
αf (t , x ) = f t′(t , x ) + f x′(t , x )b(t , x ) + f xx′′ (t , x )σ 2 (t , x )
2

f (T , x ) = g ( x )

este f (t , x ) = E x ,t (exp(− α (T − t ))g ( X T )) .

85
Formula Black-Scholes

Evaluarea unei opţiuni europene revine la determinarea soluţiei ecuaţiei cu


derivate parţiale:

∂C
(t , x ) + ∂C (t , x ) + σ 2 x 2 1 ∂ 2C (t , x ) − rC (t , x ) = 0 , x ≥ 0 unde C (T , x ) = (x − K )+ .
2
xr
∂x ∂t 2∂ x

Fie S un proces cu valori în R + . Soluţia unei astfel de ecuaţii este:

(
C (t , x ) = E e − r (T −t ) (S Tx ,t − K ) ,
+
)
unde dS ux ,t = S ux ,t (rdu + σdBu ) şi S tx ,t = x .

Cum S Tx ,t = xeσ (T −t )G + (r −σ 2 )(T −t ) , unde G este un gaussian, atunci pentru t = 0 valoarea


2

medie se calculează astfel:

( (
E e − rT S Tx − K )+
) = E (e − rT
(S x
1
T ST ≥ K − Ke − rT P(S T ≥ K ) =))
(
= e − rT xE e σ ( ) 1
T G + r −σ 2 2 (T )
σ ( )
T G + r −σ 2 2 (T )≥ ln ( K x )
)− Ke P(σ − rT
T G + (r − σ 2 2 )(T ) ≥ ln (K x ) )
Observaţie. Calculul de mai sus permite calcularea factorului delta, adică variaţia
preţului unei opţiuni la o variaţie de un punct a preţului activului de bază.

Formula lui Feyman-Kac

Propoziţia 3.17. Fie k o funcţie continuă definită pe R cu valori în R+ şi fie


g o funcţie continuă definită pe R cu valori în R astfel încât:

∫ g (x + y ) e
−y 2α
dy < ∞ , pentru orice x din R şi α > 0 .
−∞

∞  t

Atunci funcţia f definită prin f ( x ) = E x  ∫ dtg (Bt ) exp − αt − ∫ k (Bs )ds   este unica
 
0  0 
1
soluţie din C 2 mărginită de (α + k ) f = f ′′ + g .
2
Demonstraţie. Considerăm procesul cu variaţie mărginită (Z t , t ≥ 0 ) definit prin
t
Z t = αt + ∫ k (Bs )ds . Aplicând lema lui Itô procesului:
0

86
def t
U t = f (Bt )e − Z t + ∫ g (Bs )e − Z s ds ,
0

unde f este o funcţie de clasă C 2 obţinem relaţia:

1 
dU t = f ′(Bt )e − Z t dBt +  f ′′(Bt ) − (α + k (Bs )) f (Bt ) + g (Bt )e − Z t dt .
2 

Procesul U este un martingal dacă termenul cu variaţie finită este nul adică, dacă
1
f ′′(x ) − (α + k ( x )) f ( x ) + g ( x ) = 0 . Se observă apoi că u (0, B0 ) = u (0, x ) = f ( x ) şi se
2
( )
verifică relaţia E f (Bt )e − Z t → 0 . Condiţiile de pozitivitate pentru α şi k şi de

mărginire pentru g garantează existenţa unei soluţii continue şi mărginite a ecuaţiei


diferenţiale.

Modele financiare

Fie Bt o mişcare browniană şi fie S t o acţiune sau un alt instrument financiar

cu risc. Fie dS t = µS t dt + σS t dBt ecuaţia care modelează comportamentul acestui

instrument financiar, altfel spus modificarea relativă a valorii acţiunii este o mişcare
dS t
browniană cu derivă = µdt + σdBt . Aplicând formula lui Itô se verifică faptul că
St

soluţia ecuaţiei diferenţiale stochastice are forma: S t = S 0 e σBt + (µ −(σ 2 ))t .


2

De asemenea, presupunem existenţa unei obligaţiuni fără risc β t , a cărei

ecuaţie este dβ t = rβ t dt de unde rezultă β t = β 0 e rt .

Presupunem că la momentul t cumpărăm un număr de a acţiuni, atunci preţul


acestora la momentul t este aS t . Dacă la momentul t + h vindem pachetul format din

cele a acţiuni obţinem un profit egal cu a (S t + h − S t ) , unde aS t + h reprezintă suma

obţinută pe cele a acţiuni la momentul t + h . In cazul vânzării short, a < 0 , formula


pentru profit este aceeaşi.
Presupunem că la momentul t i deţinem un pachet format din ai acţiuni şi

păstrăm pachetul până la momentul t i +i . Profitul net total pe întreaga perioadă este

87
∑ a (S )
n −1

i t i +1 − S tu . Pentru ai = at şi t i ≤ t < t i +1 profitul net total coincide cu integrala


i =0

t
stochastică ∫ a dS
0
t t . Se poate presupune că ai depinde de toate informaţiile până la

momentul t i , adică de Fti . Dacă presupunem cazul ideal în care tranzacţiile sunt

continue şi dacă a t este adaptat atunci profitul net obţinut în urma tranzacţionării
t
pachetului de acţiuni este ∫ a dS
0
s s . Analog profitul net obţinut în urma tranzacţionării

t
obligaţiunilor este ∫ bs dβ s .
0

Perechea (a, b ) se numeşte strategie de trading (de vânzare/cumpărare).


Strategia este cu autofinanţare dacă
t t
Vt = at S t + bt β t = V0 + ∫ a s dS s + ∫ bs dβ s ,
0 0

pentru orice t . Presupunem că tranzacţiile nu necesită plata unor comisioane.


Considerăm cazul opţiunilor call europene: în cazul opţiunilor pe acţiuni, dacă
considerăm că valoarea unui pachet de acţiuni va creşte substanţial, am putea obţine un
profit mai mare dintr-o investiţie mai mică cumparand opţiuni call pe acest pachet de
acţiuni. Aceste opţiuni ne dau dreptul de a cumpăra pachetul de acţiuni la o dată fixată
T cu preţul de exercitare K mai mic decât preţul pieţei. Problema care ne interesează
este legată de evaluarea corectă a preţului unei opţiuni la momentul 0. Dacă la
momentul T , S T ≤ K opţiunea nu este utilă. Dacă S T > K atunci utilizăm opţiunea
pentru a cumpăra pachetul de acţiuni la preţul de exercitare K , după care vindem
acţiunile la preţul pieţei S T . Astfel profitul realizat este S T − K . Deci în cazul

opţiunilor call europene profitul la momentul T este (S T − K ) = max(S T − K ,0) .


+

88
3.3. Exemple de procese Itô

3.3.1. Mişcare browniană geometrică

Considerăm ecuaţia diferenţială stochastică

dX t = X t bt dt + X t σ t dBt , X 0 = x , (6)

unde b şi σ sunt două procese adaptate mărginite. Considerăm cazul coeficienţilor


determinişti. Conform teoremei de existenţă această ecuaţie admite o soluţie unică de
forma:

t t
1
t

x exp∫ b(s )ds + ∫ σ (s )dBs − ∫ σ 2 (s )ds  .
0 0
20 

dX t
Ecuaţia (6) poate fi scrisă în forma = b(t )dt + σ (t )dBt .
Xt

Observaţie. Martingalul M t = X t e − bt este soluţie a ecuaţiei dM t = M t σ dBt .

Propoziţia 3.18. Soluţia ecuaţiei dX t = X t [bdt + σ dBt ] este

 1  
X t = X 0 exp b − σ 2 t + σ Bt 
 2  

sau

 1  
X t = X s exp b − σ 2 (t − s ) + σ (Bt − Bs ) .
 2  

Este uşor de demonstrat faptul că ecuaţia dX t = X t [bdt + σ dBt ] , X 0 = x are soluţie

unică. Fie Y o altă soluţie a ecuaţiei date. Ştim că X nu se anulează atunci


1
d (1 X t ) = [µ dt − σ dBt ] , unde µ = −b + σ 2 .
Xt

Yt
Fie Z t un proces definit prin Z t = . Acest proces verifică ecuaţia diferenţială
Xt

( )
dZ t = Z t µ + b − σ 2 dt + (σ − σ )dBt = 0 ,

adică dZ t = 0 , cu soluţia Z t = Z 0 .

89
3.3.2. Modelul Cox-Ingersoll-Ross

Pentru a determina un model matematic al fluctuaţiei ratei dobânzii se poate


porni de la analiza ecuaţiei diferenţiale stochastice

drt = k (θ − rt )dt + σ rt dBt . (7)

Pentru kθ ≥ 0 unica soluţie a ecuaţiei este un proces pozitiv. Nu se poate obţine o


formă explicită a acestei soluţii. Fie r x soluţia ecuaţiei (7), unde r0x = x . Se poate

(
demonstra că dacă T0x = inf {t ≥ 0; rt x = 0} şi 2kθ ≥ σ 2 atunci P T0x = ∞ = 1 . Dacă )
def

0 ≤ 2kθ < σ 2 şi k > 0 atunci P (T < ∞ ) = 1 iar dacă k < 0 atunci P (T


0
x
0
x
< ∞ ) ∈ (0,1) .

Media variabilei aleatoare rt se poate calcula cu ajutorul formulei

 t

E (rt ) = r0 + k θ t − ∫ E (rs )ds  , unde integrala stochastică este un martingal.
 0 

Propoziţia 3.19. Fie r procesul ce verifică ecuaţia drt = k (θ − rt )dt + σ rt dBt .

Media condiţionată este dată de formula

(
E (rt F s ) = rs e − k (t − s ) + θ 1 − e − k (t − s ) )
iar varianţa condiţionată este dată de formula

σ 2 (e − k (t − s ) − e −2 k (t − s ) ) θσ 2 (1 − e − k (t − s ) )
2

Var (rt Fs ) = rs + .
k 2k

Demonstraţie. Prin definiţie, pentru s ≤ t are loc relaţia

t t
rt = rs + k ∫ (θ − ru )du + σ ∫ ru dBu
s s

şi aplicând formula lui Itô obţinem:


t t t
rt 2 = rs2 + 2k ∫ (θ − ru )ru du + 2σ ∫ (ru ) dBu + σ 2 ∫ ru du =
32

s s s

t t t
( )
= rs2 + 2kθ + σ 2 ∫ ru du − 2k ∫ ru2 du + 2σ ∫ (ru ) dBu .
32

s s s

90
Având în vedere că mediile integralelor stochastice de mai sus sunt 0, atunci pentru
s = 0 obţinem relaţiile:

 t
 t t
E (rt ) = r0 + k θ t − ∫ E (ru )du  şi E (rt 2 ) = r02 + (2kθ + σ 2 )∫ E (ru )du − 2k ∫ E (ru2 )du .
 0  0 0

 t

Fie Φ(t ) = E (rt ) . Pentru a determina soluţia ecuaţiei Φ(t ) = r0 + k θ t − ∫ Φ(u )du  o
 0 
transformăm într-o ecuaţie diferenţială Φ ′(t ) = k (θ − Φ (t )) , pentru care Φ(0 ) = r0 .

Atunci obţinem E (r (t )) = θ + (r0 − θ )e − kt .

( )
Analog, introducem ψ (t ) = E rt 2 şi rezolvând ecuaţia Ψ ′(t ) = (2kθ + σ 2 )Φ (t ) − 2kΨ (t )

σ2 θ
obţinem Var (rt ) =
k
(1 − e ) r e
− kt
0
− kt
+
2
(
1 − e ) .
 − kt

 
Media condiţionată a lui r şi varianţa condiţionată a lui r pot fi determinate aplicând
proprietatea Markov. Astfel, obţinem:

(
E (rt F s ) = θ + (rs − θ )e − k (t − s ) = rs e − k (t − s ) + θ 1 − e − k (t − s ) )
şi

σ 2 (e − k (t − s ) − e −2 k (t − s ) ) θρ 2 (1 − e − k (t − s ) )
2

Var (rt Fs ) = rs + .
k 2k

Valoarea unei obligaţiuni cu cupon zero

Propoziţia 3.20. Fie ecuaţia diferenţială stochastică

drt = a(b − rt )dt + σ rt dBt .

 T

Atunci E  exp− ∫ ru du Ft  = G (t , rt ) , unde G (t , x ) = Φ (T − t ) exp(− xΨ (T − t )) ,
 t 
2 ab
 s
 ρ2
Ψ (s ) =
(
2 e −1 γs
) 
, Φ (s ) = 
2γe
(γ + a )
2 
, γ 2 = a 2 + 2ρ 2 .
(
(γ + a ) e − 1 + 2γ
γs
)  (γ + a ) e − 1 + 2γ
γs
( ) 

 

91
( )
Demonstraţie. Fie r x ,t soluţia ecuaţiei drsx ,t = a b − rsx ,t ds + ρ rsx ,t dBs , pentru care

 s x ,t 
rt x ,t
= x şi R = exp − ∫ ru du  . Din proprietatea Markov rezultă că există G astfel
t
s
 t 

 s x ,t 
încât exp − ∫ ru du Ft  = G (t , rt ) . Presupunem că G este de clasă C 1, 2 . Aplicăm
 t 
( )
martingalului G s, rsx ,t Rst formula lui Itô. Obţinem relaţia:

T
 ∂G ∂G 1 2 x ,t ∂ 2 G 
( )
G T , rTx ,t RTt = G (t , x ) + ∫ Rst  − rsx ,t G + (
+ a b − rsx ,t )
+ σ rs (s, rs )ds + M T − M t
t  ∂t ∂x 2 ∂x 2 
unde M t este o integrală stochastică. Dacă G verifică ecuaţia

∂G ∂G 1 2 ∂ 2 G
− xG + + a(b − x ) + σ x 2 =0 (8)
∂t ∂x 2 ∂x

şi G (T , x ) = 1 pentru orice x , atunci RTt = Rt G (t , rt ) + M T − M − t , unde M este un

martingal. In particular, obţinem relaţiile

  T    T x ,t  
E exp − ∫ rs ds  = E (RT ) = R0 G (0, x ) şi E exp − ∫ ru du   = G (t , x ) .
    
   
  0    t 

Soluţia ecuaţiei cu derivate parţiale (8) este dată de expresia

G (t , x ) = Φ (T − t ) exp(− xΨ (T − t )) ,

2 ab
 (γ + a ) s  ρ2
unde Ψ (s ) =
2 e γs − 1( )( )
 2γe 2 
Φ =  , γ = a + 2ρ .
2 2 2
, s
(
(γ + a ) e γs − 1 + 2γ ) 
(
 (γ + a ) e − 1 + 2γ
γs
) 
 
Observaţie. Dacă notăm cu B(t , T ) valoarea unei obligaţiuni cu cupon zero
atunci ecuaţia diferenţială stochastică este de forma

dB(t , T ) = B(t , T )(rt dt + σ (T − t , rt )dBt ) , unde σ (u , r ) = σΨ (u ) r .

92
3.3.3. Procese Bessel

Norma euclidiană a unei mişcări browniene n - dimensionale

Fie n > 1 şi fie B = (B1 , B2 ,..., Bn ) o mişcare browniană n -dimensională.


n
adică X t2 = ∑ (Bi ) (t ) . Formula lui
2
Definim un proces stochastic X prin X t = Bt
i =1

Itô ne conduce la rezultatul următor:


n
dX t2 = ∑ 2 Bi (t )dBi (t ) + ndt .
i =1

Procesul β definit prin

n
1 1
dβ t =
Xt
Bt dBt =
Bt
∑ B (t )dB (t ) , β
i =1
i i 0 =0

fiind exprimat ca o sumă de martingale, este un martingal continuu iar croşetul său este
( )
t . Atunci β este o mişcare browniană iar egalitatea d X t2 = 2 Bt dBt + ndt poate fi

( )
scrisă sub forma d X t2 = 2 X t dβ t + ndt . Aplicând formula lui Itô obţinem

n − 1 dt
dX t = dβ t + ,
2 Xt

unde β este o mişcare browniană. Pentru Vt = X t2 rezultă relaţia:

dVt = 2 Vt dβ t + ndt .

In condiţiile de mai sus spunem că X este un proces Bessel (BES) de dimensiune n şi


V este un proces Bessel pătratic de dimensiune n (BESQ).

Generalizare

Fie W o mişcare browniană reală. Având în vedere inegalitatea

x− y ≤ x − y , teorema de existenţă afirmă că pentru orice δ ≥ 0 şi α ≥ 0

ecuaţia dZ t = δdt + 2 Z t dWt , pentru care Z 0 = α admite o soluţie unică. Soluţia este

cunoscută sub numele de proces Bessel pătratic de dimensiune δ ( BESQ δ ) . In


particular, dacă α = 0 şi δ = 0 soluţia Z ≡ 0 este unică. Din teorema de comparaţie

93
rezultă că, dacă 0 ≤ δ ≤ δ ′ iar ρ şi ρ ′ sunt procese Bessel pătratice de dimensiuni δ
şi respectiv δ ′ , ce au aceeaşi stare iniţială, atunci 0 ≤ ρ t ≤ ρ t′ aproape sigur. In cazul

în care δ > 2 procesul Bessel pătratic de dimensiune δ cu starea iniţială α nu va


atinge niciodată starea 0 şi este un proces de tranziţie. Dacă 0 < δ < 2 procesul ρ
atinge starea 0 în timp finit şi este reflectat instantaneu. Dacă δ = 0 procesul rămâne în
0. Deci Z verifică Z t ≥ 0 pentru orice t .

Definiţia 3.8. Pentru orice δ ≥ 0 şi α ≥ 0 unica soluţie tare a ecuaţiei

t
ρ t = α + δt + 2 ∫ ρ s dWs
0

se numeşte proces Bessel pătratic de dimensiune δ cu starea iniţială α , ( BESQ δ ).


Definiţia 3.9. Fie ρ un proces Bessel pătratic de dimensiune δ cu starea

iniţială α . Procesul R = ρ se numeşte proces Bessel de dimensiune δ cu cu starea

iniţială a = α ( (BES ) ) .
δ

Definiţia 3.10. Numărul ν = (δ 2 ) − 1 se numeşte indexul procesului Bessel.


Un proces Bessel R cu un index ν ≥ 0 este un proces de difuzie cu valori în R+
al cărui generatorul infinitezimal este dat de expresia

1 d 2 2ν + 1 d 1 d 2 δ −1 d
L= + = + .
2 dx 2 2 x dx 2 dx 2 2 x dx
t
Deci, pentru orice f din C c2 procesele f (Rt ) − ∫ Lf (Rs )ds sunt martingale.
0

 t ds 
Pentru δ > 1 un proces Bessel de dimensiune δ verifică relaţia E  ∫  < ∞ şi
 0 Rs 

δ −1 t 1
este soluţie a ecuaţiei Rt = α + Wt +
2 ∫R
0 s
ds .

Folosind indexul, ecuaţia de mai sus poate fi rescrisă astfel:


t
 1 1
Rt = α + Wt + ν +  ∫ ds .
 2  0 Rs

94
Pentru δ = 1 procesul Bessel de dimensiune 1 este de forma Rt = Bt = β t + Lt , unde

B şi β sunt mişcări browniene şi L este timpul local al unei mişcări browniene B .


t
ds
Pentru δ < 1 este necesară introducerea valorii principale a integralei ∫R
0 s
. Atunci

δ −1 t
1
Rt = α + Wt + v.p. ∫ ds ,
2 0
Rs

t ∞
unde valoarea principală este definită prin v.p. ∫
1
Rs
ds = ∫ x δ − 2 Ltx − L0t dx iar familia( )
0 0

t ∞

∫ φ (Rs )ds = ∫ φ (x )Lt x dx . Analog,


x δ −1
de timpi locali este definită utilizând formula
0 0

d2 d
generatorul infinitezimal al procesului Bessel pătratic ρ este A = 2 x 2
+δ , deci
dx dx
t
pentru orice f din C K2 procesele de forma f (ρ t ) − ∫ Af (ρ s )ds sunt martingale.
0

Proprietăţi

Propoziţia 3.21. Dacă (ρ t , t ≥ 0 ) este un proces Bessel pătratic de dimensiune

1
δ a cărui stare iniţială este x , atunci (ρ ct , t ≥ 0) este un proces Bessel pătratic de
c
dimensiune δ a cărui stare iniţială este x c .
Demonstraţie. Ecuaţia
t
ρ t = x + 2 ∫ ρ s dWs + δt
0

implică
12
δ ρ 
ct t
1 x 2 x 1
ρ ct = + ∫ ρ s dWs + ct = + 2∫  s  dWsc + δ t .
c c c0 c c 0
c  c

t
1 x ~
Fie u t = ρ ct , înlocuind în relaţia precedentă obţinem u t = + 2 ∫ u s dWs + δ t , unde
c c 0

95
~ 1 
Wt = Wtc , t ≥ 0  este o mişcare browniană.
 c 

Fie Ω = C (R+ , R+ ) spaţiu canonic, fie R aplicaţia canonică definită

prin R t (ω ) = ω (t ) , fie R t = σ (Rs , s ≤ t ) filtrarea canonică şi fie Pα(ν ) legea de

probabilitate a procesului Bessel de index ν a cărui stare iniţială este α , adică


Pα(ν ) (R0 = α ) = 1 .

Notaţie. Legea procesului Bessel pătratic de dimensiune δ cu starea iniţială x (pe


spaţiul canonic Ω = C (R+ , R+ ) ) este notată prin Q xδ .

Propoziţia 3.22. Intre procesele BES (ν ) , cu indexul ν ≥ 0 şi BES (0 ) are loc


ν
(ν ) R   ν2 t
ds  (0 )
relaţia Px R t =  t  exp − ∫R  P R t , unde P (ν ) este legea unui proces
2  x
 x   2 0 s 

Bessel cu index ν .
Demonstraţie. In raport cu P (0 ) , procesul canonic R verifică ecuaţia
ν
1 R   ν2 t
ds 
dRt = dWt + dt . Procesul Lt =  t  exp − ∫R  este un P (0 ) -martingal
2 
2 Rt  x   2 0 s 

nenegativ. Intr-adevăr, conform formulei lui Itô obţinem dLt = νLt ln (Rt )dWt , prin
ν
R 
urmare procesul L este un martingal local. Se observă că sup Lt ≤ sup t  . Procesul
t ≤T t ≤T  x 

~
R 2 este un proces Bessel pătratic de dimensiune 2, egal în lege cu procesul Bt2 + B y2
~
unde B şi B sunt mişcări browniene independente. Prin urmare Rtk este integrabil

pentru k ≥ 2 . Procesul R fiind suma dintre un proces crescător şi un martingal este


 k

( )
submartingal. Inegalitatea lui Doob implică E   sup Rt   ≤ C k E RTk . Din teorema lui
  t ≤T  
1 1  1
Girsanov rezultă dRt − dt − d R,ν ln R t
= dRt − ν + dt , deci în raport cu
2 Rt Rt  2

Px(ν ) = Lt Px(0 ) se obţine o mişcare browniană.

Notaţie. P * Q convoluţia lui P şi Q .

96
Propoziţia 3.23. Q xδ * Q δy ′ = Q xδ++yδ ′ , altfel spus, suma a două procese Bessel

pătratice independente este un proces Bessel pătratic.


Demonstraţie. Considerăm cazul general. Fie X şi Y două procese Bessel pătratice
independente de dimensiuni δ şi respectiv δ ′ , cu stările iniţiale x , respectiv y .

( )
t
Fie Z = X + Y . Atunci Z t = x + y + (δ + δ ′)t + 2 ∫ X s dBs1 + Ys dBs2 .
0

( )
Fie B 3 o altă mişcare browniană, independentă de B 1 , B 2 . Procesul W definit prin

t  X s dBs1 + Ys dBs2  t
Wt = ∫ 1{Z s >0}   + 1{Z =0} dBs3
 Zs  ∫0 s
0  

t
este o mişcare browniană şi are loc relaţia: Z t = x + y + (δ + δ ′)t + 2 ∫ Z s dWs .
0

Funcţii Bessel

π (I −ν (z ) − Iν (z ))
ν ∞
z z 2n
Funcţiile Bessel Iν ( z ) =   ∑ şi Kν (z ) =
n = 0 2 n!Γ (ν + n + 1) 2 sin π z
2n
2

( )
verifică ecuaţia diferenţială Bessel: x 2 u ′′(x ) + xu ′( x ) − x 2 + ν 2 u (x ) = 0 .

Densităţi de tranziţie

Fie E xδ media în raport cu Q xδ . Propoziţia 3.23. implică relaţia

(
E xδ (exp(− λρ t )) = E 1x (exp(− λρ t )) E01 (exp(− λρ t )) )δ −1

şi cum în raport cu Q 1x variabila aleatoare ρ t este pătratul unei variabile gaussiene se

1  λx 
poate verifica relaţia: E 1x (exp(− λρ t )) = exp − .
1 + 2λt  1 + 2λt 
Atunci

1  λx 
E xδ (exp(− λρ t )) = exp − .
(1 + 2λt )
δ 2
 1 + 2λt 

97
Procesul Bessel şi procesul Bessel pătratic sunt procese Markov şi densităţile lor de
tranziţie sunt cunoscute. Densitatea de tranziţie qt(ν ) a unui proces BESQ (ν ) este dată de

expresia

ν 2
1  y  x + y   xy 
qt(ν ) (x, y ) =   exp −  Iν ,
2t  x   2t   t 

iar procesul Bessel de index ν are densitatea de tranziţie pt(ν ) definită prin

ν
y y  x2 + y2   xy 
pt(ν ) ( x, y ) =   exp −  Iν   ,
t  x  2t   t 

unde Iν este funcţia Bessel de index ν .

Pentru x = 0 probabilitatea de tranziţie a unui proces Bessel pătratic de index ν

este dată de formula: q (ν ) (0, y ) = (2t )


− (ν +1)
(Γ(ν + 1))−1 yν exp − y
.
 2t 
Pentru x = 0 probabilitatea de tranziţie a unui proces Bessel de index ν este
 y2 
dată de formula: p (ν ) (0, y ) = 2 −ν t −(ν +1) (Γ(ν + 1)) y 2ν +1 exp −
−1
 .
 2t 
Pentru un proces Bessel de dimensiune δ au loc următoarele relaţii:

(ν )
( − λTb
) =  ν
ν
 b  K a 2λ ( )
, pentru b < a
Ea e
 a  Kν b 2λ ( )
(ν )
( − λTb
) =  ν
ν
 b  I a 2λ ( )
, pentru a < b
Ea e
 a  Iν b 2λ ( )
Observaţie. Pentru b < a , deoarece Pa(ν ) (Tb < ∞ ) = lim E a(ν ) e − λTb
λ →0
( ) are loc relaţia


b
Pa(ν ) (Tb < ∞ ) =   . Pentru z în vecinătatea lui 0 are loc relaţia Kν ( z ) ~ c(ν )z −ν .
a
  µ2 t
  R ν −γ 
(ν ) 
Propoziţia 3.24. E r exp − aRt2 −
 2
ds
∫0 Rs2   r 
(
  = E r(γ )   t  exp − aRt2 ) ,
    
unde γ 2 = µ 2 + ν 2 .

98
Demonstraţie. Fie (Rt , t ≥ 0 ) un proces Bessel cu un index ν şi cu starea iniţială r > 0 .

1 1
dv exp(− vx )v α −1 rezultă
Γ(α ) ∫0
Din relaţia α
=
x

 1  ∞
E r(ν )  = 1 α −1 (ν )
( (
 Γ(α ) ∫ dvv E r exp − vRt
2
)) .
 (Rt )

 0

 r 2v 
Fie α ≥ 0 . Din egalitatea E r(ν ) (exp(− vRt2 )) =
1
exp −  şi printr-o
(1 + 2vt )1+ν  1 + 2 vt 

 1  1 2t

schimbare de variabilă obţinem E r(ν )  = 1


 Γ(α ) ∫ dvv (1 − 2tv ) exp − r v .
α −1 ν −α 2
( )
 (Rt )

 0

De asemenea are loc relaţia:


  µ2 t
  R ν  µ 2 +ν 2 t

  = E r(0 )   t  exp − aRt2 −
ds ds
E r(ν )  exp − aRt2 − ∫0 Rs2 ∫0 Rs2  =
 2   r   2 
     

 Rt ν −γ 
(γ )  
= E r   exp − aRt2
 r 
( ) , unde γ = µ 2 +ν 2 .
 

 1  ∞
(γ )   
Cum E r 
  Rt
 exp − aR  ( 1
 Γ(α ) ∫0
= t
2
) ( (
dvvα −1 E r(γ ) exp − (v + a )Rt2 = ))
  

r 2 (v + a ) 

1 
∫ dvv (1 + 2(v + a )t )
α −1 − (1+γ )
= exp −  atunci,
Γ(α ) 0  1 + 2(v + a )t 

   r 2 (v + a ) 

µ2 t
ds 1 
∫ dvv (1 + 2(v + a )t )
− (1+γ )
E r(ν )  exp − aRt2 − ∫0 Rs2  = α −1
exp − 
 1 + 2(v + a )t 
 2   Γ(α )r ν −γ
   0

unde α =
1
2
(γ − ν ) = 1
2
(µ 2
+ ν 2 −ν . )
Propoziţia 3.25. Pentru BESQ δ are loc relaţia:

  1 1   1 
Q xδ  exp − b 2 ∫ ρ s ds   = (cosh b ) exp − xb tanh b  .
−δ 2
 2   2 
  0 

99
Demonstraţie. Pentru orice funcţie local mărginită F procesul

def t 1
t

Z t = exp ∫ F (s ) ρ s dWs − ∫ F 2 (s )ρ s ds 
0 20 

este un martingal local. Procesul BESQ δ ρ verifică ecuaţia dρ t = 2 ρ t dWt + δdt ,

atunci

1 t 1
t

Z t = exp ∫ F (s )d (ρ s − δ s ) − ∫ F 2 (s )ρ s ds  . (9)
2 0 20 

Dacă F este diferenţiabilă atunci formula de integrare prin părţi ne conduce la


următorul rezultat:
t t

∫ F (s )dρ s = F (t )ρ s − F (0)ρ 0 − ∫ ρ s dF (s )
0 0
(10)

şi înlocuind relaţia (10) în expresia (9) obţinem

1 t
 1t 
( )
Z t = exp  F (t )ρ t − F (0 )x − δ ∫ F (s )ds  − ∫ F 2 (s )ρ s ds + ρ s dF (s ) 
2 
  0  20 

Φ′
Fie F = astfel încât pentru b dat, Φ satisface relaţia Φ ′′ = b 2 Φ , Φ (0 ) = 1 ,
Φ
Φ ′(1) = 0 . Este uşor de arătat că Φ (t ) = cosh (bt ) − tanh (b )sinh (bt ) . Atunci

1 b2
t

Z t = exp (F (t )ρ t − F (0 )x − δ ln Φ(t )) − ∫ ρ s ds 
2 2 0 

este un martingal şi are loc relaţia

  1 δ b2
1

1 = E (Z 0 ) = E (Z 1 ) = E  exp − xΦ ′(0 ) − ln Φ(1) − ∫ Rs ds  
 
  2 2 2 0 

1
Pentru Φ(1) = şi Φ ′(0 ) = −b tanh b obţinem rezultatul căutat.
cosh b

100
3.3.4. Procesul Cox-Ingersoll-Ross

Procesul Cox-Ingersoll-Ross este soluţia ecuaţiei diferenţiale stochastice:

drt = k (θ − rt )dt + σ rt dWt (11)

Schimbarea de variabilă (variabila timp)

Schimbarea variablei timp după formula A(t ) = σ 2 t 4 reduce studiul soluţiei


ecuaţiei (11) la cazul σ = 2 .
Dacă Z t = rσ 2t 4 atunci dZ t = k ′(ϑ − Z t )dt + 2 Z t dBt , unde k ′ = kσ 2 4 şi B este o

mişcare browniană. Procesul CIR definit în relaţia (11) este un proces de forma
 σ 2 kt  4kθ
rt = e − kt ρ  ( )
e − 1  , unde (ρ (s ), s ≥ 0 ) este un proces BESQ δ (α ) cu δ = 2 . In
σ
 4k 
4kθ
particular dacă > 2 procesul nu atinge starea 0.
σ2
Din a doua teoremă de existenţă rezultă faptul că ecuaţia (11) admite o soluţie unică,

{ }
def
nenegativă. Presupunem 2kθ ≥ σ 2 şi notăm T0x = inf t ≥ 0 ; rt x = 0 primul moment în

( )
care este atinsă starea 0. Atunci P T0x = ∞ = 1 , adică procesul r nu atinge starea

( )
(poziţia) 0. Pentru 0 ≤ 2kθ < σ 2 şi k > 0 , P T0x < ∞ = 1 iar pentru k < 0 are loc

(
relaţia P T0x < ∞ ∈ (0,1) . )
Probabilităţi de tranziţie pentru procesul CIR

Propoziţia 3.26. Densitatea de tranziţie P (rt ∈ dr rs = ρ ) = f (r ; t − s, ρ )dr este


ν 2
e kt  re kt   ρ + re kt  1 
dată de formula f (r , t , ρ ) =   exp −  Iν  ρre kt  ,
2c  ρ   2c   c 

σ2 2kθ
unde c = (e kt
)
− 1 şi ν = − 1.
4k σ2

101
In particular, fie rt (ρ ) un proces CIR a cărei valoare iniţială este r0 (ρ ) = ρ . In aceste

condiţii variabila aleatoare Yt = rt (ρ )e kt c are densitatea

P(Yt ∈ dy ) =
e −ε 2 − y 2 ν 2
2α ν 2
e y Iν ( )
yα dy

unde α = ρ c . Aceasta este o lege chi-pătrat, necentrată cu δ = 2(ν + 1) grade de


libertate şi α parametrul de necentralitate.
Dacă χ 2 (δ , α , y ) este funcţia de repartiţie cumulată atunci

 4θ ρ Ke µT  σ 2 kT
P (rT > µ r0 = ρ ) = 1 − χ 2  2 , ,  , unde c = ( )
e −1 .
σ c c  4k

Bibliografie

Jeanblanc M. - Course de Calcul Stochastique, 2002

J. Ma, J. Yong - Forward-Backward Stochastic Differential Equations, volume


1702 of Lecture Notes in Maths. Springer-Verlag, Berlin, 1999

B. Oksendal - Stochastic Differential Equations. Springer, Berlin, 1992

P. Protter - Stochastic Integration and Differential Equations. Springer,


Berlin, 1990
Simon Thomas - Elements de Calcul Stochastique, 2002 – note de curs

Steven E. Shreve - Stochastic Calculus and Finance, 1997 – note de curs

102
Capitolul 4

Probleme asociate mişcării browniene

Capitolul include subiecte legate de condiţiile în care un proces stochastic poate


fi reprezentat printr-o integrală stochastică.

4.1. Regula de schimbare a probabilităţii

4.1.1. Teorema lui Girsanov

Propoziţia 4.1. Fie P şi Q două probabilităţi echivalente pe spaţiul (Ω,FT ) .


Există atunci (Lt , t ≤ T ) , un P - Ft martingal strict pozitiv astfel încât Q = LT P în

raport cu FT şi Q Ft = Lt P Ft . Altfel spus, pentru orice variabilă aleatoare X


Q -integrabilă, Ft -măsurabilă şi pentru t ≤ T are loc egalitatea E Q ( X ) = E P (Lt X ) .

Mai mult, L0 = 1 şi E P (Lt ) = 1 pentru orice t ≤ T .

Demonstraţie. Dacă restricţiile probabilităţilor P şi Q la FT sunt echivalente există o


variabilă aleatoare LT , FT -măsurabilă astfel încât Q = LT P în raport cu FT (teorema
lui Radon-Nikodym). Spunem că LT este densitatea lui Q în raport cu P şi
EQ ( X ) = E P (LT X ) pentru orice variabilă X FT -măsurabilă şi Q -integrabilă. In

particular, variabila aleatoare LT este strict pozitivă şi E P (LT ) = 1 . Fie Lt = E P (LT Ft ) .

Din construcţie (Lt , t ≤ T ) este un martingal şi este densitatea Radon-Nikodym

Ft -măsurabilă a lui Q în raport cu P pe Ft . Prin urmare, dacă X este Ft -măsurabilă


şi Q integrabilă atunci:

EQ ( X ) = E P (LT X ) = E P (E P (XLT Ft )) = E P ( XE P (LT Ft )) = E P ( XLt ) .

(
In acest caz are loc P = (LT ) Q şi E P (Y ) = EQ (L−T1Y ) iar L−t 1 , t ≤ T este un
−1
)
Q -martingal.
Observaţie. Vorbim despre legea unei variabile aleatoare sau al unui proces, în raport
cu P sau Q în funcţie de probabilitatea cu care este înzestrat spaţiul. O proprietate

103
adevărată P -aproape sigur este adevărată Q -aproape sigur. O variabilă
aleatoare P -integrabilă nu este în mod necesar şi Q -integrabilă.
Propoziţia 4.2. M este un Q -martingal dacă şi numai dacă LM este un
P -martingal.
Demonstraţie. Fie M un Q -martingal. Utilizând formula lui Bayes şi proprietatea de
P -martingal a lui L , pentru s ≤ t obţinem relaţia:

E P (Lt M t F s )
M s = EQ (M t F s ) = .
Ls

Reciproca rezultă din formula lui Bayes.


Teorema lui Girsanov. Fie (Bt , t ≥ 0) o mişcare browniană pe spaţiul

(Ω,F , P ) şi (Ft ) filtrarea sa canonică. Fie

t 1
t

Lt = exp ∫ θ s dBs − ∫ θ s2 ds  , t ≤ T ,
0 20 

unde θ este un proces (Ft ) adaptat (sau altfel spus, dLt = Ltθ t dBt ). Presupunem
t
def
~ ~
E (LT ) = 1 . Fie dQ FT = LT dP FT . Atunci Bt = Bt + ∫ θ s ds , unde B este o Q -mişcare
0

browniană.
 1
T

Observaţie. In condiţia lui Novikov E P  exp ∫ θ s2 ds  < ∞ , LT este o variabilă
 20 
aleatoare pozitivă a cărei medie este 1 în raport cu P iar L este un P -martingal. Dacă
L nu are media 1 atunci L este un supermartingal al cărui medie este strict mai mică
decât 1.
Demonstraţie. In cazul în care θ = m , unde m este o constantă, utilizăm
caracterizarea mişcării browniene prin proprietatea de martingal a expresiei
 λ2   ~ λ2 
exp λBt − t  . Demonstrăm că exp λBt − t  este un Q -martingal sau că
 2   2 

 λ2 
Lt exp λ (Bt − mt ) −
2
 1
( ( 
t  = exp (λ + m )Bt − 2mλ + m 2 + λ2 t 
2
))
   

104
~
este un P -martingal. In cazul general se poate verifica că B este un Q -martingal
~
deoarece B L este un P -martingal. Croşetul Q -semimartingalului B coincide cu cel al
~
termenului ce reprezintă martingalul sau cel al Q -martingalului B . Croşetul nu
~
depinde de alegerea probabilităţii. Croşetul lui B este egal cu croşetul lui B şi este
~
( ) ~
egal cu t . Deoarece Bt2 − t Lt este un P -martingal, rezultă Bt2 − t este un

Q -martingal.
Propoziţia 4.3. Fie Z un P -martingal local continuu şi fie Q o probabilitate

 1 
definită pe Ft prin dQ = exp Z t − Z t dP = Lt dP . Dacă N este un P -martingal
 2 
 1 
local continuu, procesul  N t − N , Z t
= Nt − N , L t , t ≥ 0  este un Q -martingal
 Lt 
local continuu al cărui croşet este N t .

 1 
Demonstraţie. Martingalul Lt = exp Z t − Z t  verifică relaţia dLt = Lt dZ t .
 2 
( )
Procesul N t − N , Z t , t ≥ 0 este un Q -martingal local. Utilizând formula lui Itô

( )
verificăm faptul că Lt N t − Lt N , Z t , t ≥ 0 este un P -martingal local.

Utilizând spaţiul canonic rescriem rezultatul de mai sus. Legea mişcării


browniene W este absolut continuă. Analog legea mişcării browniene cu deriva ν ,
 ν2 
definită prin W (ν ) Ft = expν Wt − t  W Ft unde W este aplicaţie canonică, este
 2 

absolut continuă. Altfel spus relaţia poate fi scrisă în forma :

  ν2  
W (ν ) (F ( X u , u ≤ t )) = W expνX t − t  F ( X u , u ≤ t ) , pentru orice funcţie F .
  2  

Considerăm cazul particular F ( X u , u ≤ t ) = f ( X t ) . Termenul W (ν ) (F ( X u , u ≤ t )) poate

fi scris atunci în forma W (ν ) ( f ( X t )) = E ( f (Wt + νt )) , unde termenul W din membrul

drept este o mişcare browniană şi deci (Wt + ν t , t ≥ 0 ) este o mişcare browniană cu

105
  ν2  

deriva ν . Termenul W expνX t −
 t  F ( X u , u ≤ t ) din membrul drept devine
  2  

  ν2     ν2  
W expνX t − t  f ( X t ) = E  expνWt − t  f (Wt ) ,
  2     2  

unde W este o mişcare browniană. Din teorema lui Girsanov rezultă că dacă W este o
 ν2 
mişcare browniană în raport cu P şi dQ Ft = expνWt − t dP Ft atunci
 2 

 

E P  expνWt −
ν2
2

(( ~
t  f (Wt ) = EQ ( f (Wt )) = EQ f Wt + νt ,))
   
~
unde W este o mişcare browniană în raport cu Q .
Observaţie. 1. Acest lucru poate fi generalizat la cazul în care t este timp de oprire şi
de asemenea la cazul în care schimbarea de probabilitate este de forma

t 1
t

exp ∫ θ s dWs − ∫ θ s2 ds  .
0 20 

2. Dacă L este soluţia ecuaţiei dLt = Ltθ t dBt cu L0 = 1 , P se poate scrie în funcţie de

Q în felul următor dP = L−T1 dQ , unde

 T T
1 2 
L = exp − ∫ θ (s )dBs + ∫ θ (s )ds 
−1
T

 0 20 

şi B este o mişcare browniană în raport cu P .


L poate fi scris ca o mişcare browniană în raport cu Q în forma:

 T ~ 1
T

L−T1 = exp − ∫ θ (s )dBs − ∫ θ 2 (s )ds  .
 0 20 

( )
Procesul L−t 1 , t ≥ 0 este un Q -martingal şi dacă X este din FT atunci are loc relaţia

E P ( X ) = EQ (L X ) .
−1
T

106
Propoziţia 4.4. Dacă X este un proces stochastic definit prin relaţia
X t = ν t + Bt şi dacă Taν = inf {t ≥ 0; X t = a} este timp de lovire a nivelului a , atunci

pentru λ astfel încât ν 2 + 2λ > 0 are loc relaţia

( ( ))
E exp − λTaν = exp νa − a ν 2 + 2λ . ( )
Demonstraţie. Se observă că pentru λ > 0 are loc relaţia:

( ( )) ( ( ))
E exp − λTaν = E 1 (T ν <∞ ) exp − λTaν = W (ν ) exp(− λTa )1(Ta <∞ ) =
a
( )
   
 1   1
= W expνX Ta − ν 2T a  exp(− λTa )1 (T ν <∞ )  = eνa W exp − ν 2 + 2λ T a   .
2
( )
   a
   2 

( )
Observaţie. Dacă aν > 0 atunci P Taν < ∞ = 1 , în caz contrar P Taν < ∞ < 1 . Atunci ( )
 1  a2 
(
P Taν ∈ dt = ) dt
aeνa exp −  + ν 2 t   .
2πt 3  2 t 

Cazul vectorial

A. Mişcări browniane standard independente


Dacă B (1) şi B (2 ) sunt două mişcări browniene independente în raport cu P şi
dacă dQ = Lt dP , unde Lt = L1t L2t cu Lit definit prin

 t ( i ) (i ) 1 t ( i ) 2 
L = exp ∫ θ s dBs − ∫ θ s ds  ,
i
t
20
( )
0 

(
are loc relaţia dLt = Lt θ t(1) dBt(1) + θ t(2 ) dBt(2 ) ) şi se arată că în raport cu Q ,
t
~
Bt(i ) = Bt(i ) − ∫ θ (i ) (s )ds sunt mişcări browniene independente.
0

B. Mişcări browniene corelate


Fie B (1) şi B (2 ) două mişcări browniene corelate în raport cu P , fie ρ

coeficientul de corelaţie, Ft filtrarea naturală a celor două mişcări browniene B (1) , B (2 )

şi dQ Ft = Lt dP Ft unde (
dLt = Lt θ t(1) dBt(1) + θ t(2 ) dBt(2 ) .) In raport cu Q,
t
~
( )
Bt(i ) = Bt(i ) − ∫ θ (i ) (s ) + ρθ ( j ) (s ) ds sunt mişcări browniene corelate, coeficientul de
0

107
~
corelaţie fiind ρ . Pentru a demonstra că B (1) este o Q -mişcare browniană este

suficient să demonstrăm că LB (1) este un Q -martingal local. Formula lui Itô ne


conduce la relaţia

( ) ( ) ( ( ) ) (
d LB (1) = LB (1) θ 1 dB (1) + θ 2 dB (2 ) + L dB (1) − θ 1 + ρθ 2 dt + L θ 1 dt + θ 2 ρdt . )
4.1.2. Aplicaţii – modele financiare

Fie S un proces care verifică ecuaţia diferenţială stochastică

dS (t ) = S (t )(b(t )dt + σ (t )dWt ) .

Putem determina o unică probabilitate Q echivalentă cu P astfel încât


dS (t ) = S (t )(r (t )dt + σ (t )dBt ) , unde B este o Q -mişcare browniană iar r este o

dobânda fără risc. Este suficient să considerăm dQ Ft = Lt dP Ft , unde L este soluţia

ecuaţiei dLt = Ltθ (t )dWt , pentru care L0 = 1 şi θ (t ) = −σ −1 (t )(b(t ) − r (t )) , integrabil.

Prin urmare

b(t ) − r (t )
dBt = dWt − θ (t )dt = dWt + dt
σ (t )

este o Q - mişcare browniană şi

b(t )dt + σ (t )dWt = b(t )dt + σ (t )(dBt + θ (t )dt ) = r (t )dt + σ (t )dBt .

 t 
Probabilitatea Q este numită probabilitate de risc neutru. Dacă Rt = exp − ∫ r (s )ds 
 0 
este coeficientul de actualizare atunci procesul SR verifică relaţia d (S t Rt ) = S t Rt σ t dBt

şi este un Q -martingal local.


Observaţie. SR reprezintă procesul de actualizare a preţului unui instrument financiar.

Valoarea unui activ pe o piaţă financiară completă

Fie r o constantă şi fie un portofoliu format dintr-un activ cu valoarea ξ .


Valoarea portofoliului se dublează în urma unui proces de autofinanţare. Notăm cu Vt

valoarea portofoliului la momentul t . ξ este o variabilă aleatoare pozitivă, FT


măsurabilă, integrabilă. In cazul opţiunilor call europene ξ este egală cu
108
(S T − K ) = max(S T − K ,0 ) , unde K reprezintă preţul de exercitare a opţiunii la
+

momentul T şi S T reprezintă valoarea de piaţă a activului la momentul T .


Propoziţia 4.5. Procesul VR este un Q -martingal şi

EQ (RT VT Ft ) = EQ (RT ξ Ft ) = Vt Rt .

Demonstraţie. Presupunem existenţa unui portofoliu a cărui valoare se dublează în


urma unui proces de autofinanţare, astfel încât valoarea sa la momentul t este dată de
relaţia: Vt = α t S t0 + π t S t , pentru care VT = ξ . Condiţia de autofinanţare este prin
~ ~
definiţie dVt = α t dS t0 + π t dS t . Dacă notăm prin Vt = e − rtVt şi S t = e − rt S t valorile
~ ~
actualizate atunci este uşor de demonstrat că dVt = π t dS t sau în forma integrală:

t t
~ ~ ~
Vt = V0 + ∫ π s dS s = V0 + ∫ π s S s Rsσ s dBs (1).
0 0

Se observă că oricărui proces π şi oricărei valori iniţiale x îi putem asocia un


t
~ ~
parametru α . Este suficient să se calculeze Vt = V0 + ∫ π s dS s şi să se aleagă α t astfel
0

~
încât Vt = e rtVt = α t S t0 + π t S t .
~
Procesul V este o integrală stochastică în raport cu un Q -martingal , este prin
urmare un Q -martingal local. Dacă este un martingal atunci are loc relaţia:

~ ~
( ) (
Vt = EQ VT Ft = EQ e − rT ξ Ft . ) (2)

Portofoliul de acoperire se obţine din ecuaţia (1). Cum π este cunoscut trebuie doar să
1
considerăm α t = 0
(Vt − π t S t ) = V~t − π t S~t . Rămâne de demonstrat existenţa lui π .
St
Pentru evaluarea activului, ξ , trebuie identificată probabilitatea de risc neutru, calculată

( )
media EQ e − rT ξ Ft şi identificat π . Cum valoarea activului, ξ este pozitivă rezultă că

şi valoarea Vt a portofoliului obţinut prin dublarea valorii activului este de asemenea

pozitivă.
In cazul modelului Black-Scholes, dS (t ) = S (t )(bdt + σdBt ) , unde b şi σ sunt

109
( ~ ~
)
constante, atunci dS t = S (t ) rdt + σdBt , unde B este o Q -mişcare browniană şi S

µ −r
este o mişcare browniană geometrică. Pentru θ = − şi dLt = LtθdBt are loc relaţia
σ
~ ~
dQ = Lt dP . Mişcare browniană B este dată de relaţia dB = dB − θdt .

Se poate calcula media condiţionată (2) în cazul ξ = (S T − K ) . Din


+

proprietatea Markov rezultă expresia Vt = F (t , S t ) pentru care

F (t , x ) = xN (d1 ) − Ke − r (T −t ) N (d 2 ) .

~ ~
Fie F (t , x ) = e − rt F (t , x ) . Având în vedere că F (t , S t ) este un martingal atunci formula
t
∂F
~ ~
lui Itô implică F (t , S t ) = F (0, S 0 ) + ∫ (u, S u )dS~u . Cum derivata martingalului
0
∂x
~
F (t , S t ) este 0 regăsim ecuaţia de evaluare .

∂F
Observaţie. Dacă π t = (t , S t ) , atunci termenul ∂F (t , S t ) este factorul Delta al
∂x ∂x
opţiunii call.
De asemenea obţinem relaţia:

(( ) ) ( ) (
Vt = EQ e − r (T −t ) (S T − K ) Ft = e − rt EQ S T e − rT 1 ST > K − Ke − rt EQ e − rT 1 ST > k .
+
)
S t e − rt
este un martingal pozitiv de medie 1 şi facem o schimbare de probabilitate.
S0

Notăm S t e − rt = S 0 M t , unde M este Q -martingal ce verifică relaţia dM t = σM t dBt .

Acesta este un martingal pozitiv de medie 1 deci poate fi utilizat în schimbarea de


probabilitate. Fie Qˆ = M t dQ . Procesul Bˆ = B − σdt este o mişcare browniană în raport

( ( )) (
cu Q̂ şi dS t = S t rdt + σ dBˆ t + σdt = S t (r + σ 2 )dt + σdBˆ . )
 σ2    σ2  
Atunci: S T = S 0 exp  r + σ 2 − T + σBˆ T  = S 0 exp  r + T + σBˆ T  şi
2    2 
    

( ) ( )
EQ S T e − rT 1 ST > K = S 0 EQ M T 1 ST > K S0 = S 0 Qˆ (S T > K S 0 ) .

110
Noţiunea de arbitraj

In teoria financiară modernă noţiunea de arbitraj este extem de importantă. Se


referă la circumstanţe în care cumpărarea şi vânzarea simultană a unor instrumente
financiare pe diferite pieţe conduc la obţinerea unui profit fără risc.
In termeni probabilistici este vorba de un portofoliu adaptat π a cărui valoare finală
obţinută în urma unei strategii de autofinanţare este pozitivă:

V0 (π ) = 0 , VT (π ) ≥ 0 , E (VT ) > 0

Exemple. 1. Rata de schimb valutar. Considerăm o acţiune XY tranzacţionată pe


pieţele din New York şi Londra. Presupunem că valoarea acţiunii XY pe piaţa new
yorkeză este de $155 în timp ce pe piaţa londoneză este evaluată la £100 în condiţiile în
care paritatea liră/dollar este 1,6 (£1= $1,6). Un arbitrajor poate cumpăra şi vinde
simultan 100 de acţiuni XY obţinând un profit fără risc (cumpără la New York şi vinde
la Londra) în absenţa costurilor de tranzacţie: 100 × (1,6$/£ × £100 - $155) = $500 .

2. Tranzacţionarea unei valori mobiliare pe pieţe diferite (ex. aur). Presupunem că


valoarea curentă a unei uncii de aur este de $398 (preţul spot) şi avem un acord de
cumpărare în trei luni a unei cantităţi de aur pentru un preţ de $390 (contract futures).
Presupunem că pentru împrumutarea unei uncii de aur pe o perioadă de trei luni
dobânda lunară solicitată este de 10% iar pentru un depozit pe 3 luni la bancă dobânda
lunară este de 4%. Această situaţie crează condiţii de arbitraj. Astfel un arbitrajor poate
împrumuta o uncie de aur, o vinde la preţul curent de $398, depozitează banii pe trei
luni şi simultan se angajează într-un contract futures de cumpărare în trei luni a unei
uncii de aur la preţul de $390.
Costul împrumutului unei uncii de aur este $398 × 0,1 × 1 4 = $9,95 în timp ce dobânda
obţinută în urma constituirii depozitului bancar este $398 × 0,4 × 1 4 = $3,98 . După trei
luni arbitrajorul va avea un capital egal cu $398+$3,98-$9,95=$392,03 şi cumpărând o
uncie la preţul prevăzut în contractul futures obţine un profit de $2,03. Costurile de
tranzacţie au fost presupuse egale cu 0.

111
4.2. Timp de lovire

Fie (Ω,F , P ) un spaţiu probabilistic şi fie pe acest spaţiu definită o mişcare


browniană (Wt , t ≥ 0 ) a cărei stare iniţială este 0. Fie F = (Ft , t ≥ 0 ) filtrarea sa naturală

şi fie X un proces stochastic continuu. Definim timpul de lovire (sau de atingere) a


nivelului (sau a stării) a , Ta ( X ) , prin relaţia

Ta ( X ) = inf {t ≥ 0 : X t = a} .

Primul moment în care procesul X se află deasupra nivelului a este dat de expresia

Ta+ ( X ) = inf {t ≥ 0 : X t ≥ a}.

Primul moment în care procesul X se află sub nivelului a este dat de expresia

Ta− ( X ) = inf {t ≥ 0 : X t ≤ a}.

Observaţie. 1. Pentru X 0 = x şi a > x are loc relaţia Ta+ = Ta . 2. Unele traiectorii ale
mişcării browniene vor lovi nivelul a > 0 direct, altele vor avea un traseu mai amplu
trecând prin valori negative pentru ca după un timp suficient de mare să ajungă în
poziţia a . Astfel Ta va avea o anumită distribuţie.

4.2.1. Legea de probabilitate a unui timp de lovire şi principiul maximului – cazul


mişcării browniene

Fie (Wt , M t ) o pereche de variabile aleatoare unde Wt este o mişcare browniană

iar M t = sup Ws , altfel spus M este maximul mişcării browniene pe intervalul [0, t ] .
s ≤t

M este un proces crescător cu valori nenegative.


Propoziţia 4.6. (Principiul simetriei). Pentru 0 ≤ y şi x ≤ y are loc relaţia:

P(Wt ≤ x, M t ≥ y ) = P(Wt ≥ 2 y − x ) .

Demonstraţie. Fie T y+ = inf {t : Wt ≥ y} primul moment în care mişcarea browniană

depăşeşte nivelul (starea) y . Acesta este un F -timp de oprire (sau stopare) şi pentru

y ≥ 0 are loc relaţia : (T y+ ≤ t ) = (M t ≥ y ) . Mai mult pentru y ≥ 0 şi având în vedere

continuitatea traiectoriilor mişcării browniene timpul de oprire T y+ este şi timp de lovire

112
a nivelului y , adică T y+ = T y = inf {t : Wt = y} şi WTy = y . Prin urmare, au loc

egalităţile:

(
P(Wt ≤ x, M t ≥ y ) = P (Wt ≤ x, T y ≤ t ) = P Wt − WTy ≤ x − y, T y ≤ t . )
( ) ( )
Notaţie: E P 1 A T y = P A T y . Având în vedere proprietatea tare Markov obţinem:

( ) ( ( )) (
P Wt − WTy ≤ x − y, T y ≤ t = E 1Ty ≤t P Wt − WTy ≤ x − y T y = E 1Ty ≤t Φ (T y ) , )
~
( )
 ~ def 
unde Φ (u ) = P Wt −u ≤ x − y şi Wu = WTy +u − WTy , u ≥ 0  este o mişcare browniană
 
independentă de (Wt , t ≤ T y ) având aceeaşi lege cu − W . Prin urmare
~

~
( )
Φ (u ) = P Wt −u ≥ y − x . Atunci

( ) ( ( ))
E 1Ty ≤t Φ(T y ) = E 1Ty ≤t P Wt − WTy ≥ y − x T y = P(Wt ≥ 2 y − x, T y ≤ t ) .

Deci P(Wt ≤ x, M t ≥ y ) = P(Wt ≥ 2 y − x, M t ≥ y ) . Deoarece 2 y − x ≥ y , membrul

drept al relaţii este egal cu P(Wt ≥ 2 y − x ) , ceea ce implică faptul că pe mulţimea

{Wt ≥ 2 y − x} timpul de lovire T y este mai mic decât t , sau M t ≥ y .

Propoziţia 4.7. Fie W o mişcare browniană cu starea iniţială 0 şi fie


M t = sup(Ws ,0 ≤ s ≤ t ) . Atunci

 x   x − 2y 
pentru y ≥ 0 şi x ≤ y P(Wt ≤ x, M t ≤ y ) = N   − N   (3)
 t  t 

 y  − y
pentru y ≥ 0 şi x ≥ y P(Wt ≤ x, M t ≤ y ) = P(M t ≤ y ) = N   − N  
 t  t 
pentru y ≤ 0 P(Wt ≤ x, M t ≤ y ) = 0 .

Densitatea perechii (Wt , M t ) este dată de expresia:

2  ( x − 2 y )2 
P(Wt ∈ dx, M t ∈ dy ) = 1 y ≥01 x≤ y (2 y − x ) exp−

dxdy .

π t3  2t 

Demonstraţie. Din principiul simetriei, pentru y ≥ 0 şi x ≤ y rezultă:


P(Wt ≤ x, M t ≤ y ) = P(Wt ≤ x ) − P(Wt ≤ x, M t ≥ y ) = P(Wt ≤ x ) − P(Wt ≥ 2 y − x ) .

113
Pentru y ≥ 0 şi x ≥ y , cum M t ≥ Wt rezultă P(Wt ≤ x, M t ≤ y ) = P(Wt ≤ y, M t ≤ y ) .

 y  − y
Pentru x = y în (3) rezultă P(M t ≤ y ) = P(Wt ≤ y, M t ≤ y ) = N   − N   .
 t  t 
Pentru y ≤ 0 , cum M t ≥ M 0 = 0 rezultă P(Wt ≤ x, M t ≤ y ) = 0 .

Observaţie. Fie τ = inf {t > 0 : Bt = 0} atunci P(τ = 0 ) = 1

Propoziţia 4.8. Fie W o mişcare browniană şi pentru orice y > 0 definim


T y = inf {t : Wt = y}. Procesul crescător (T , y ≥ 0)
y are creşteri independente şi

( )
în lege
staţionare. De asemenea este verificată proprietatea Tλy = λ2T y , y ≥ 0 .

Demonstraţie. Proprietatea de creştere rezultă din continuitatea traiectoriilor mişcării


{
browniene. Pentru z > y are loc relaţia Tz − T y = inf t ≥ 0 : WTy +t − WTy = z − y . }
Din proprietatea Markov rezultă independenţa şi staţionaritatea. Fie λ > 0 atunci
proprietatea de scalare a mişcării browniene implică

 1  în lege ~
{
Tλy = inf t : Wt = y  = λ2 inf t : Wt = y , }
 λ 

~ ~ 1
unde W este o mişcare browniană definită prin Wt = Wλ2t .
λ
Propoziţia 4.9. M t şi Wt au aceeaşi lege de probabilitate.

Legea de probabilitate a unui timp de lovire. Pentru un nivel x > 0 legea de


probabilitate a timpului de lovire Tx = inf {s : Ws = x} poate fi dedusă în felul următor:

(  x2
)

P(Tx ≤ t ) = P( x ≤ M t ) = P(x ≤ Wt ) = P x ≤ G t = P 2 ≤ t  ,
G 

unde G reprezintă o variabilă aleatoare gaussiană cu media 0 şi varianţa 1.


în lege
x2
Deci Tx = şi densitatea variabilei aleatoare Tx este dată de expresia:
G2

x  x2 
P(Tx ∈ dt ) = exp −  1t ≥0 dt
2π t 3  2t 

Pentru x < 0 , având în vedere simetria mişcării browniene obţinem


în lege
Tx = inf {t : Wt = x} = inf {t : −Wt = − x} = T− x

114
şi atunci pentru orice x ≠ 0 are loc relaţia:

x  x2 
P(Tx ∈ dt ) = exp −  1t ≥0 dt .
2π t 3  2t 

In particular, pentru x ≠ 0 au loc relaţiile P(Tx < ∞ ) = 1 şi E (Tx ) = ∞ .

Legea infimului în cazul mişcării browniene are la bază aceeşi metodă de


def
calcul, observând că mt = inf Ws = − sup(− Ws ) = − sup(Bs ) , unde B = −W este o
s ≤t s ≤t s ≤t

mişcare browniană. Deci au loc relaţiile (4):


− x  2y − x 
pentru y ≤ 0 şi x ≥ y P(Wt ≥ x, mt ≥ y ) = N   − N  
 t   t 

− y  y 
pentru y ≤ 0 şi x ≤ y P(Wt ≥ x, mt ≥ y ) = N   − N  
 t   t
pentru y ≥ 0 P(Wt ≥ x, mt ≥ y ) = 0

− y  y 
pentru y ≤ 0 , P(mt ≥ y ) = N   − N   .
 t   t
Dacă mişcarea browniană W porneşte din starea z la momentul 0 şi
T0 = inf {t : Wt = 0} atunci pentru z > 0 şi x > 0 obţinem egalităţile:

Pz (Wt ∈ dx, T0 > t ) = P0 (Wt + z ∈ dx, T− z > t ) = P0 (Wt + z ∈ dx, mt > − z ) .

Pentru z > 0 diferenţiind în (4) în raport cu x obţinem:

1 x >0   ( z − x )2   ( x + z )2 
Pz (Wt ∈ dx, T0 > t ) = exp −  − exp −
 
 dx .

2π t   2t   2t 

Propoziţia 4.10. Fie T y timpul de lovire al nivelului y , cu y din R ,

corespunzător unei mişcari browniane standard. Atunci pentru λ > 0 are loc relaţia:

  λ2  
E  exp − T y   = exp(− y λ ) .
  2 

  λ2  
Demonstraţie. Pentru orice λ > 0 procesul  exp λWt − t , t ≥ 0  este un
  2  
martingal. Fie y ≥ 0 , λ ≥ 0 şi T y timpul de lovire al nivelului y atunci martingalul

115
  λ2  
 exp λWt ∧T − (t ∧ T y ), t ≥ 0  este mărginit de e λy . Teorema de selecţie opţională a
  2  
 
y
 

  λ2  
lui Doob implică E  exp λWTy − T y   = 1 . Din relaţiile P (T y < ∞ ) = 1 şi WTy = y
  2 

obţinem transformata Laplace a lui T y . Cazul pentru care y < 0 rezultă din studiul

mişcării browniene − W .
Observaţie. Pentru a aplica teorema de selecţie opţională a lui Doob trebuie să
 λ2 
verificăm dacă martingalul exp λWt ∧Ty − (t ∧ T y ) este uniform integrabil. In cazul
 2 
λ > 0 şi y < 0 o aplicare necorespunzătoare a teoremei conduce la egalitatea cu 1 şi

  λ2    λ2 
E  exp λWTy − T y   = e λy E  exp− T y  .
  2   2 

  λ2  
Ceea ce înseamnă că termenii E  exp − T y   şi exp(− yλ ) sunt egali. Acest lucru
  2 

  λ2  
este fals deoarece cantitatea E  exp − T y   este mai mică decât 1 în timp ce
  2 
cantitatea exp(− yλ ) este strict mai mare decât 1.

4.2.2. Timp de lovire - cazul mişcării browniene cu derivă

Considerăm cazul în care X t = ν t + Wt , unde W este o mişcare browniană. Fie

M tX = sup( X s , s ≤ t ) , mtX = inf ( X s , s ≤ t ) şi T y ( X ) = inf {t ≥ 0 X t = y}. Reamintim că

W (ν ) ( X t ∈ A) reprezintă probabilitatea ca mişcarea browniană X t cu deriva ν să

aparţină lui A .
Propoziţia 4.11. Pentru y ≥ 0 şi y ≥ x are loc relaţia:

 x −ν t  2ν y  x − 2 y − ν t
( )
W (ν ) X t ≤ x, M tX ≤ y = N  − e N 
 t   t 

Pentru y ≤ 0 şi y ≤ x are loc relaţia:

116
 − x +ν t  2ν y  − x + 2 y + ν t
(
W (ν ) X t ≥ x, mtX ≥ y = N )  − e N  .
 t   t 

Demonstraţie. Teorema Cameron-Martin implică:

  ν2  
( )
W (ν ) X t ≤ x, M tX ≥ y = E  expν Wt −
2
t  1{W ≤ x ,M W ≥ y }  .
   t t

Din principiul de simetrie, pentru y ≥ 0 şi y ≥ x rezultă egalitatea:

( ) (
P Wt ≤ x, M tW ≥ y = P x ≥ 2 y − Wt , M tW ≥ y )
Deci

  ν2     ν2  
E  expν Wt − t  1{W ≤ x , M W ≥ y }  = E  expν (2 y − Wt ) − t  1{2 y −W ≤ x , M W ≥ y }  =
  2  t t
   2  t t

  ν2  
= e 2ν y E  exp − ν Wt − t  1{Wt ≥ 2 y − x}  .
  2  

Aplicând din nou teorema Cameron-Martin obţinem:

  ν2  
E  exp − ν Wt − t  1{Wt ≥ 2 y − x}  = P(Wt − ν t ≥ 2 y − x ) .
  2  

Prin urmare, pentru y ≥ 0 şi y ≥ x

( )
W (ν ) X t ≤ x, M tX ≥ y = e 2ν y P(Wt ≥ 2 y − x + νt ) = e 2ν y W (ν ) ( X t ≥ 2 y − x + 2ν t ) =

 − 2 y + x −ν t 
= e 2ν y P(− Wt ≥ 2 y − x + ν t ) = e 2ν y P( X t ≤ x − 2 y ) = e 2ν y N   .
 t 

De unde rezultă

( ) (
W (ν ) X t ≤ x, M tX ≥ y = W (ν ) ( X t ≤ x ) − W (ν ) X t ≤ x, M tX ≥ y = )
 x − ν t  2ν y  x − 2 y − ν t 
= N   − e N   .
 t   t 

Pentru y ≤ 0 şi y ≤ x obţinem

( ) (
W (ν ) X t ≥ x, mtX ≤ y = P Wt + ν t ≥ x, inf (Ws + ν s ) ≤ y =
s ≤t
)

117
 2 y − x +ν t 
= P − Wt − ν t ≤ − x, sup(− Ws − ν s ) ≥ − y  = e 2ν y P(Wt − ν t ≥ − y ) = e 2ν y N  
 s ≤t   t 
In particular, principiile maximului şi minimului unei mişcări browniene cu

derivă pot fi deduse ţinând cont de relaţiile:

( ) ( ) ( ) (
W (ν ) M tX ≤ y = W (ν ) X t ≤ y, M tX ≤ y şi W (ν ) mtX ≥ y = W (ν ) X t ≥ y, mtX ≥ y , )
din unde obţinem:

 y −ν t  2ν y  − y − ν t
( )
W (ν ) M tX ≤ y = N  − e N  , y ≥ 0
 t   t 

 − y +ν t  2ν y  − y − ν t
W (ν ) (M tX ≥ y ) = N  + e N  , y ≥ 0
 t   t 

 − y +ν t  2ν y  y + ν t
( )
W (ν ) mtX ≥ y = N  − e N  , y ≤ 0
 t   t 

 y −ν t  2ν y  y + ν t
( )
W (ν ) mtX ≤ y = N  + e N  , y ≤ 0 .
 t   t 

şi
 y −ν t  2ν y  − y − ν t
( )
W (ν ) (T y ( X ) ≥ t ) = W (ν ) M tX ≤ y = N  − e N  , y > 0
 t   t 
 − y +ν t  2ν y  y + ν t
( )
W (ν ) (T y ( X ) ≥ t ) = W (ν ) mtX ≥ y = N  − e N  , y < 0
 t   t 

In particular, pentru t tinzând la ∞ în expresia lui W (ν ) (T y ( X ) ≥ t ) obţinem pentru

ν ≤ 0 : W (ν ) (T y = ∞ ) = 1 − e 2ν y .
Transformata Laplace a unui timp de lovire în cazul mişcării browniene cu
derivă se obţine din teorema Cameron-Martin:
  λ2    ν 2 + λ2 
W (ν )  exp − T y ( X )  = E  expν WTy − T y (W )  , unde W (ν ) (.) este media
  2    2 

în raport cu W (ν ) . Din propoziţia 4.10 expresia din membrul drept este egală cu



 1
 2
( ) 
(
eν y E  exp − ν 2 + λ2 T y (W )  = eν y exp − y ν 2 + λ2 .

)

118
Prin urmare, (ν ) 
 λ2 
(
W  exp − T y ( X )  = eν y exp − y ν 2 + λ2 . Pentru λ = 0 şi
 )
  2 
ν y < 0 obţinem W (ν )
(T y < ∞ )= e 2ν y
.

Acest lucru demonstrează faptul că probabilitatea ca o mişcare browniană cu


derivă pozitivă să lovească un nivel negativ este diferită de 1. In cazul ν y > 0 are loc

W (ν ) (T y < ∞ ) = 1 . Acest lucru este explicat de faptul că (Wt + νt ) t tinde la ν pentru t

tinzând la ∞ , deci deriva conduce procesul către infinit. In cazul ν y > 0 pentru λ = 0

obţinem W (ν ) (T y ( X )) = y ν . Pentru ν y < 0 timpul mediu de oprire este infinit .

4.2.3. Timp de lovire - cazul mişcării browniene geometrice

Fie dS t = S t (µ dt + σ dWt ) , S 0 = x , unde σ > 0 . Altfel spus, fie

(( )
S t = x exp µ − σ 2 2 t + σ Wt = xeσ X t , )
µ σ
unde X t = ν t + Wt şi ν = − .
σ 2
 1 
Notăm prin Ta (S ) = inf {t ≥ 0 : S t = a} = inf t ≥ 0 : X t = ln(a x ) primul timp de
 σ 
1
lovire al nivelului a . Atunci Ta (S ) = Tα ( X ) , unde α = ln (a x ) . Atunci când un nivel
σ
1
b este asociat mişcării browniene S , notăm β = ln(b x ) . Din rezultatele anterioare
σ
obţinem legea de probabilitate a timpului de lovire şi principiile maximului şi
minimului corespunzătoare lui S pe intervalul [0, t ] .

Principiile maximului şi minimului

Pentru b > a şi b > x are loc relaţia:

 α − ν t  2ν β  α − 2 β − ν t 
( ) (
P S t ≤ a, M tS ≤ b = P X t ≤ α , M tX ≤ β = N  )
 − e N   .
 t   t 

Pentru a > b şi b < x are loc relaţia:

 − α + ν t  2ν β  − α + 2 β + ν t 
( ) (
P S t ≥ a, mtS ≥ b = P X t ≥ α , mtX ≥ β = N  )
 − e N   .
 t   t 

119
Prin urmare pentru a > x sau α > 0

( ) ( )
P(Ta (S ) < t ) = P M tS ≥ a = 1 − P M tS ≤ a = 1 − P S t ≤ a, M tS ≤ a = ( )
 α − ν t  2ν α  − ν t − α   − α + ν t  2ν α  − ν t − α 
= 1 − N   + e N   = N   + e N   .
 t   t   t   t 

Pentru a < x sau α < 0

 α − ν t  2ν α  ν t + α 
( ) (
P(Ta (S ) < t ) = P mtS ≤ a = 1 − P mtS ≥ a = N  )
 + e N   .
 t   t 

Transformata Laplace a unui timp de lovire în cazul unei mişcări browniene


geometrice
Din egalitatea Ta (S ) = Tα ( X ) obţinem

  λ2    λ2 
E  exp − Ta (S )  = W (ν )  exp − Tα ( X )  .
  2    2 

  λ2 
(
Din relaţia W (ν )  exp − Tα ( X )  = eν α exp − α ν 2 + λ2 rezultă )
  2 

  λ2 
(
E  exp − Ta (S )  = exp ν α − α ν 2 + λ2 . )
  2 

4.2.4. Timp de lovire – cazul unui proces Vasicek

Propoziţia 4.12. Fie (rt , t ≥ 0) un proces Vasicek definit prin

drt = k (θ − rt )dt + σ dWt , r0 = ρ şi fie T0 = inf {t ≥ 0 : rt = 0}. Pentru orice ρ > 0

funcţia de densitate a lui T este dată de relaţia:

( )
32
ρ  k  
f (t ) =   e exp −
kt 2 k
(ρ − θ )2 − θ 2 + ρ 2 coth kt  .
σ 2π   2σ
2
sin kt  

Demonstraţie. Considerăm cazul în care θ = 0 şi σ = 1 . Procesul Vasicek este dat de


 t

relaţia rt = e − kt  x + ∫ e ks dBs  .
 0 

120
 t

Atunci T0 = inf {t ≥ 0 : rt = 0} = inf t : x + ∫ e ks dBs = 0 = inf {t : W A(t ) = − x} şi aplicând
 0 
t
teorema lui Dubins scriem martingalul ∫ e ks dBs ca o mişcare browniană W pentru care
0

t
A(t ) = ∫ e 2 ks ds . Prin urmare T0 = A(inf {t ≥ 0 : Wt = − x}) şi are loc relaţia:
0

Px (T0 ∈ dt ) = A′(t )P0 (T− x (W ) ∈ dA(t )) .

Fie S o mişcare browniană geometrică cu factorul σ determinist . S verifică


ecuaţia:

dS t = S t (rdt + σ (t )dWt ) , S 0 = x .

 1
t t

Fie Ta (S ) = inf {t : S t = a} = inf t : rt − ∫ σ 2 (s )ds + ∫ σ (s )dWs = α  , unde
 20 0 
α = ln (a x ) .
Observaţie. Volatilitatea σ reprezintă caracteristica unei valori mobiliare de a
înregistra fluctuaţii mari de preţ într-o perioadă scurtă de timp.
t
Procesul U t = ∫ σ (s )dWs este o mişcare browniană şi poate fi reprezentat prin Z A(t ) ,
0

t
unde Z este o mişcare browniană şi A(t ) = ∫ σ 2 (s )ds . Fie C inversa funcţiei A putem
0

defini atunci

 1   1 
Ta (S ) = inf t : rt − A(t ) + Z A(t ) = α  = inf C (u ) : rC (u ) − u + Z u = α  .
 2   2 

Problema s-a redus la studiul timpului de lovire a unei margini neconstante α − rC (u ) ,

 1 
de către o mişcare browniană cu derivă  Z u − u , u ≥ 0  .
 2 
Observaţie. Fie Th (V ) = inf {t ≥ 0 : Vt = h(t )}, unde h este o funcţie deterministă şi V

un proces de difuzie. Există un număr mic de cazuri pentru care legea lui Th (V ) este

cunoscută în mod explicit.


121
4.2.5. Timp de lovire a unei bariere

Cazul mişcării browniene

Fie a < 0 < b şi Ta , Tb timpi de lovire a nivelurilor a şi respectiv b definiţi

astfel: Ta = inf {t ≥ 0 : Wt = a} , Tb = inf {t ≥ 0 : Wt = b} şi fie T * = Ta ∧ Tb timpul de

ieşire din tunel. Fie M t şi mt maximul şi respectiv minimul mişcării browniene pe

intervalul [0, t ] .
Propoziţia 4.13. Fie W o mişcare browniană şi T * = Ta ∧ Tb . Atunci pentru

orice a, b, x cu a < x < b au loc relaţiile:

b−x
Px (Ta < Tb ) = şi E (T *) = x(b + a ) − ab − x 2 .
b−a

( )
Demonstraţie. Martingalul Wt ∧Ta ∧Tb , t ≥ 0 este mărginit astfel încât

( )
x = E x WTa ∧Tb = aPx (Ta < Tb ) + bPx (Tb < Ta ) .

Rezultatul se obţine din egalitatea

Px (Ta < Tb ) + Px (Tb < Ta ) = 1 .

(W 2
t ∧Ta ∧Tb )
− (t ∧ Ta ∧ Tb ), t ≥ 0 fiind un martingal atunci:

( )
x 2 = E x Wt 2∧Ta ∧Tb − E x (t ∧ Ta ∧ Tb ) .

Trecând la limită, pentru t tinzând la infinit obţinem:

x 2 = a 2 Px (Ta < Tb ) + b 2 Px (Tb < Ta ) − E x (Ta ∧ Tb ) ,

deci are loc relaţia E x (Ta ∧ Tb ) = x(b + a ) − ab − x 2 .

Propoziţia 4.14. Transformata Laplace a timpului T * este dată de expresia:

  λ2   cosh (λ (a + b ) 2 )
E  exp − T *  = .
  2   cosh (λ (a − b ) 2 )

Legea de probabilitate pentru (M t , mt , Wt ) este dată de relaţia:

P(a ≤ mt < M t ≤ b, Wt ∈ E ) = ∫ ϕ (t , x )dx ,


E

122
unde pentru E ⊂ [a, b] are loc relaţia:

1 ∞
  1   1 2 
ϕ (t , x ) = ∑  exp − 2t (x + 2k (b − a )) 2
 − exp − ( x − 2b + 2k (b − a ))   .
2π t k = −∞    2t 

Demonstraţie. Transformata Laplace a timpului T * se obţine din teorema de selecţie


opţională a lui Doob:

  a + b     a + b  λ 2T *  
exp − λ    = E  exp λ WT * − −  =
  2     2  2  

 b − a    λ2T *    a − b    λ 2T *  
= exp λ  E  exp −  1{T *=Tb }  + exp λ  E exp −  1{T *=Ta } 
 2   2    2   2  
   

Utilizând − W obţinem următorul rezultat:

  a + b     a + b  λ 2T *  
exp − λ  
 =   λ − − −   =
E  exp  WT* 
  2     2  2 

 − 3b − a    λ 2T *    − b − 3a    λ2T *  
= exp λ  E  exp −  1{T *=Tb }  + exp λ  E exp −  1{T *=Ta } 
 2   2    2    2  
   

Rezolvând sistemul liniar rezultă:

   λ2T *   sinh (− λa )
 E  exp −  1{T *=Tb }  =
 sinh (λ (b − a ))
2  
  



 E  exp − λ T *  1
2
 sinh (λb )
=
 
   sinh (λ (b − a ))
{T * =Ta 
}
  2 

Rezultatul căutat se obţine din relaţia:

  λ2    λ2T *     λ 2T *  
E  exp − T *   = E  exp −  1{T *=Tb }  + E  exp −
 
 1{T *=Ta } 

  2    2     2  

Cazul mişcării browniane cu derivă

Fie X t = ν t + Wt o mişcare browniană cu derivă şi fie T * = Tα ∧ Tβ cu

α < 0 < β . Din teorema Cameron-Martin rezultă:

123
(ν ) 
 λ2    ν2   ν2 
W  exp − T * ( X )  = E  expν WT * − T *  exp − T *   =
      
  2    2   2 

  ν 2 + λ2     ν 2 + λ2  
= E  expν WT * − T *  1{T *=Tα }  + E  expν WT * − T *  1{T *=Tβ }  =
  2     2  

  ν 2 + λ2     ν 2 + λ2  
= exp(να )E  exp − T *  1{T *=Tα }  + exp(νβ )E  exp − T *  1{T *=Tβ }  .
  2     2  

   λ2T *   sinh (− λa )
 E  exp −  1{T *=Tb }  =
 sinh (λ (b − a ))
2  
  

Sistemul  implică:

 E  exp − λ T *  1
2
 sinh (λb )

T *=Ta }  =
 
 sinh (λ (b − a ))
   2 
{
 

  λ2  sinh (µβ ) sinh (− µα )


W (ν )  exp − T * ( X )  = exp(να ) + exp(νβ ) ,
  2   sinh (µ ( β − α )) sinh ( µ (β − α ))

unde µ 2 = ν 2 + λ2 . In particular, pentru α = − β formula precedentă devine:

  λ2  cosh (νβ )
W (ν )  exp − T * ( X )  =
  2 (
  cosh β ν 2 + λ2
.
)
4.3. Alte probleme

4.3.1. Teorema de reprezentare a unui proces previzibil

Fie B o mişcare browniană, F filtrarea sa naturală şi fie Ft = σ (Bs , s ≤ t ) .

Definiţia 4.1. Fie (Ω,F , P ) un spaţiu probabilistic şi fie (Fn )n∈N o filtrare

asociată acestui spaţiu. Un proces stochastic (H n )n >0 este previzibil în raport cu

filtrarea (Fn )n∈N dacă pentru orice n > 0 , variabila aleatoare H n este Fn −1 -măsurabilă.

Propoziţia 4.15. Fie M un (Ft ) - martingal astfel încât sup E M t2 < ∞ . Există
t ≤T

T 2 
un unic proces previzibil H , cu E  ∫ H s ds  < ∞ , astfel încât are loc relaţia :
0 

124
t
M t = M 0 + ∫ H s dBs ,
0

pentru orice t din intervalul [0, T ] . Dacă M este un (Ft ) - martingal local există un

unic proces previzibil H astfel încât oricare ar fi t are loc relaţia:


t
M t = M 0 + ∫ H s dBs .
0

Demonstraţie. Dacă F este o variabilă aleatoare F∞ -măsurabilă, de pătrat integrabilă



atunci admite reprezentarea F = E (F ) + ∫ H s dBs .
0

Fie H mulţimea variabilelor aleatoare care verifică proprietatea de reprezentare,


demonstrăm că H este închisă în L2 şi conţine variabile aleatoare de forma
( )
F = E f B& ∞ , unde f = ∑ λi 1(ti −1 ,ti ] sunt totale în L2 . Se obţine rezultatul căutat pentru
i

cazul martingalelor mărginite după care se generalizează.


Fie B o P -mişcare browniană cu filtrarea canonică (Ft ) şi fie θ un proces

 1T 
(Ft ) -adaptat ce verifică condiţia lui Novikov E  exp ∫ θ s2 ds   < ∞ . Fie Q
 
 2 0 
probabilitatea echivalentă a lui P definită pe Ft prin

t 1
t

dQ = exp ∫ θ s dBs − ∫ θ s2 ds dP = Lt dP .
0 20 

t
~ def
Din teorema lui Girsanov rezultă faptul că Bt = Bt − ∫ θ s ds este o (Ft ) - Q -mişcare
0

~ ~
browniană. In general, filtrarea lui B este diferită de cea a lui B , Ft ⊂ Ft . In această

situaţie se aplică teoarema de reprezentare a unui proces previzibil: dacă M este un


Ft - Q -martingal local, există un proces Ft -previzibil H astfel încât pentru orice t are
t
~
loc relaţia: M t = M 0 + ∫ H s dBs .
0

Este suficient să scriem reprezentarea P -martingalului ML şi având în vedere formula


lui Itô să deducem reprezentarea lui M în raport cu probabilitatea Q . Dacă

125
dS t = S t (µdt + σ t dBt ) în raport cu probabilitatea P , atunci procesul de actualizare
~ ~ ~
verifică relaţia dS t = σ S t dBt .

Calcul Malliavin

Definiţia 4.2. Spaţiul Cameron-Martin este spaţiul funcţiilor γ definite pe


t
spaţiul Weiner Ω = C 0 ([0,1]) prin γ (t ) = ∫ g (s )ds unde g ∈ L2 ([0, T ]) .
0

Fie F : Ω → R o variabilă aleatoare a cărei derivată în raport cu direcţia γ ,


d
dacă există, este dată de formula: Dγ F (ω ) = (F (ω + εγ )) .

Spunem că F este diferenţiabilă dacă există ψ ∈ L2 ([0, T ]× Ω ) astfel încât

T
Dγ F (ω ) = ∫ψ (t , ω )g (t )dt .
0

Atunci putem scrie Dt F (ω ) = ψ (t , ω ) .


T
Derivata Malliavin poate fi definită şi în felul următor: fie W (h ) = ∫ h(s )dWs ,
0

pentru h ∈ L2 ([0, T ]) . Pentru o funcţie netedă f derivata unei variabile aleatoare


F = f (W (h1 ),..., W (hn )) este procesul stochastic (Dt F , t ≤ T ) definit prin:

n
∂f
Dt F = ∑ (W (h1 ),...,W (hn ))hi (t ) .
i =1 ∂xi

4.3.2. Ecuaţii diferenţiale stochastice retrograde

Fie date: (Ω,F , P ) un spaţiu probabilistic, B o mişcare browniană


d -dimensională pe acest spaţiu, filtrarea sa naturală F = (Ft ) , b o funcţie definită pe

(R +
× R n × R n×d ), uniformă, lipschitziană

b(t , x1 , y1 ) − b(t , x 2 , y 2 ) ≤ K ( x1 − x 2 + y1 − y 2 ) şi ζ o variabilă FT -măsurabilă de


pătrat integrabilă.

126
Problema este de a rezolva ecuaţia diferenţială retrogradă
− dX t = b(t , X t , Yt )dt − Yt * dBt verificând condiţia terminală XT = ζ , adică

determinarea perechii ( X , Y ) F -adaptată astfel încât:

T T
X t = ζ + ∫ b(s, X s , Ys )ds − ∫ Ys* dBs . (5)
t t

Un caz simplu este cel în care b nu depinde de X şi Y . Dacă există o soluţie a


T T t
ecuaţie X t = ζ + ∫ b(s )ds − ∫ Ys* dBs atunci variabila X t + ∫ b(s )ds este Ft -măsurabilă şi
t t 0

T T
este egală cu expresia ζ + ∫ b(s )ds − ∫ Ys* dBs . Aplicând media condiţionată în ambii
0 t

 tT

membri obţinem relaţia X t + ∫ b(s )ds = E  ζ + ∫ b(s )ds Ft  , de unde rezultă că procesul

0  0 
t T
X t + ∫ b(s )ds este un martingal cu valoarea terminală ζ + ∫ b(s )ds cunoscută. Din
0 0

teorema de reprezentare a unui proces previzibil rezultă că există un proces Y astfel


t t
încât X t + ∫ b(s, X s )ds = y + ∫ Ys dBs , de unde obţinem soluţia căutată.
0 0

Definiţia problemei. Fie date: (Ω,F , P ) un spaţiu probabilistic, W o mişcare


browniană n -dimensională pe acest spaţiu, filtrarea sa naturală F , ζ o variabilă
aleatoare FT -măsurabilă de pătrat integrabilă şi o familie F -adaptată de procese
f (t ,⋅, x, y ) , x , y ∈ R d × R d ×n cu valori în R d . Problema care ne interesează constă în
determinarea soluţiei unei ecuaţii diferenţiale stochastice pentru care condiţia terminală
şi forma termenului derivă sunt date.
Presupunem că ecuaţia diferenţială stochastică este de forma:

− dX t = f (t , X t , Yt )dt − Yt * dWt ,

unde Y * reprezintă transpusa matricei Y , iar condiţia terminală este X T = ζ . Altfel


t t
scris pentru s < t ecuaţia are forma: X s − X t = ∫ f (u , X u , Yu )du − ∫ Yu* dWu .
s s

127
Soluţia căutată este perechea ( X , Y ) de procese F -adaptate ce satisfac ecuaţia:

T T
X t = ζ + ∫ f (s, X s , Ys )ds − ∫ Ys* dWs .
t t

Existenţa soluţiei problemei.

Definiţia 4.3. Spaţiul L2 ([0, T ], R d ) este format din mulţimea proceselor

stochastice cu valori în R d , de pătrat integrabile, Ft -progresiv măsurabile, adică

T 2

mulţimea proceselor Z pentru care E ∫ Z s ds  < ∞ .

0 
 
Propoziţia 4.16. Presupunem că pentru orice pereche ( x, y ) din R n × R d ×n

procesul f (., x, y ) este progresiv măsurabil, cu f (.,.,0,0 ) ∈ L2 ([0, T ], R d ). De asemenea


presupunem că funcţia f (t , ω ,.,.) este uniform lipschitziană adică are loc inegalitatea:

f (t , x1 , y1 ) − f (t , x 2 , y 2 ) ≤ K ( x1 − x 2 + y1 − y 2 ) .

(
In aceste condiţii există o unică pereche ( X , Y ) din L2 [0, T ], R d × L2 [0, T ], R d ) ( ) ce
satisface ecuaţia (5).
Demonstraţie. Considerăm cazul n = d = 1 şi demonstrăm unicitatea soluţiei în acest
caz. Fie (X 1 ,Y 1 ) şi (X 2
,Y 2 ) două soluţii din L2 ([0, T ], R d )× L2 ([0, T ], R d ) . Notăm

∆X s = X 1 − X 2 şi ∆Ys = Y 1 − Y 2 . Aplicând formula lui Itô pentru (∆X s ) obţinem


2

relaţia:
T T T
(∆X t )2 + ∫ (∆Ys )2 ds = −2∫ ( f (s, X s1 , Ys1 ) − f (s, X s2 , Ys2 ))∆X s ds − 2∫ ∆X s ∆Ys dWs .
t t t

Având în vedere faptul că integrala stochastică este un martingal şi ţinând cont de


proprietatea Lipschitz a funcţiei f rezultă inegalitatea:

( ) T  T 2 1  
T
E (∆X t ) + E  ∫ (∆Ys ) ds  ≤ cE  ∫ ds(∆X s )  + E  ∫ (∆Ys ) ds  .
2 2 2

t  t  2 t 

Prin urmare unicitatea rezultă din teorema lui Gronwall.

128
Demonstrăm existenţa soluţiei. Pasul 1. Considerăm cazul particular:
( )
− dX t = f t dt − Yt dWt , X T = ζ , unde f este din H 2 R d . Având în vedere relaţia:

t
 T

X t + ∫ f (s )ds = E  ζ + ∫ f (s )ds Ft 
0  0 

 T

obţinem X t = E  ζ + ∫ f s ds Ft  , 0 ≤ t ≤ T .
 t 
Teorema de reprezentare ne conduce la existenţa variabilei Y ∈ L2 ([0, T ], R ) astfel încât
t
martingalul ( X t , t ≥ 0 ) admite reprezentarea X t = X 0 + ∫ Ys dWs .
0

Pasul 2. Considerăm ecuaţia − dX t = f (t , Yt )dt − Yt dWt , X T = ζ , unde f (t , y ) este

progresiv măsurabilă cu f (t , ω ,0,0) din L2 şi f (t , ω ,.) uniform lipschitziană.

Construim un şir iterativ de procese ( X n , Yn ) cu Y0 (t ) ≡ 0 . Având în vedere pasul 1

construim soluţia ( X 1 , Y1 ) a ecuaţiei − dX 1 (t ) = f 1 (t )dt − Y1 (t )dWt , X 1 (T ) = ζ , unde

f 1 (t ) = f (t , Y0 (t )) este cunoscută. Din primul pas rezultă că şirul ( X n , Yn ) cu n ≥ 1

aparţine L2 ([0, T ], R ) × L2 ([0, T ], R ) . Demonstrăm faptul că şirul converge la soluţia

căutată. Aplicăm lema lui Itô şirului ( X n +1 (t ) − X n (t )) . Inlocuind acest şir în ecuaţia
2

diferenţială sochastică obţinem:

− d ( X n +1 (t ) − X n (t )) = ( f (t , Yn (t )) − f (t , Yn −1 (t )))dt − (Yn (t ) − Yn −1 (t ))dWt .

Atunci rezultă:

( 2
) T 2 
E ( X n +1 (t ) − X n (t )) + E  ∫ (Yn (s ) − Yn −1 (s )) ds  ≤
t 

T T

≤ cE  ∫ ( X n +1 (s ) − X n (s )) ds + ∫ (Yn (s ) − Yn −1 (s )) ds  .
 2 2

t t 

a a2
Din relaţia 2ab = 2 cb ≤ 2 + c 2 b 2 obţinem:
c c

 T
  1 T 
E  ( X n +1 (t ) − X n (t )) + ∫ (Yn +1 (s ) − Yn (s )) ds  ≤ K  2 E ∫ X n +1 (s ) − X n (s ) ds  +
2 2 2

 t  c t 

129
T
T 
+ c E ∫ Yn (s ) − Yn −1 (s ) ds . Fie ϕ n (t ) = e E  ∫ ( X n (s ) − X n −1 (s )) ds  şi
2 2 ct 2

t t 

T 
ψ n (t ) = e E  ∫ (Yn (s ) − Yn −1 (s ))2 ds  . Inlocuind aceste relaţii în expresia de mai sus
ct

t 
1
obţinem relaţia: − ϕ n′ (t ) + ψ n +1 (t ) ≤ ψ n (t ) .
2
T T
1
Integrând inegalitatea obţinem ϕ n (t ) + ∫ψ n +1 (s )ds ≤ ∫ψ n (s )ds . In particular rezultă
t
2t

T T
1
ϕ n (0 ) ≤ ϕ n (0 ) + ∫ψ n +1 (s )ds ≤ n ∫ψ 1 (s )ds .
0 2 t

1
Tinând cont de relaţia − ϕ n′ (t ) + ψ n +1 (t ) ≤ ψ n (t ) şi cum ϕ n′ (t ) ≤ 0 rezultă
2
1
ψ n +1 (0) ≤ c~ 2 − n + ψ n (0) deci cele două serii ϕ n (0) şi ψ (0) sunt convergente iar
2
şirurile X n şi Yn sunt convergente în L2 .

Pasul 3. Considerăm următoarea relaţie de recurenţă:


T T
Y0 (t ) ≡ 0 , − dX n (t ) = ∫ f (s, X n −1 (s ), Yn (s ))ds − ∫ Yn (s )dWs , X n (T ) = ζ , 0 ≤ t ≤ T .
t t

Şirul ( X n (t ), Yn (t ),0 ≤ t ≤ T )n≥1 este un şir Cauchy deci converge la o pereche ( X , Y )

care este soluţia căutată.

Exemplu. operaţiuni de hedging

Considerăm o piaţă financiară compusă din d instrumente financiare, un proces


de consum adaptat c şi un agent care în urma unei investiţii pe piaţa financiară doreşte
să obţină un capital final X T . Capitalul asociat unui portofoliu (π i , i = 0,1,...d ) este dat
d
de relaţia X t = π 0 (t )S t0 + ∑ π i (t )S ti .
i =1

d
Condiţia de autofinanţare dX t = π 0 (t )dS t0 + ∑ π i (t )dS ti − ct dt permite scrierea
i =1

următoarei relaţii: dX t = π t* (bt − r1)dt − ct dt + π t*σ t dWt unde 1 este un vector

130
d -dimensional cu componentele egale cu 1. Trebuie determinată soluţia următoarei
ecuaţii:

dX t = b(t , X t , Yt )dt + Yt* dWt ,

unde b(t , ω , x, y ) = rx + y * (b − r1) − ct (ω ) iar portofoliul (π i , i = 0,1,...d ) este de forma

π t = Yt*σ t−1 .
t
In acest caz procesul Rt X t + ∫ c s Rs ds este un martingal în raport cu Q , deci
0

 T

H t X t = E P  X T H T + ∫ c s H s ds Ft  , unde H este produsul dintre factorul de discount şi
 t 
densitatea Radon-Nikodym.
Teorema de comparaţie. Fie f i , i = 1,2 cu f 1 (t , x, y ) ≤ f 2
(t , x, y ) , două

procese ce satisfac ipotezele precedente. Fie ζ i două variabile aleatoare

FT -măsurabile, de pătrat integrabile astfel încât ζ 1 ≤ ζ 2 . Fie (X i , Y i ) o soluţie a


ecuaţiei

( ) ( )
− dX ti = b i t , X ti , Yt i dt − Yt i dWt .
*

Atunci X ti ≤ Yt i oricare ar fi t ≤ T .

Demonstraţie. Fie Yt = X t1 − X t2 şi Yˆt = Yt1 − Yt 2 . Procesul Y este soluţie a ecuaţiei

( )
− d (Yt ) = ∆ x b1 (t )Xˆ t + ∆ y b1 (t )Yˆt + b1 (t , X t2 , Yt 2 ) − b 2 (t , X t2 , Yt 2 ) dt − Yˆt* dWt ,

Yt = ζ 1 − ζ 2

unde

b1 (t , X t1 , Yt1 ) − b1 (t , X t2 , Yt1 )
∆ y bt1 = × 1X 1≠ X 2
X t1 − X t2 t t

∆ x bt1 =
( ) (
b1 t , X t1 , Yt1 − b1 t , X t1 , Yt 2 )
× 1Y 1 ≠Y 2
Yt1 − Yt 2 t t

Demonstraţia se încheie având în vedere caracterul lipschitzian al lui b1 . In particular


∆ x bt1 şi ∆ y bt1 sunt mărginite.

131
4.3.3. Regula de schimbare a parametrului timp

Fie A un proces crescător, adică un proces nul în 0, continuu la dreapta şi


adaptat. Inversul procesului crescător A este un proces C definit prin
C u = inf {t At > u}, cu convenţia inf {φ } = ∞ . Procesul C este crescător, continuu la

dreapta şi verifică relaţiile: C u − = inf {t At ≥ u} şi {C u > t} = {At < u} . De asemenea

ACs ≥ s şi At = inf {u C u > t}. Pentru orice u , variabila aleatoare C u este un timp de

oprire. Dacă A este continuu şi strict crescător atunci C este continuu şi are loc relaţia
C ( A(t )) = t . Printr-o schimbare a variabilei timp obţinem formula

∞ ∞
: ∫ f (s )dAs = ∫ f (C s )1Cs <∞ ds .
0 0

Observaţie. Dacă M este un martingal continuu de pătrat integrabil există un unic


proces crescător continuu notat cu M pentru care procesul M t2 − M t , t ≥ 0 este un ( )
t
martingal. In cazul în care M t = M 0 + ∫ H s dBs croşetul lui M este procesul crescător
0

t
M t
= ∫ H s2 ds .
0

Teorema Dubins Schwartz. Dacă M este un martingal continuu pentru care


M,M ∞
= ∞ atunci există o mişcare browniană W astfel încât M t = W At , unde

At = M , M t .

Demonstraţie. Fie A= M şi Wt = M Ct unde C este inversul procesului A .

Procesul M Ct
= t este crescător iar W este un martingal în raport cu FCt . Prin

urmare W este o mişcare browniană şi deci M t = W At .

Propoziţia 4.17. Păstrând notaţiile din teorema Dubins Schwartz putem face
următoarea afirmaţie: dacă Z este un proces progresiv măsurabil astfel încât
∞ def ∞

∫ Zs d M < ∞ atunci procesul Yt = Z Ct verifică relaţiile: ∫ Ys2 ds < ∞ ;


2
s
0 0

t M t Ct t

∫ Z dM
0
s s = ∫ Y dW ; ∫ Z dM
0
u u
0
v v = ∫ Yu dWu .
0

132
t At

Observaţie. 1. Z 1 (t ) = ∫ H s dM s şi Z 2 (t ) = ∫ Yu dWu sunt martingale care au acelaşi


0 0

t t
croşet. 2. In cazul M t = ∫ H s dBs are loc relaţia A(t ) = ∫ H s2 ds . Dacă H este pozitiv şi
0 0

A (t )

continuu atunci H s = A′(s ) . Considerând M t = ∫ dW s obţinem:


0

 A (t ) 
d  ∫ dWs  = dM t = H t dBt = A′(t )dBt .
 0 

Aplicaţii. 1. Procesul Bessel

Propoziţia 4.18. Fie W o mişcare browniană . Procesul (exp(Wt + ν t ), t ≥ 0 ) ,

unde ν ∈ R + este un proces Bessel de indice ν pentru care exp(Wt + νt ) = R (ν ) ( At (ν )) ,


t
unde At (ν ) = ∫ exp(2(Ws + νs ))ds şi R (ν ) sunt procese BES de indice ν .
0

t
Demonstraţie. Fie procesul crescător At (ν ) = ∫ exp(2(Ws + νs ))ds şi fie
0

Ct

Cu = inf {t ≥ 0 : At = u} inversul său . Faptul că ACt = t = ∫ exp(2(Ws + νs ))ds implică


0

Cut

(( )) ~ ~
dt = exp 2 WCt + νC t dC t . Procesul continuu W definit prin Wu = ∫ exp(W s + νs )dWs
0

Cut

este un martingal, procesul crescător fiind egal cu ∫ exp 2(W


0
s + νs )ds = u şi este o

t
~ ~
mişcare browniană. Din definiţia lui W putem scrie W At = ∫ exp(Ws + νs )dWs sau
0

~
dW At = exp(Wt + νt )dWt .

( )
def
Demonstrăm că Ru = exp WCu + ν C u este un proces Bessel. Formula lui Itô ne

conduce la următoarea relaţie:

133
1 ~  1
d exp(Wt + ν t ) = exp(Wt + ν t )(dWt + ν dt ) + exp(Wt + ν t )dt = dW At + ν +  exp(Wt + ν t )dt
2  2
t
~  1
sau exp(Wt + ν t ) = 1 + W At + ∫ ν +  exp(Wt + ν s )ds . Prin urmare
0
2
C

( ) ~  1
u

exp WCu + ν Cu = 1 + Wu + ∫ ν +  exp(Ws + ν s )ds şi


0
2

Cu u
( )
u
(
exp 2 WCu + ν Cu ) u
ds
∫ exp(Ws + ν s )ds = ∫ exp WCu + ν Cu dC s =
0 0 s =0
∫ exp(W Cu + ν Cu ) dC = ∫
s
exp(W + ν C )
0 Cu u

Atunci forma diferenţială este

( ~  1
d exp WCu + ν Cu = dWu + ν +  ) du
2  exp WCu + ν Cu ( )

~  1  du
şi dRu = dWu + ν +  . Rezultatul căutat se obţine având în vedere relaţia
 2  Ru

R At = exp(Wt + ν t ) şi unicitatea soluţiei ecuaţiei diferenţiale asociate procesului

BES (ν ) .

2. Procesul Cox-Ingersoll-Ross

Propoziţia 4.19. Dacă r este soluţie a ecuaţiei drt = (a + brt )dt + σ rt dWt ,

r0 = α , unde b este o funcţie continuă, atunci

 1 σ 2 t
în lege  
(rt , t ≥ 0) = 
 β (t )
R ∫ β ( s )ds 
, t ≥ 0 ,

  4 0  

s
4a
unde β (s ) = exp− ∫ b(t )dt şi R este un proces BESQ cu indexul δ = .
0 σ2
t
Demonstraţie. Fie ρ t = rt exp− ∫ b(s )ds = rt β (t ) . Din formula lui Itô rezultă
0

t t
ρ t = ρ 0 + a ∫ β (s )ds + σ ∫ β (s ) ρ (s )dWs .
0 0

134
u
Definim procesul crescător C (u ) = σ 2 ∫ β (s )ρ (s )ds . Atunci procesul invers al său este
0

A(t ) = inf {u C (u ) = t} . Aplicând formula de schimbare a timpului obţinem:

A (t ) A (t )

ρ A(t ) = ρ 0 + a ∫ β (s )ds + σ ∫ β (s ) ρ (s )dWs .


0 0

t
1
Cum A′(t ) = rezultă ρ A(t ) = ρ 0 + at + ∫ ρ ( A(s ))dZ s , unde Z este o mişcare
β ( A(t )) 0

browniană.
Propoziţia 4.20. Dacă r este soluţie a ecuaţiei drt = (a − λ (t )rt )dt + σ rt dWt ,

r0 = x , unde λ este o funcţie continuă, atunci

 1 σ 2 t
în lege  
(rt , t ≥ 0) = 
 Λ (t )
ρ  ∫ Λ (s )ds , t ≥ 0  ,

  4 0  

s  4a
unde Λ (s ) = exp ∫ λ (t )dt  şi ρ este un proces Bessel pătratic de dimensiune 2 .
0  σ

t 
Demonstraţie. Fie Z t = rt exp ∫ λ (s )ds  = rt Λ (t ) . Aplicând formula lui Itô obţinem:
0 

t t
Z t = Z 0 + a ∫ Λ (s )ds + σ ∫ Λ(s ) Z s dWs .
0 0

σ2 u
Definim funcţia crescătoare C (u ) = ∫ Λ(s )ds . Atunci inversa sa este
4 0

A(t ) = inf {u : C (u ) = t}. Aplicând o schimbare de variabilă (timp) obţinem

A (t ) A (t )

Z A (t ) = Z 0 + a ∫ Λ(s )ds + σ ∫
0 0
Λ(s ) Z s dWs .

A (t )

Procesul σ ∫ Λ (s ) Z s dWs este un martingal iar procesul crescător asociat este dat de
0

A (t ) t
relaţia: σ 2 ∫ Λ(s )Z s ds = 4∫ Z A(s )ds , deci
0 0

135
t t
def
4a 4a
ρ t = Z A (t ) = Z 0 + t + 2 ∫ Z A( s ) dBs = ρ 0 + t + 2 ∫ ρ s dBs ,
σ2 0 σ2 0

unde B este o mişcare browniană.


Propoziţia 4.21. Densitatea de tranziţie a procesului (rt , t ≥ 0) definit prin

drt = (a − λ (t )rt )dt + σ rt dWt , r0 = x , unde λ este o funcţie continuă este dată de

relaţia:

Λ (s , t )  ρ + rΛ (s, t )  rΛ(s, t ) 
ν 2
 rρΛ (s, t ) 
P (rt ∈ dr rs = ρ ) = exp −   Iν   ,
2 Λ (s , t )
*
 2Λ* (s, t )  ρ   Λ* (s, t ) 
 

t  σ2 t
unde Λ (s, t ) = exp ∫ λ (u )du  , Λ* (s, t ) = ∫ Λ (s, u )du şi ν = 2a σ 2 − 1 .
s  4 s

Bibliografie

Henk C. Tijms - A First Course in Stochastic Models, John Wiley & Sons Ltd,
2003

Kannan D. - An Introduction to Stochastic Processes, Probability and


Applied Mathematics, Elsevier, 1979

D. Nualart - The Malliavin calculus and related topics. Springer-Verlag,


1995

Potter Philip E. - Stochastic Integration and Differential Equations (Applications


of Mathematics-Stochastic Modelling and Applied Probability
21), second edition, Springer, 2004

136
Exerciţii

1. Considerăm modelul binomial al variaţiei preţului acţiunilor pe o piaţă


financiară. Presupunem că valoarea iniţială (la momentul 0) a unei acţiuni XYZ este S 0

şi la momentul ∆T există două posibilităţi, fie preţul acţiunii creşte cu un procent u la


valoarea S 0 u fie scade cu un procent d la valoarea S 0 d . Condiţia de dobânda fără risc

implică faptul că la momentul ∆T , $1 va avea valoarea $ e r∆T .


a. Presupunem d < e r∆T < u . Să se demonstreze că în aceste condiţii preţul unei
opţiuni call europene cu timpul de maturitate ∆T şi preţul de exercitare K este
 1 − de − r∆T   ue − r∆T − 1 
 (S 0 u − K )+ +  (S 0 d − K )+
 u−d   u−d 
b. Ce se întâmplă în cazul în care condiţia d < e r∆T < u nu este verificată?

2. Presupunem că la cursul de schimb al zilei £100 valorează $280. Un speculator


estimează că până la sfârşitul anului paritatea liră -dollar va fi $2,6 cu o probabilitate
de 2/3 şi $3,0 cu o probabilitate 1/3. Acesta cumpără o opţiune put europeană ce îi dă
dreptul să vândă la sfârşitul anului cele £100 cu $290. Preţul plătit pentru opţiune este
$20. Rata dobânzii fără risk este 0. Utilizând modelul binar cu un singur pas fie
construiţi o strategie prin care una din părţi obţine profit, fie demonstraţi că preţul plătit
este cel corect. Determinaţi probabilităţile de risc neutru, adică probabilităţile p şi

(
1 − p de creştere şi respectiv scădere a lirei în raport cu care E e − r∆T S T = S 0 . Având în )
vedere că r = 0 , verificaţi dacă în aceste condiţii preţul corect al opţiunii este
E ((K − S T )+ ) (unde media este calculată în raport cu aceste probabilităţi.

3. Paritatea Put-Call. Fie Ct şi Pt preţurile unei opţiuni call europene şi respectiv

put europene cu timpul de maturitate T şi preţul de exercitare K . Presupunem că rata


dobânzii fără risc este o constantă r (costul împrumutării unui dollar pentru s unităţi de
timp este $ e rs . Să se demonstreze că pentru orice t ≤T are loc
relaţia : Ct − Pt = S t − Ke − r (T −t ) .

137
4. Presupunem că preţul unui activ are o distribuţie lognormală, adică log(S T S 0 )

are o distribuţie normală cu media µ şi varianţa σ 2 . Să se calculeze E (S T ) .

5. Fie T0 şi T1 două momente astfel încât T0 < T1 . O opţiune forward start este un

contract care permite deţinătorului să primească la momentul T0 , fără extra costuri, o

opţiune cu maturitatea T1 şi preţul de exercitare S T0 (preţul activului la momentul T0 ).

Presupunem că preţului acţiunii i se poate asocia un model binar cu doi paşi astfel încât
preţul activului la momentul T0 este fie S 0 u , fie S 0 d iar la momentul T1 este S 0 u 2 ,

S 0 ud sau S 0 d 2 , ( ) ( )
unde d < min e rT0 , e r (T1 −T0 ) ≤ max e rT0 , e r (T1 −T0 ) < u , r fiind rata

dobânzii fără risc. Să se determine preţul corect al opţiunii la momentul 0. Utilizând


modelul Black-Scholes determinaţi valoarea opţiunii forward start.

6. Fie {Bt }t ≥0 o mişcare browniană standard. Precizaţi care din următoarele

procese sunt mişcări browniene:


{− Bt }t ≥0
{cB }t c 2 t ≥0
, unde c este o constantă

{ tB }1 t ≥0

{B2t − Bt }t ≥0
Justificaţi răspunsul.

7. Fie {Bt }t ≥0 o mişcare browniană standard. Fie Ta = inf {t ≥ 0 : Bt = a} timpul de

(
lovire a nivelului a . Să se demonstreze egalitatea E (exp(− θTa )) = exp − a 2θ . Să se )
calculeze E (Ta ) şi P(Ta < ∞ ) .

8. Fie {Ft }0≤t ≤T o filtrare naturală asociată mişcării browniene standard {Bt }0≤t ≤T .

Care din următoarele procese sunt Ft - martingale:

a. exp(σBt )

b. cBt c 2 , unde c este o constantă

138
t
c. tBt − ∫ Bs ds
0

t
9. Fie f este o funcţie elementară. Arătaţi că procesul M t = ∫ f (s, Bs )dBs ,
0

definit de integrala Itô este un martingal.

 t   t
2

10. Verificaţi relaţia E  ∫ Bs dBs  = ∫ E Bs2 ds .
 
( )
 0   0

11. Utilizând formula lui Itô scrieţi ecuaţiile diferenţiale stochastice pentru
următoarele procese, în care {Bt }t ≥0 reprezintă mişcarea browniană standard:

Yt = Bt3

 1 
Yt = exp σBt − σ 2 t 
 2 
Yt = tBt

12. a. Utilizând formula lui Itô pentru funcţia f (t , x ) = x 2 arătaţi că


t

∫ B dB
s s =
2
(
1 2
)
Bt − t ,
0

unde {Bt }t ≥0 o mişcare browniană standard.

b.Utilizând formula lui Itô pentru funcţia f (t , x ) = x 3 arătaţi că


t t
1 3
∫ Bs dBs =
2
Bt − ∫ Bt dt , unde {Bt }t ≥0 o mişcare browniană standard.
0
3 0

13. Fie {Bt }t ≥0 o mişcare browniană şi fie Z t = exp(αBt ) . Utilizaţi formula lui Itô

pentru a scrie ecuaţia diferenţială stochastică asociată procesului Z t . Să se arate relaţia

α 2 
E (exp(αBt )) = exp t  .
 2 

139
14. (Procesul Ornstein-Uhlenbeck) Fie {Bt }t ≥0 o mişcare browniană. Procesul

Ornstein-Uhlenbeck {X t }t ≥0 este unica soluţie a ecuaţiei Langevin:

dX t = −αX t dt + dBt , X 0 = x .
t
Verificaţi relaţia X t = e −αt x + e −αt ∫ e αs dBs şi utilizând această expresie calculaţi media
0

şi varianţa variabilei aleatoare X t .

15. Presupunem că preţul S t al unui activ este dat de relaţia dS t = µS t dt + σS t dBt ,

unde Bt este mişcarea browniană standard. Fie r rata dobânzii fără risc. Preţul unui

activ fără risc este dat de relaţia dS t0 = rS t0 dt . Fie (H t


0
, Ht ) portofoliul care la

momentul t este compus din H t0 unităţi din activul fără risc, S t0 şi H t unităţi din

activul cu risc, S t . In fiecare din cazurile prezentate mai jos determinaţi H t0 pentru

( )
care portofoliul H t0 , H t verifică condiţia de autofinanţare dVt = H t0 dS t0 + H t dS t :

a. H t = 1
t
b. H t = ∫ S u du
0

c. H t = S t

Reamintim că valoarea portofoliului la momentul t este dată de formula


Vt = H t0 S t0 + H t S t .

16. Delta-hedging. Cum preţul unui activ poate fi privit ca o mişcare browniană
geometrică rezultă că există parametrii µ şi σ astfel încât preţul activului poate fi
modelat de ecuaţia dS t = µS t dt + σS t dBt . Ne propunem ca pe baza acestui activ să

determinăm valoarea unei opţiuni europene. Fie V (t , S t ) valoarea opţiunii la momentul

t . Ştim că pentru anumite funcţii, la momentul T , V (T , S T ) = f (S T ) . Atunci:


a. utilizând formula lui Itô exprimaţi valoarea V a opţiunii ca soluţie a unei
ecuaţii diferenţiale stochastice.

140
b. fie un portofoliu compus dintr-o opţiune şi o cantitate negativă − δ de active.
Notăm cu π valoarea acestui portofoliu. Presupunând că portofoliul verifică condiţia de
autofinanţare, determinaţi ecuaţia diferenţială stochastică verificată de π .
c. determinaţi valoarea lui δ pentru care termenul stochastic se anulează.

Teme pentru proiect:

• Modelul binomial al preţului unui activ


• Timp de oprire în cazul opţiunii americane
• Optimizarea capitalului
• Modelul Heath-Jarrow-Morton
• Modelul Hull-White
• Modelul Cox-Ingersoll-Ross
• Modelul bifactorial (Duffie & Kan)
• Schimbare de numerar
• Problema ruinării

141
Dicţionar de termeni financiari

Acoperire (Coverage)

Marja de siguranţa pentru plata serviciului datoriei aferent unei obligaţiuni


municipale bazate pe venituri. Reprezintă numărul de ori (de exemplu, acoperire 150%)
cu care câştigurile nete anuale depăşesc serviciul anual al datoriei. Poate fi o valoare
absolută sau relativă.

Active (Assets)

(1) Totalitatea bunurilor având valoare comercială deţinute de către o companie,


instituţie sau persoană fizică. Activele pot fi tangibile, cum ar fi stocurile, utilajele,
clădirile şi terenurile, sau intangibile, cum ar fi brevetele şi mărcile. (2) Partea stângă a
bilanţului în care sunt înscrise activele. (3) în cazul fondurilor de investiţii,
instrumentele financiare care alcătuiesc portofoliul se mai numesc şi active financiare
(bani, acţiuni, obligaţiuni s.a.)

Active curente (circulante) (Current assests)

Numerar precum şi active care se estimează că vor fi transformate în numerar,


în maxim un an, cum ar fi instrumentele financiare tranzacţionabile, creanţele,
stocurile. De regulă, activele curente nu sunt foarte profitabile, dar tind să confere
lichiditate şi siguranţă operaţiunilor unei firme.

Acţiune (Stock)

Instrument financiar ce reprezintă proprietatea într-o corporaţie şi conferă un


drept asupra câştigurilor şi activelor acesteia. De regulă, o actiune comună dă dreptul
deţinătorului sau să voteze cu ocazia alegerii directorilor in consiliul de administraţie
sau cu ocazia supunerii la vot a altor probleme, în adunarea generală a acţionarilor sau
prin intermediul unui mandat (proxy). In general, o acţiune preferenţială nu conferă
dreptul la vot, dar are un drept prioritar asupra câştigurilor şi asupra activelor
companiei fată de o acţiune comună - dividendele aferente acţiunilor preferenţiale
trebuie plătite înaintea dividendelor aferente acţiunilor comune. O corporaţie poate
autoriza şi alte clase de acţiuni, fiecare cu propriul său set de drepturi contractuale.

142
Bursa de mărfuri (Commodity exchange)

Piaţa organizată şi reglementată care oferă un sistem prin care pot fi încheiate
tranzacţiile cu mărfuri. In majoritatea cazurilor, acesta constă într-un ring de
tranzacţionare unde brokerii cumpărători şi vânzători se întâlnesc într-o zonă cunoscută
sub denumirea de trading pit. Astfel, deşi la unele burse sistemul de tranzacţionare este
computerizat, oferind un program pentru tranzacţionarea electronică prin terminale
aflate la distanţă, unele tranzacţii se desfăşoară încă în ringul bursei prin licitaţie cu
strigare deschisă. Tranzacţiile se pot derula în sistem imediat, sau la termen. In cazul
tranzacţiilor efectuate în sistem imediat, livrarea mărfii se face pe loc (on
spot/immediate delivery); în cazul tranzacţiilor la termen, livrarea mărfii se face la o
anumită dată în viitor (future delivery). Scopul tranzacţiilor la termen este acela de a
asigura o protecţie (hedge) împotriva risculului modificării preţului unei mărfi într-o
anumită perioadă de timp. Bursa este prevăzută cu departamente care supraveghează
toate tranzacţiile care au loc în ring şi stabileşte regulile de desfăşurare a tranzacţiilor
astfel încât afacerile să fie încheiate în mod eficient, corect şi într-o manieră etică. In
plus, bursa, funcţionând pe principiul transparenţei, colectează şi transmite informaţiile
referitoare la preţul şi mărimea tranzacţiilor astfel încât investitorii să poată cunoaşte
situaţia pieţei în orice moment.

Bursa de Opţiuni din Chicago (Chicago Board of Options Exchange (CBOE))

In Statele Unite, bursa înregistrată unde se tranzacţionează opţiuni pe acţiuni. A


fost prima bursă la care s-au tranzacţionat astfel de contracte.

Bursa de valori (Stock Exhange)

Piaţa organizată şi reglementată pe care valorile mobiliare (acţiunile comune,


instrumentele financiare echivalente cu acţiunile comune şi obligaţiunile) sunt
tranzacţionate de către membrii bursei, acţionând ca agenţi (brokeri) şi ca principali
(dealeri sau traderi). O astfel de piaţă presupune existenţa unui loc (ring de
tranzacţionare) în care brokerii şi traderii se întâlnesc pentru a executa ordinele de
cumpărare şi de vânzare ale clienţilor lor individuali şi instituţionali. Fiecare bursă
impune membrilor săi propriile cerinţe; New York Stock Exchange are cele mai severe
exigenţe.

143
Contract futures (Futures contract)

Acord de a cumpăra sau de a vinde o cantitate specificată dintr-un activ denumit


activ de bază (de exemplu, o marfă sau un instrument financiar) la o dată viitoare, la un
preţ predeterminat. Prin acest acord părţile se obligă să-şi preia reciproc riscul
pierderilor potenţiale cauzate de evoluţia preţului, printr-un transfer zilnic al unui flux
de numerar compensator determinat prin marcare la piaţă (mark to market). Contractul
futures angajează părţile să respecte două categorii de obligaţii: (1) obligaţia născută
din executarea unui contract de vânzare-cumpărare (a unei cantităţi specificate din
activul de bază, la un anumit preţ, la o dată viitoare când va avea loc o compensare
finală, adică efectuarea plăţii şi transferul dreptului de proprietate asupra activului de
bază); (2) obligaţia de a participa la un sistem de redistribuire a unui flux de numerar
care compensează zilnic pierderile potenţiale înregistrate de cealaltă parte a
contractului. Contractele futures sunt standardizate pentru a putea fi tranzacţionate activ
pe piaţă (la o bursă organizată). Emisiunea lor este deschisă, nedefinită, continuă şi
variabilă ca mărime, instituţia emitentă (bursa desemnată să tranzacţioneze acele
contracte) punând la dispoziţia investitorilor un număr nelimitat de contracte grupate pe
clase, subclase şi serii pentru toate datele de livrare posibile. Preţul de tranzacţionare al
unui contract futures este stabilit între cumpărător şi vânzător folosind fie sistemul de
licitaţie cu strigare deschisă, fie sistemul de tranzacţionare electronic. Un contract
futures obligă cumpărătorul să cumpere activul de bază şi vânzătorul să îl vândă, cu
excepţia cazului în care cumpărătorul şi/sau vânzătorul îşi acoperă poziţia înainte de
scadenţă, ceea ce se poate întâmpla dacă aceştia doresc să obţină un profit sau să
limiteze o pierdere. Acest lucru contrastează cu tranzacţionarea opţiunilor în care
cumpărătorul unei opţiuni poate alege dacă să exercite sau nu opţiunea până la data
exercitării.

Contract forward (Forward contract)

Acord între două părţi prin care acceptă să cumpere, respectiv să vândă o
anumită cantitate din activul de bază (o marfă, un instrument financiar guvernamental,
o valută sau alt instrument financiar) la un anumit preţ, cu livrarea la o dată viitoare
specificată şi în condiţii stabilite în prezent. O deosebire faţă de contractele futures o
constituie faptul că aceste contracte nu sunt standardizate; ele sunt contracte

144
personalizate încheiate între două părţi. Astfel, termenii pentru contractele forward sunt
stabiliti de comun acord între cumpărător şi vânzător şi pot fi diferiţi de cei stabiliţi
pentru contractele futures de către bursa la care acestea se tranzacţionează. O altă
deosebire este că aceste contracte nu se tranzacţionează pe o piaţă organizată şi nu
există o casă de compensaţie care să preia riscul de neîndeplinire a obligaţiilor
contractuale de către una din părţi. De asemenea, contractele forward nu sunt lichide.
Ele sunt transferate foarte greu şi, de obicei, nu pot fi anulate decât cu acordul celeilalte
părţi care, de multe ori, se obţine prin plata unor penalităţi. Denumit şi contract "to
arrive", contractul forward este predecesorul contractului futures actual.

Coeficient de corelaţie (Correlation coefficient)

Instrument statistic de măsură a gradului de dependenţă dintre două variabile,


cum ar fi de exemplu rentabilitaţile a două investiţii diferite. In cazul majorităţii
perechilor de investiţii, rentabilităţile sunt corelate pozitiv, deşi corelaţia poate fi slabă.
Uneori o investiţie poate creşte în timp ce cealaltă poate să scadă, caz în care corelaţia
este negativă sau invers. Coeficientul de corelaţie variază între -1 şi +1. Cu cât
coeficientul de corelaţie este mai apropiat de +1, cu atât este mai mare tendinţa ca
rentabilităţile să evolueze în tandem. La valori negative, coeficientul indică o corelaţie
inversă, iar atunci când acesta este egal cu zero, el indică lipsa unei corelaţii.

Coeficientul Alfa (Alpha)

Coeficient care compară randamentul real al unui fond de investiţii cu


perfomanţa estimată, la un anumit nivel de risc, de către coeficientul Beta. O valoare
pozitivă a coeficientului Alfa indică faptul că performanţele fondului sunt mai bune
decât valoarea previzionată de către coeficientul Beta. Dimpotrivă, o valoare negativă a
coeficientului Alfa indică o performanţă a fondului mai slabă decât performanţa
estimată de coeficientul Beta pentru fondul respectiv. Formula de calcul a
coeficientului Alfa este: Alfa = (F - T) - Beta x (B - T), unde F = randamentul total al
fondului, T = randamentul bonurilor de trezorerie de 90 de zile, iar B (benchmark) =
randamentul total al celui mai reprezentativ fond de acelaşi tip (din aceeaşi categorie).
Vezi Coeficientul Beta, R-pătrat.

145
Coeficientul Beta (Beta)

Coeficient care măsoară volatilitatea unei acţiuni în raport cu piaţa acţiunilor


sau cu categoria din care face parte. Standard & Poor’s 500 Stock Index are un
coeficient Beta egal cu 1. Orice acţiune care are un coeficient Beta mai mare decât 1
este mai volatilă decât piaţa, şi orice acţiune al cărei coeficient Beta este mai mic decât
1 se estimează că va creşte şi va scădea mai încet decât piaţa. Un investitor care este
foarte preocupat de conservarea capitalului ar trebui să se axeze pe acţiuni care au un
coeficient Beta mic în timp ce un investitor care este dispus să-şi asume riscuri mari în
încercarea de a obţine câştiguri mari ar trebui să caute acţiuni care au un coeficient Beta
mare.

Coeficientul Beta al unui portofoliu (Portfolio beta score)

Instrument de măsură a volatilităţii unui portofoliu, comparativ cu un indice de


referinţă, cum ar fi S&P 500. Valori ale coeficientului Beta peste 1,0 indică un
portofoliu volatil sau agresiv, valori mai mici decât 1,0 indică un portofoliu mai stabil
sau defensiv. De exemplu, un portofoliu cu un coeficient Beta de 1,25 se estimează că
va fi cu 25% mai volatil decât indicele. Coeficientul Beta al unui portofoliu se
calculează însumând valorile obţinute pentru fiecare instrument financiar deţinut în
portofoliu prin înmulţirea coeficientului Beta al instrumentului financiar cu ponderea pe
care acesta o are în cadrul portofoliului.

Contract futures pe o valută (Foreign currency future)

Contract care creează obligaţia de a cumpăra sau de a vinde în viitor o cantitate


stabilită dintr-o anumită valută.

Contract spot (Spot commodity contract)

Contract care presupune că livrarea mărfii către cumpărător este efectuată


imediat după ce a fost încheiată tranzacţia, spre deosebire de un contract futures sau
forward care presupune că livrarea mărfii se va efectua în viitor. Aceste contracte sunt
tranzacţionate pe piaţa cash (spot).

146
Contract swap (Swap contract)

Instrument financiar derivat închis, prin care participanţii schimbă riscul şi


avantajele aferente unor obligaţii contractuale de plată variabile sau fixe, cu riscul şi
avantajele aferente unor obligaţii contractuale de plată fixe sau variabile. Participanţii
sunt numai persoane juridice angajate în contracte de emisiune a instrumentelor
financiare transferabile cu grad de rating diferit, contracte comerciale, plăţi în moneda
naţională sau alte valute, precum şi în activităţi de arbitraj, hedging şi speculaţie.
Contractele swap nu au loc între partenerii contractelor economice principale de
vânzare/cumpărare, ci separat, între aceştia şi un intermediar specializat care îşi asumă
separat riscul variaţiei de preţ. Deoarece asemenea contracte nu sunt standardizate, ele
nu se pot tranzacţiona pe o piaţă organizată şi reglementată, ci se negociază individual
(pe piaţa OTC).

Cupon (Cupon)

(1) Parte detaşabilă a unei obligaţiuni la purtător care reprezintă un drept de


plată a dobânzii, indicând cuantumul dobânzii care trebuie plătită, data şi locul unde va
fi făcută plata. In general, cupoanele se plătesc semestrial. Ele sunt prezentate agentului
de plăţi al emitentului sau sunt depuse de către investitor la o bancă comerciala pentru a
încasa plata. (2) Rata dobânzii plătită de o obligaţiune.

Factorul Delta (Delta)

Variaţia preţului unei opţiuni la o variaţie de un punct a preţului activului de


bază. De exemplu, un factor delta de 0,5 indică faptul că preţul opţiunii va creşte cu o
jumătate de punct la fiecare creştere de un punct a activului de bază. Factorul delta ia în
considerare timpul rămas până la expirarea opţiunii, volatilitatea activului de bază şi
relaţia dintre preţuri. In cazul unei opţiuni call, prima opţiunii creşte atunci când preţul
activului de bază creşte; în cazul unei opţiuni put, prima opţiunii creşte atunci când
preţul activului de bază scade. Factorii delta sunt disponibili la orice casă de
compensaţie care operează tranzacţii cu opţiuni. Aceşti factori variază zilnic. Pe măsură
ce se apropie data expirării, factorul delta al opţiunilor în bani se apropie de 1.

147
Factorul gammma (Gamma)

Derivata financiara care masoara variatia asteptata a factorului delta al unei


optiuni atunci cand pretul activului de baza creste sau scade. De exemplu, daca o
optiune pe o actiune are un factor delta de 60% si un factor gamma de 5%, o crestere de
un punct a pretului actiunii de baza va determina o crestere de 5% a factorului delta, de
la 60% la 65%.

Factorul theta (Theta)

Derivata care măsoar erodarea primei unei opţiuni cauzată de trecerea timpului.
Se ştie că, la expirare, o opţiune nu va mai avea valoare de timp, ci doar valoare
intrinsecă, în cazul în care va avea. Theta are ca scop previzionarea ratei zilnice de
erodare a primei. Dacă presupunem, de exemplu, că o opţiune are o primă de 3 şi un
factor theta de 0,06, acest lucru înseamnă că în fiecare zi prima se va eroda cu 0,06.
Astfel, după prima zi ea va scădea la 2,94, după a doua zi la 2,88 şi aşa mai departe.

Factorul vega (Vega)

Derivata care măsoară efectul asupra primei unei opţiuni pe care îl are o
modificare a factorului de volatilitate a acţiunii de bază. De exemplu, dacă acţiunea
XYZ are un factor de volatilitate de 30%, iar prima curentă este de 3, atunci un factor
vega de 0,08 va indica faptul că prima va creşte la 3,08 dacă factorul de volatilitate
creşte cu 1%, adică la 31%. Atunci când acţiunea devine mai volatilă, prima va creşte
în aceeaşi proporţie. Factorul vega măsoară sensibilitatea primei la aceste variaţii ale
volatilităţii.

Hedge/Hedging (Hedging)

(1) Angajarea unei poziţii pe piaţa futures opusă faţă de poziţia deţinută pe piaţa
cash (spot) pentru a înlocui temporar o tranzacţie care urmează să fie făcută pe piaţa
cash (spot), ca protecţie împotriva riscului ca preţul să aibă o evoluţie nefavorabilă pe
piaţa cash. De exemplu, vânzarea short de contracte futures în anticiparea vânzării
viitoare a unei mărfi pe piaţa cash (spot), ca protecţie împotriva unei eventuale scăderi
a preţului, sau cumpărarea de contracte futures în anticiparea cumpărării viitoare a unei
mărfi pe piaţa cash (spot), ca protecţie împotriva unei eventuale creşteri a preţului. Prin

148
cumpărarea sau vânzarea short de contracte futures, riscul modificării preţului este
transferat speculatorilor care sunt dispuşi să accepte acest risc în speranţa obţinerii unor
profituri rapide. (2) Se referă la orice combinaţie de poziţii long şi short în instrumente
financiare, contracte futures şi opţiuni, în care o poziţie tinde să reducă riscul celeilalte;
orice strategie folosită pentru a reduce riscul unei investiţii. De exemplu, un manager
de portofoliu se poate proteja parţial împotriva riscului de scădere a pieţei transferând o
parte mai mare a portofoliului în instrumente financiare echivalente cu numerarul. Ca
alternativă, managerul ar putea vinde contracte futures pe indici de acţiuni. Dacă piaţa
scade, câştigurile din contractele futures vândute short vor compensa într-o măsură mai
mare sau mai mică scăderea în valoare a portofoliului.

Instrumente financiare derivate (Derivatives)

Instrumente financiare a căror valoare depinde de (deriva din) valoarea altui


activ, cum ar fi o acţiune, o obligaţiune, o marfă sau un indice al preţurilor acţiunilor.
Instrumentele financiare derivate fluctuează în tandem cu activul de bază. Aceste
instrumente produc adesea un efect de levier, ceea ce le face şi mai volatile. Ele pot fi
utilizate atât în scopuri speculative, cât şi pentru a reduce sau a controla un risc nedorit.
Opţiunile şi contractele futures sunt instrumente financiare derivate standardizate dar,
există şi instrumente financiare derivate care sunt create special pentru a satisface
anumite cerinţe.

Obligaţiune (Bond)

(1) Instrument financiar de credit, purtător de dobândă sau cu discont, care


reprezintă o datorie pe termen lung, emisă de autorităţile publice sau de corporaţii.
Emitentul plăteşte dobânda la intervale de timp specificate (de regulă semestrial) şi
răscumpără obligaţiunile atunci când împrumutul este programat să fie rambursat, adică
la data scadenţei (maturity date) sau mai devreme, la data răscumpărării (call date).
Deţinătorii obligaţiunilor au un document de tip IOU de la emitent, dar nu au drepturi
în cadrul companiei aşa cum au acţionarii. O obligaţiune poate fi la purtător sau
nominativă, în formă materializată sau în formă dematerializată. O obligaţiune
garantată (secured bond) este garantată de un colateral (de exemplu, un activ fix) care
poate fi vândut de către deţinătorul obligaţiunii în cazul în care emitentul nu plăteşte
dobânda sau principalul atunci când acestea devin scadenţe. O obligaţiune negarantată
149
(unsecured bond/debenture) este garantată de integritatea companiei emitente şi nu de
un anumit colateral. O obligaţiune convertibilă conferă deţinătorului acesteia dreptul de
a converti obligaţiunea în alte instrumente financiare ale companiei emitente la o dată
viitoare şi în anumite condiţii prestabilite. (2) De asemenea, în finanţe, este obligaţia
unei persoane de a achita datoria contractată de către altcineva în cazul în care debitorul
nu îşi îndeplineşte obligaţiile de plată.

Obligaţiune cu cupon zero (Zero-coupon bond)

Obligaţiune care nu face plăţi periodice ale dobânzii către deţinătorul său. O
obligaţiune cu cupon zero este emisă cu un discont faţă de valoarea sa nominală şi
creşte treptat în valoare pe măsură ce se apropie de scadenţă. Astfel, venitul unui
investitor dintr-o obligaţiune cu cupon zero provine doar din creşterea în valoare. Plata
finală la scadenţă cuprinde atât dobanda acumulată, cât şi principalul.

Opţiune (Option)

Contract care conferă deţinătorului său dreptul, dar nu şi obligaţia, de a cumpăra


(în cazul unei opţiuni call) sau de a vinde (în cazul unei opţiuni put) un anumit activ
denumit activ de bază, la un preţ prestabilit, într-o anumită perioadă de timp. Dacă
acest drept nu este exercitat în perioada de timp specificată, opţiunea expiră. Vezi Call
option, Put option.

Opţiune americana (American option)

Opţiune a cărei exercitare depinde de preţul mediu al activului de bază pe o


anumită perioadă de timp până la expirarea opţiunii.

Opţiune call implicită (Call option)

La unele emisiuni de obligaţiuni, opţiune implicită ce dă emitentului dreptul de


a răscumpara obligaţiunile la un preţ prestabilit, de obicei la valoarea nominală, înainte
de scadenţă.

150
Opţiune call în afara banilor (Out-of-the-money call)

Opţiune call al cărei preţ de exercitare este mai mare decât valoarea curentă de
piaţă a activului de bază. De exemplu, o opţiune XYZ Dec. 60 Call va fi în afara
banilor dacă acţiunea XYZ se vinde la 55$ per acţiune.

Opţiune call în bani (In-the-money call)

Opţiune call pentru care preţul de piaţă al activului de bază este mai mare decât
preţul de exercitare al contractului.

Opţiune call pe un contract futures (Call futures option)

Opţiune tranzacţionată la bursă care îi conferă cumpărătorului dreptul, dar nu şi


obligaţia, să angajeze o poziţie în contractul futures de bază la un preţ de exercitare
prestabilit, în orice moment înainte de expirarea opţiunii. In cazul în care opţiunea este
exercitată, cel care a vândut short opţiunea call are obligaţia să livreze contractul
futures.

Opţiune de cumpărare (Call)

Pe piaţa opţiunilor: opţiune care dă deţinătorului său dreptul, dar nu şi obligaţia


de a cumpăra activul de bază la un preţ prestabilit şi înainte de o anumită dată. In cazul
opţiunilor pe acţiuni, un investitor care consideră că preţul unei acţiuni va creşte
substanţial, ar putea obţine un profit mai mare dintr-o investiţie mai mică cumpărând
opţiuni call pe acea acţiune decât ar obţine dacă ar cumpăra acţiunea respectivă. Pentru
vânzător, care trebuie să renunţe la dreptul său de proprietate asupra acţiunilor în
favoarea cumpărătorului, când opţiunile sunt exercitate, acestea pot produce un venit
suplimentar.

Opţiune europeană (European option)

Opţiune care poate fi exercitată numai la data expirării sale, spre deosebire de
opţiunea americană pe care deţinătorul o poate exercita în orice moment până la data
expirării, inclusiv data expirării.

151
Opţiune put (de vânzare) (Put option)

Opţiune care dă deţinătorului dreptul, dar nu şi obligaţia, de a vinde activul de


bază la un preţ prestabilit, la o anumită dată sau înainte de o anumită dată. De exemplu,
cumpărătorul opţiunii XYZ Mai 70 Put are dreptul de a vinde 100 de acţiuni XYZ la
70$ vânzătorului opţiunii, înainte de expirarea contractului în luna mai. Cumpărătorul
opţiunii put speră că preţul acţiunii va scădea, în timp ce vânzătorul opţiunii put speră
că preţul acţiunii va rămâne stabil, ori că va creşte sau va scădea cu o valoare mai mică
decât prima pe care acesta a încasat-o.

Opţiune put în afara banilor (Out-of-the-money put)

Opţiune put al cărei preţ de exercitare este mai mic decât valoarea curentă de
piaţă a activului de bază. De exemplu, o opţiune XYZ Dec. 60 Put va fi în afara banilor
dacă acţiunea XYZ se vinde la 65$ per acţiune.

Opţiune put în bani (In-the-money put)

Opţiune put pentru care preţul de piaţă al activului de bază este mai mic decât
preţul de exercitare al contractului.

Opţiune put pe un contract futures (Put futures option)

Opţiune tranzacţionată la bursă care îi conferă cumpărătorului dreptul, dar nu şi


obligaţia, să vândă contractul futures de bază la un preţ de exercitare prestabilit, în orice
moment înainte de expirarea opţiunii. In cazul în care opţiunea este exercitată, cel care
a vândut short opţiunea put are obligaţia să accepte livrarea contractului futures.

Portofoliu (Portfolio)

Totalitatea investiţiilor de diverse tipuri deţinute de către un investitor


individual sau instituţional. Un portofoliu poate cuprinde acţiuni, obligaţiuni, contracte
futures, investiţii în sectorul imobiliar, instrumente echivalente cu numerarul sau alte
active financiare. Scopul unui portofoliu este de a reduce riscul prin diversificare. Cu
cât sunt mai diversificate investiţiile din cadrul unui portofoliu, cu atât este mai
probabil ca investitorul să obţină aceeaşi rentabilitate ca cea a pieţei instrumentelor
financiare transferabile.

152
Preţul de exercitare (Exercise price)

Preţ unitar la care activul de bază al unei opţiuni poate fi cumpărat (în cazul
unei opţiuni call) sau vândut (în cazul unei opţiuni put) într-o perioadă specificată de
timp. De exemplu, o opţiune call pe acţiunea XYZ dă dreptul deţinătorului ei să
cumpere 100 de acţiuni XYZ în orice moment în urmatoarele trei luni la un preţ de
exercitare de 63$. Preţul de exercitare este stabilit de către bursă în momentul emiterii
opţiunii. In cazul opţiunilor pe contracte futures, bursa fixează un preţ în funcţie de
preţul de închidere al zilei precedente pentru contractele futures de bază. Incepând cu
acel preţ, sunt stabilite preţuri de exercitare mai mari sau mai mici, la intervale fixate de
bursă.

Preţul spot (Spot price)

Preţul curent de livrare al unei mărfi tranzacţionate pe piaţa spot (cash).

Piaţa cash (Cash market)

Piaţa pe care se fac tranzacţii ce presupun cumpărarea sau vânzarea imediată a


unui anumit produs. Pieţele cash reprezintă opusul pieţelor futures pe care se fac
tranzacţii ce presupun livrarea produsului la un moment viitor, specificat în contract.
De asemenea mai este denumită piaţa spot.

Randament (Yield)

In general, este venitul încasat dintr-o investiţie, exprimat procentual din preţul
curent al acesteia. O anumită investiţie poate avea mai multe randamente datorită
numeroaselor metode folosite la calcularea lui. De exemplu, în cazul obligaţiunilor,
randamentul poate fi: (1) Randamentul curent (current yield). Este rata dobânzii
împarţită la preţul de cumpărare. De exemplu, o obligaţiune care se vinde la 1.000$, cu
o rata a dobânzii de 10%, are un randament curent de 10%. Dacă, aceeaşi obligaţiune s-
ar vinde la 500$, ea ar oferi un randament de 20% unui investitor care ar cumpăra-o la
500$ (pe măsură ce preţul unei obligaţiuni scade, randamentul ei creşte şi viceversa).
(2) Randamentul până la scadenţă/răscumparare/restituire (yield to maturity/call/put) al
unei obligaţiuni care ia în considerare plăţile dobânzii, preţul de cumpărare, valoarea de
răscumparare şi timpul rămas până la scadenţă/răscumpărare/restituire.

153
Rata de schimb valutar (Exchange rate)

Preţul la care o valută poate fi schimbată în altă valută. Ratele de schimb valutar
sunt influenţate de o serie de factori economici, politici, sociali, juridici, unii dintre ei
cu variaţie zilnică.

Riscul ratei dobânzii (Interest rate risk)

(1) Unul din riscurile care afectează toţi investitorii atunci când profitul oţtinut
este egal sau mai mic decât rata dobânzii fără risc (adică a bonurilor de trezorerie) sau
rata echivalentă a dobânzii calculată în funcţie de categoria de risc a investiţiilor. Cele
mai afectate de riscul ratei dobânzii sunt instrumentele financiare de credit şi unele
instrumente financiare cu venit fix cum ar fi acţiunile preferenţiale. Preţurile acţiunilor
comune sunt, de asemenea, afectate de modificările ratelor dobânzii, deşi legătura este
mai puţin evidentă în acest caz. Investitorii caută ca, prin strategii cu instrumente
financiare derivate, să atenueze efectele nefavorabile ale riscului ratei dobânzii. (2)
Riscul ca preţul unei obligaţiuni să scadă pe măsură ce ratele dobânzii cresc. Managerii
de portofoliu evaluează riscul ratei dobânzii pentru un fond de investiţii calculând
durata acestuia.

Speculaţie (Speculation)

Asumarea unor riscuri peste medie în speranţa obţinerii unor rentabilităţi peste
medie, în general într-o perioadă de timp relativ scurtă. Speculaţia implică cumpărarea
unui anumit activ financiar pe baza preţului sau potenţial de vânzare şi nu pe baza
valorii sale prezente. Intr-o speculaţie siguranţa principalului şi venitul curent sunt de o
importanţă secundară. Când fac speculaţii, profesioniştii utilizează adesea diverse
tehnici de hedging, cum ar fi tranzacţiile cu opţiuni, vânzarea short, ordinele stop şi
tranzacţiile cu contracte futures, cu scopul de a-şi limita pierderile. Speculaţia implică
un risc care poate fi analizat şi evaluat, la fel ca şi în cazul unei investiţii; ceea ce le
deosebeşte este însă gradul de risc.

Speculator (Stag)

Speculator care, de regulă, cumpără şi vinde acţiuni pentru profituri imediate şi


nu păstrează valorile mobiliare ca investiţie.

154
Tranzacţie fără risc (Riskless transaction)

(1) Tranzacţie ce asigură un profit traderului care o iniţiază, eliminând riscul de


înregistrare a unei pierderi deoarece poziţia de deschidere pe o piaţă este acoperită de
poziţia de închidere pe o altă piaţă. Un arbitrajor poate obţine un profit tranzacţionând
pe baza diferenţei între preţurile aceleiaşi valori mobiliare pe pieţe diferite. De
exemplu, dacă aurul se tranzacţionează la 400$ uncia la New York şi la 398$ la Londra,
un trader care acţionează repede ar putea cumpăra un contract futures pe aur la Londra
şi să-l vândă la New York cu un profit fără risc. (2) Pe piaţa OTC, este o tranzacţie a
unui dealer în care acesta face o cumpărare sau o vânzare pentru a executa ordinul unui
client. Astfel, dacă un client doreşte să cumpere 500 de acţiuni XYZ la 80$ per acţiune,
dealerul poate cumpăra 500 de acţiuni XYZ dintr-o altă sursă la 791/4$ şi poate revinde
acţiunile clientului la un markup de 75 cenţi. In Statele Unite, mărimea unui markup
sau markdown care se percepe în cazul tranzacţiilor fără risc este reglementată de
NASD. De asemenea, denumită tranzacţie simultană (simultaneous transaction).

Valoare mobiliară (Security)

Instrument care poate indica proprietatea în cadrul unei companii (o acţiune), o


relaţie de credit cu o companie sau cu o autoritate publică (o obligaţiune), ori un drept
la proprietate (un drept de subscriere, o opţiune pe o acţiune, o garanţie).

Volatilitate (Volatility)

Caracteristica unei valori mobiliare de a înregistra fluctuaţii mari de preţ într-o


perioadă scurtă de timp. Un instrument de măsură a volatilităţii relative a unei acţiuni
este coeficientul beta.

Bibliografie

Dicţionar financiar http://www.eafacere.ro/dictionar_financiar.asp

155

S-ar putea să vă placă și