Documente Academic
Documente Profesional
Documente Cultură
17 décembre 2014
1
Table des matières
1 Mouvement brownien 3
1.1 Vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Une construction du mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Construction rigoureuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Propriétés du mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 L’espace de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5 Filtration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6 Propriété de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6.1 Propriété de Markov faible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6.2 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.6.3 Propriété de Markov forte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6.4 Principe de réflexion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.6.5 Zéros du brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.6.6 Un contre-exemple pour la propriété de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2 Martingales 14
3 Processus de Markov 20
3.1 Rappels sur les chaînes de Markov sur S fini. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.2 Processus de Feller . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.3 Du processus au générateur infinitésimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.4 Mesures invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.5 Formule de Feynman-Kac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.6 Exemples de processus de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.6.1 Un exemple formel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.6.2 Modèle d’Ising dynamique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.7 Construction et étude du processus de contact . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.7.1 Quelques rappels sur les processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.7.2 Construction graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4 Variation quadratique 33
4.1 Processus à variation finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.1.1 Fonction à variation finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.1.2 Processus à variation finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.2 Martingale locale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.3 Variation quadratique d’une martingale locale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.4 Semi-martingales continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5 Intégrale stochastique 41
5.1 Construction de l’intégrale stochastique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.2 Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.3 Quelques applications de la formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2
Dans la suite, on considère (⌦, F, P) un espace de probabilité et on note E l’espérance associée à P.
1 Mouvement brownien
1.1 Vecteurs gaussiens
Définition 1. On dit que X suit une loi gaussienne standard sa loi a pour densité
!
2
1 |x|
p exp
2⇡ 2
où m = lim mn et 2
= lim 2
n .
n n
P
2) Si Xn ! X, alors la convergence a lieu dans tous les espaces Lp .
Démonstration. 1) La convergence en loi est équivalente à
⇥ ⇤ ⇥ ⇤ 2
n ⇠2
8⇠ 2 R, E ei⇠Xn ! E ei⇠X = ei⇠mn 2
En prenant le module,
2
n ⇠2
⇥ ⇤
e 2 ! E ei⇠X (continue en ⇠ = 0)
n!1
Si on sait a priori que (mn ) est bornée, soient m et m0 deux valeurs d’adhérence. On a, pour tout ⇠ 2 R,
0
ei⇠m = ei⇠m = 1 + i⇠m0 + o (⇠)
et on a m = m0 . Montrons donc que la suite (mn ) est bornée supérieurement. Si on suppose le contraire, on peut
extraire une sous-suite mnk ! +1. On a :
k!1
1
P (Xnk mn k ) =
2
P (X A) limsupP (Xnk A)
k!1
limsupP (Xnk mn k )
k!1
1
2
3
Pour tout A, P (X A) 1
2 . Or, lim P (X A) = 0. De la même manière, on montre que (mn )n est bornée
A!1
inférieurement.
2) Pour tout ✓ 2 R,
⇥ ⇤ ✓2 2
E e✓Xn = e✓mn + 2 n
⇥ ⇤
supE e✓Xn < +1
n
h i
supE e✓|Xn | < +1
n
car e|x| ex + e x
. En particulier, pour tout q > 0,
q
supE [|Xn | ] < +1
n
q
supE [|Xn X| ] < +1
n
p P
Yn = |Xn X| est tel que Yn ! 0 et Yn est bornée dans L2 donc uniformément intégrable. Donc Yn ! 0 dans
L1 :
p
E [|Xn X| ] ! 0
n!1
Remarque 7. Par le théorème d’extension de Kolmogorov, on peut construire un processus stochastique sur RR+ muni
de la topologie produit et qui satisfait i), ii) et iii). L’ensemble {! | t 7! Bt (!) est continue} n’est
( pas mesurable.
Bt si t 6= ⌧
C’est même pire que ça ! Imaginons que B soit un mouvement brownien. Soit ⌧ ⇠ Exp (1) et Bt = .
Bt + 1 si t = ⌧
Alors, Bt n’est pas continu mais il satisfait i), ii) et iii). En effet, pour tout t 0,
P Bt = Bt = P (⌧ 6= t) = 1
même si P 8t 0, Bt = Bt = 0.
Définition 8. Quand on a deux processus Bt t , (Bt )t qui vérifient P Bt = Bt = 1, on dit que B est une
modification de B.
Les propriétés i), ii), iii) concernent seulement les “lois fini-dimensionnelles” : la loi de (Bt1 , . . . , Btn ) est celle de
B t1 , . . . , B tn .
4
1.2.2 Construction rigoureuse
On va construire le mouvement brownien sur [0, 1]. On peut “recoller” ensuite pour l’avoir sur R+ . On choisit
une base orthonormée de L2 [0, 1] (base de Haar). On pose
8
>
<1 si 0 t < 12
H (t) = 1 si 12 t < 1
>
:
0 sinon
Pour n = 0, H0 (t) = 1. Alors (Hn )n2N est une base orthonormée de L2 ([0, 1]).
Soit (Zn ) une suite de variables aléatoires indépendantes N (0, 1). On pose
X
⇠ (f ) = Zn hHn , f iL2 ([0,1])
n2N
N
X N
X N
X
La variable aléatoire Zn hHn , f i est une gaussienne centrée de variance hHn , f i2 et hHn , f i2 ! kf kL2
N !1
n=0 n=0 n=0
PN 2
donc n=0 Zn hHn , f i converge en norme L2 vers une variable aléatoire gaussienne de variance kf kL2 = ⇠ (f ). On
a envie de poser Bt = ⇠ 1[0,t] , mais pour chaque t, Bt est défini p.s. donc on n’aura pas de sens à la question de
la continuité. On regarde X
Zn hHn , 1[0,t] i (1)
n2N
On va montrer que, sauf sur un ensemble de probabilité nulle, cette série converge uniformément en t.
|Zn |
Lemme. Si (Zn )n est une suite de variables aléatoires indépendantes N (0, 1), alors sup p lnn
< +1 p.s.
n
Démonstration. On a
ˆ +1
1 u2
P (Z1 x) = p e 2 du
2⇡ x
ˆ +1
1 u u2
p e 2 du
2⇡ x x
1 x2
p e 2
x 2⇡
x2
Si x 1, P (|Z1 | x) p2 e
2⇡
2 .
⇣ p ⌘ 2
P Zn 2 lnn p exp (2lnn)
2⇡
2 1
p · 2
2⇡ n
ˆ t
hHj,k , 1[0,t] i = Hj,k (s) ds
0
ˆ t
j
= 2 2 H 2j s k ds
0
j
2 2 1{t2[ k , k+1 [}
2 2
5
Montrons maintenant que la série (1) converge uniformément pour tout ! tel que C (!) := sup |Zpnlnn
(!)|
< +1. On
rappelle que n = 2 + k 2
j j+1
et donc lnn C (j + 1).
j j
+1 2X1
X +1 2X1
X p j
Zn (!) hHn , 1[0,t] C (!) · C j+1·2 2 1{t2[ k , k+1 [}
2j 2j
j=J k=0 j=J k=0
+1
X p j
C · C (!) ⇥ j + 12 2
j=J
aussi petit que voulu, uniformément en t. Conclusion : pour tout ! tel que C (!) < +1, la série (1) converge
uniformément. On note t 7! Bt la limite (continue !). il reste à vérifier les propriétés i), ii) et iii) :
i) B0 = 0 p.s : évident
ii) On veut vérifier Bt+s Bt ⇠ N (0, s) :
Bt+s = ⇠ 1[0,t+s]
(
L2 ([0, 1]) ! L2 (⌦, F, P)
et est une isométrie.
f 7! ⇠ (f )
Par ailleurs, ⇠ (f ) est gaussienne pour tout f 2 L2 ([0, 1]), ce qui démontre ii)
iii) Montrons que les accroissements sont indépendants. Soit 0 t0 < . . . < tn . On veut montrer Bt1 Bt0 , . . . , Btn B tn 1
est indépendante. Bt1 Bt0 , . . . , Btn Btn 1 est un vecteur gaussien. Toute combinaison linéaire est ⇠ (f ) donc
une gaussienne. Il suffit alors de voir que, pour tout i 6= j,
⇥ ⇤
E Bti+1 Bti Btj+1 Btj = 0
⇥ ⇤
E ⇠ 1]ti ,ti+1 ] · ⇠ 1]tj ,tj+1 ] = E [⇠ (f ) ⇠ (g)]
= hf, giL2
= 0
par isométrie.
6
Mettons que s < t,
⇥ ⇤
E [Xs Xt ] = E [Xs (Xt Xs )] + E Xs2
⇥ ⇤
= E [(Xs X0 ) (Xt Xs )] + E Xs2
= 0+s=s=s^t
P
Il reste à voir que X est un processus gaussien.
P Soient P 1 , . . . , n 2 R, 0 t1 < . . . < tn . On veut voir que i Xti
est gaussienne.
P Par sommation par parties, i X t i
= µ i X t i
X t i 1
(gaussiennes indépendantes) où on pose
t0 = 0 donc i Xti est gaussienne.
“b)a”
On a bien X0 = 0 p.s.
h i ⇥ 2 ⇤ ⇥ ⇤
2
E (Xt+s Xt ) = E Xt+s + E Xt2 2E [Xt Xt+s ]
= s
Xt+s Xt gaussienne centrée de variance s. on a bien Xs ⇠ N (0, s) et accroissements stationnaires. Reste à voir
que les accroissements sont indépendants. Soit 0 t0 < t1 < . . . < tn . Xt1 Xt0 , . . . , Xtn Xtn 1 est un vecteur
gaussien. il suffit donc de voir que pour tout i 6= j, (disons i < j),
⇥ ⇤
E Xti+1 Xti Xtj+1 Xtj = ti+1 ti+1 ti + ti = 0
Théorème 11. Soit Bt un mouvement brownien standard. Les processus suivants sont aussi des mouvements
browniens standards :
1) X1 (t) = Bt+s Bs avec s 0 fixé
2) X2 (t) = Bt
3) X3 (t) = p1C BCt avec C > 0 fixé
(
t · B 1t si t > 0
4) X4 (t) =
0 si t = 0
Démonstration. Pour les trois premiers processus, la preuve est laissée en exercice.
Pour X4 :
C’est un processus gaussien et il est continu sauf peut-être en 0. On montre
h i
E [X4 (s) X4 (t)] = E st · B 1s · B 1t
st
= =s^t
s_t
Il reste à voir la continuité en 0. Comme B est continu :
n o ⇢
1 1
! | lim Bt = 0 = \ [ ! | 8t 2 Q \ 0, , Bt (!)
t!0 m2n n2N n m
n o ⇢
1 1
! | lim X4 (t) = 0 = \ [ ! | 8t 2 Q \ 0, , X4 (t)
t!0 m2N n2N n m
⇣ ⌘ ⇣ ⌘
Donc P limX4 (t) = 0 = P limBt = 0 = 1 car les lois fini-dimensionnelles de X4 et B coïncident. on a bien la
0 0
continuité en 0.
Bn
limsup p = +1 p.s.
n!1 n
7
et
Bn
liminf p = 1 p.s.
n!1 n
t · B1
limsup p t = +1 p.s.
t!1 t
Bt
limsup p = +1 p.s.
t!0 t
Bt
liminf p = 1 p.s.
t!0 t
En particulier, B change de signe une infinité de fois sur tout intervalle [0, "], " > 0. Presque sûrement, t 7! Bt n’est
pas dérivable en 0.
Définition 12. Soient B (1) , . . . , B (d) d mouvements browniens standards indépendants. On dit que B = B (1) , . . . , B (d)
est un mouvement brownien standard d-dimensionnel.
Démonstration. Les applications coordonnées sont continues sur C donc B ⇢ C . Pour l’autre inclusion, notons que
la topologie est métrisable par la distance
+1
X ✓ ◆
n
d (x, y) = 2 1 ^ sup |x (t) y (t)|
n=0 0tn
L’espace C est séparable (par exemple les polynômes à coefficients rationnelles forment une base dénombrable
dense). Tout ouvert est donc union dénombrable de boules. Il suffit de montrer que toute boule est dans la tribu
B. Il suffit donc de voir que 8y 2 C, l’application x 7! d (x, y) est mesurable pour la tribu B. On constate que
+1
!
X
n
d (x, y) = 2 1 ^ sup |x (t) y (t)|
n=0 t2Q\[0,n]
Conséquence 1 : si P et P sont deux mesures de probabilité sur C qui ont les mêmes marginales fini-dimensionnelles
(i.e. P ({x | x (t1 ) 2 A1 , . . . , x (tn ) 2 An }) = P ({x | x (t1 ) 2 A1 , . . . , x (tn ) 2 An }) pour tout A1 , . . . , An 2 B et tout
t1 . . . tn ) alors P = P , par le lemme des classes monotones.
: ⌦ ! C
Conséquence 2 : Soit B un brownien défini sur (⌦, F, P). L’application est mesurable. En
! 7! B (!)
effet, il suffit de vérifier que pour tout t, ! 7! Bt (!) est mesurable, ce qui est clair par définition d’un processus
stochastique. ( (
R⇥⌦ !R R+ ⇥ C ! R
Conséquence 3 : L’application G : est mesurable. En effet, si F est définie par F :
(t, ⌦) 7! Bt (!) (t, x) 7! x (t)
, alors G (t, !) = F (t, (!)).
Définition 14. La mesure de Wiener est la mesure image de P par , autrement dit la loi de B, notée P0 . La
définition a un sens car deux browniens B et(B 0 ont même loi par la conséquence 1. L’espace de Wiener est le triplet
C !C
(C, C , P0 ). L’image de P0 par l’application avec z 2 R est la mesure Pz .
x 7! x + z
8
1.5 Filtration
X: C ! C
On note le processus canonique : pour tout t 0 et pour tout ! 2 C, Xt (!) = ! (t).
! 7 ! !
Définition 15. Une filtration (Ft )t 0 est une famille de tribus croissante pour l’inclusion. On dit que (Ft )t est
continue à droite si pour tout t 0, Ft = \ Fs .
s>t
Une filtration possible sur (C, C ) est (! 7! ! (s) , s t) =: Ft0 . Or, Ft0 t n’est pas continue à droite. Exemple :
L = limsup p Xt est \ Ft0 -mesurable mais pas F00 -mesurable. car {L = 1} 2 F0 mais {L = 1} 2 / F00 .
t!0 2tlog|logt| t>0
On pose Ft = \ Fs0 : c’est clairement continu à droite.
s>t
⇣ ⌘
Définition 16. L’espace de Wiener filtré est le quadruplet ⌦, F, (Ft )t 0 , (Px )x2R .
9
1.6.2 Temps d’arrêt
Définition 21. Une variable aléatoire T : ⌦ ! [0, +1] est un temps d’arrêt si pour tout t 0, l’événement
{T t} 2 Ft .
Exemple. 1) Un temps d’arrêt constant est un temps d’arrêt. ( )
2) Pour a fixé, Ta = inf {t 0 | Xt = a} est un temps d’arrêt : {Ta t} = sup Xs a
s2Q\[0,s]
Proposition 23. Soit O un ouvert de R (ou de Rd pour le brownien multi-dimensionnel) et soit T = inf {t 0 | Xt 2 O}.
Alors, T est un temps d’arrêt.
Démonstration. Il suffit de voir {T < t} 2 Ft : {T < t} = [ {Xs 2 O} 2 Ft .
s2Q\[0,t[
Proposition 24. Soit Tn une suite de temps d’arrêt. Les variables aléatoires suivantes sont des temps d’arrêt :
1) sup Tn
2) inf Tn
3) limsup Tn
4) liminf Tn
10
Démonstration. 1) On doit vérifier que {T s} 2 FT pour tout s : {T s} \ {T t} = {T s ^ t} 2 FT .
2) Soient t 0 et A 2 FT1 . A \ {T2 t} = (A \ {T1 t}) \ {T2 t} 2 Ft .
3) Il est clair que FT ⇢ FTn d’où FT ⇢ \ FTn ,
n
A \ {T t} = \ A \ {T < t + "}
">0
2 \ Ft+" = Ft
">0
4) Si T prend des valeurs dans un ensemble dénombrable {t1 , t2 , . . .} alors avec B borélien,
(T )
Si A = ⌦, l’égalité montre que la loi de X (T ) est la loi d’un mouvement brownien (il est clair que t 7! Xt est
continu). L’indépendance suit de l’égalité générale.
⇣ ⌘ +1
X ⇣ ⌘
(T ) (T )
F X t 1 , . . . , X tp = lim 1{ kn T < k+1 } F X kn +t1 X k ,...,X k
+tp X k
n!1 2 2 n 2 2n 2n 2n
k=0
L’événement A \ k
2n T < k+1
2n est dans F k , (A \ T k
2n est dans F k ⇢ F k+1 ). Par la propriété de Markov
2n 2n 2n
faible, h i ⇥ ⇤
E0 [·] = E0 1A\{ E 0 F Xt1 , . . . , X tp
2n }
T < k+1
k
2n
11
donc
h ⇣ ⌘i +1
X h i ⇥ ⇤
(T ) (T )
E 0 1A F X t 1 , . . . , X t p = lim E0 1A\{ E 0 F X t1 , . . . , X t p
2n }
T < k+1
k
n!1 2n
k=0
⇥ ⇤
= P0 (A) E0 F Xt1 , . . . , Xtp
Si P0 (T = +1) > 0,
h ⇣ ⌘i ⇥ ⇤
(T ) (T )
E0 1A\{T <+1} F Xt1 , . . . , Xtp = P0 (A \ {T < +1}) E0 F Xt1 , . . . , Xtp
E [f (Y, Z) | G] = g (Y ) p.s.
E [Xf (Y, Z)] = xf (y, z) dµ (x, y) d⌫ (z) = x f (y, z) d⌫ (z) dµ (x, y) par Fubini donc E [Xf (Y, Z)] = xg(y)dµ (x, y) =
´ ´ ´ ´
E [Xg (Y )].
On peut donner à la propriété de Markov une reformulation plus adaptée à des processus “moins homogènes”. On
définit les trajectoires temporelles ✓s : C ! C par (✓s !) (t) = ! (t + s). On se place sur l’espace canonique
de Wiener.
Théorème 31. Soit F une variable aléatoire positive sur ⌦ = C et soit T un temps d’arrêt. Pour tout x,
XT est FT -mesurable,
⇥ X (T )est indépendante
(T )
⇤ de FT .
Soit g (y) = Ex F X + y = Ey [F ] car X (T ) a pour loi P0 . Par le lemme, Ex [F ✓T | FT ] = g (XT ) =
EXT [F ].
Théorème 32. Principe de réflexion. Soit a > 0 et b < a. Pour tout t > 0,
P0 (Mt a, Xt b) = P0 (Xt 2a b)
P0 (Mt a, Xt b) = P0 (T t, Xt b)
= P0 T t, X t T b a
12
Par la propriété de Markov forte, T et X sont indépendantes et X est un mouvement brownien issu de 0 donc
X est un brownien issu de 0. T et X sont indépendantes. Donc T, X et T, X ont la même loi. Soit
A = {(s, x) 2 R+ ⇥ C | s t et xt s b a}.
P0 T, X 2 A = P0 T, X 2 A
= P0 T t, Xt T b a
= P0 (T t, Xt + a b a)
= P0 (T t, Xt 2a b)
D’autre part,
P0 (Mt a, Xt a = P0 (Xt a))
donc
P0 (Mt a) = 2P0 (Xt a) = P0 (|Xt | a)
Conséquence 2 :
Exercice. Montrer que (Mt Xt ) et |Xt | ont la même loi pour chaque t fixé (en fait les deux processus ont la
même loi).
Conséquence 3 : Soit T = inf {t 0, Xt = 0}. pour tout x 6= 0,
ˆ t ✓ 2◆
|x| x
Px (T t) = p exp dz
0 2⇡z 3 2z
En effet,
Px (T t) = P|x| (T t)
= P|x| (9s t, Xs = 0)
= P|x| (9s t, Xs = 2 |x|)
= P0 (Mt |x|)
= P0 (|Xt | |x|)
= 2P0 (Xt |x|)
ˆ +1
2 y2
= p e 2t dy
2⇡t |x|
q
On pose y = |x| t
z et ça fonctionne.
13
En particulier, E0 [1A ✓TA ] = 1. {X | ✓Ta X 2 A} = {9tn ! 0, tn>0 ÷mid 8n, XTa +tn = 0}. Presque sûrement, 8a 2
Q+ , Ta est un point d’accumulation à droite. Soit x 2 Z \ U Ta . Alors, 8a 2 Q+ , a < x il existe un x0 2 ]a, x[ \ Z.
a2Q+
Donc x est un point d’accumulation à gauche.
L’ensemble Z a une mesure nulle :
ˆ +1 ˆ +1
E0 1Z (t)dt = E0 [1Z (t)] dt
0 0
ˆ +1
= P0 (Xt = 0) dt
0
= 0
On n’a pas la propriété de Markov forte : Soit T = inf {t 0 | Xt = 0}. On n’a pas Ex [F ✓T | FT ] = EXT [F ] car
EXT [F ] = E0 [F ] = F (t 7! 0) 6= Ex [F ✓T | FT ]. Pour avoir Markov faible =) Markov faible, il semble nécessaire
que Pxn ! Px quand xn ! x.
2 Martingales
⇣ ⌘
Tous les résultats sur les martingales à temps discret sont supposés connus. Soit ⌦, F, (Ft )t 0 , P espace de
probabilité muni d’une filtration continue à droite.
Définition 34. Un processus (Mt )t 0 adapté et tel que pour tout t, E [|Mt |] < +1 est :
une martingale si pour tout s, t 0, E [Mt+s | Fs ] = Mt
une sur-martingale si pour tout s, t 0, E [Mt+s | Fs ] Mt
une sous-martingale si pour tout s, t 0, E [Mt+s | Fs ] Mt
Exemple 35. Soit (Xt )t processus adapté et a accroissements indépendants par rapport à (Ft )t i.e. pour tout
s, t 0, (Xt+s Xt ) est indépendante de Ft . On a :
i) si Xt 2 L1 pour tout t alors Mt = Xt E [X⇥t ] est⇤ une martingale
ii) si Xt 2 L2 pour tout t, alors Mt = Mt2 E Mt2 est une martingale
⇥ ⇤ e Xt
iii) si pour 2 R, E e Xt < +1, alors Nt = E[e Xt ] est une martingale.
Démonstration. i)
E [Xt+s | Ft ] = E [(Xt+s Xt ) + Xt | Ft ]
= Xt + E [Xt+s Xt ]
, E [Mt+s | Ft ] = Xt + E [Xt+s Xt ] E [Xt+s ]
= Mt+s
14
ii)
⇥ 2 ⇤ h i
2
E Mt+s | Ft = E (Mt+s Mt + Mt ) | Ft
h i
2
= E (Mt+s Mt ) | Ft + 2E [Mt+s Mt | Ft ] · Mt + Mt2
h i
2
= E (Mt+s Mt ) + Mt2
⇥ 2 ⇤ ⇥ ⇤
= E Mt+s 2E [Mt+s · Mt ] + E Mt2 + Mt2
⇥ 2 ⇤ ⇥ ⇤
= E Mt+s 2E [E [Mt+s | Ft ] Mt ] + E Mt2 + Mt2
⇥ 2 ⇤ ⇥ ⇤ ⇥ ⇤
= E Mt+s 2E Mt2 + E Mt2 + Mt2
⇥ 2 ⇤ ⇥ ⇤
= E Mt+s E Mt2 + Mt2
⇥ ⇤ ⇥ ⇤
donc E Mt+s | Ft = h E Mt + Mt2 =i Mt 2
h i
E e (Xt+s Xt +Xt ) |Ft E e (Xt+s Xt )
iii) E [Nt+s Ft ] = h i =e Xt h i = Nt
E e (Xt+s Xt +Xt ) E e (Xt+s Xt ) E[e Xt ]
Par exemple
⇣ si ⌘
B est un brownien, t 7! Bt est une martingale (1), t 7! Bt2 t est une martingale (2) et
2
t 7! exp Bt 2 t est une martingale.
Remarque. Les propriétés (1)-(2) caractérisent le mouvement brownien parmi les processus adaptés continues (ca-
ractérisation due à Paul Lévy).
Proposition 36. Soit (Mt )t une martingale et : R ! R convexe telle que E [| (Mt )|] < 1. Alors, ( (Mt ))t 0
est une sous-martingale.
Démonstration. E [ (Mt+s ) | Ft ] (E [Mt+s | Ft ]) = (Mt ).
Jensen
Remarque. La propriété est aussi vraie si M est une sous-martingale et est convexe croissante.
Conséquence : si (Mt ) est une martingale, alors |Mt | , Mt+ sont des sous-martingales. Si Mt 2 Lp pour tout t
p
(p 1) alors (|Mt | )t est une sous-martingale.
Proposition 37. Si (Mt )t est une sous-martingale (resp. une sur-martingale), alors pour tout t 0, supE [|Ms |] <
st
+1.
Démonstration. Il suffit de le voir pour une sous-martingale (si M est une sur–martingale, M est une sous-
martingale). ⇥ ⇤
Soit donc M une sous-martingale. Mt+ t est une sous-martingale. E [Ms+ ] E Mt+ . (Mt )t est une sous-
martingale donc E [Ms ] E [M0 ]. Or |x| = 2x+ x donc
⇥ ⇤ ⇥ ⇤
E [|Ms |] = 2E Ms+ E [Ms ] 2E Mt+ E [M0 ]
Proposition 38. Soit (Mt )t martingale de carré intégrable. Soit 0 s = t0 < . . . < tp = t. Alors,
" p #
X 2 ⇥ ⇤
E Mti Mti 1 | Fs = E Mt2 Ms2 | Fs
i=1
h i
2
= E (Mt Ms ) | Fs
h i h i ⇥ ⇤
2
En particulier, E Mti+1 Mt i = E Mt2i+1 E Mt2i .
Démonstration.
h i h h i i
2 2
E Mt i Mt i 1
| Fs = E E Mti Mti 1 | Fti 1 | Fs
h ⇥ ⇤ ⇥ ⇤ i
= E E Mt2i | Fti 1 2Mti 1 E Mti | Fti 1 + Mt2i 1
| Fs
⇥ ⇤ h i
= E Mt2i | Fs E Mt2i 1 | Fs
15
Proposition 39. Inégalité maximale. Soit (Xt )t une sur-martingale (resp une sur-martingale) continue à droite.
Pour tout t > 0 et > 0, ✓ ◆
· P sup |Xs | > E [|X0 |] + 2 · E [|Xt |]
st
Inégalité de Doob. Soit (Xt )t une martingale continue à droite. Pour tout t > 0 et p > 1,
✓ ◆p
p p p
E sup |Xs | E [|Xt | ]
0st p 1
Démonstration. Fixons t > 0 et soit D un sous-ensemble dénombrable dense de [0, t] tel que 0 2 D, t 2 D. On
écritD = [Dm avec Dm fini et Dm ⇢ Dm+1 . Par exemple cardDm = m + 1 et Dm = {tm 0 , . . . , tm } avec t0 = 0 et
m m
m
(m)
m = t. La suite Yn
tm = Xtm
n^m
. Y (m) est une martingale pour la filtration Ftm
n^m n2N
. Par la version discrète de
l’inégalité maximale, !
·P sup Yn(m) > E [|X0 |] + 2 · E [|Xt |]
n2{0,...,m}
✓ ◆
·P sup |Xs | > E [|X0 |] + 2 · E [|Xt |]
s2Dm
⇢
Par passage à la limite, comme sup |Xs | > est une suite croissante, on a
s2Dm m
✓ ◆
· P sup |Xs | > E [|X0 |] + 2 · E [|Xt |]
s2D
| {z }
= sup |Xs |
s2[0,t]
16
Théorème 42. Théorème de convergence des martingale presque sûr. Soit X une surmartingale continue à droite
et bornée dans L1 : supE [|Xt |] < 1. Alors, il existe X1 2 L1 tel que Xt ! X1 presque sûrement.
t t!+1
⇤ ⇥ h i
Démonstration. On a vu que pour tout a < b et pour tout t > 0, E Uab
X
([0, t]) 1
b a · E (Xt a) . Par le
théorème de convergence monotone,
⇥ X ⇤ 1
E Uab ([0, t]) ·C
b a
avec C = supE [|Xt |] + a < 1. Presque sûrement, pour tout a, b 2 Q, a < b, Uab
X
(R+ ) < +1. Ceci implique
t
Xt ! X1 2 [ 1, +1] (convergence presque sûre). Par le lemme de Fatou,
t!+1
⇥ ⇤ ⇥ ⇤
E |E [Z | G]| 1{|E[Z|G]| m} E E [|Z| | G] 1{|E[Z|G]| m}
⇥ ⇤
E |Z| 1{|E[Z|G]| m}
E [|E [Z | G]|]
P (|E [Z | G]| m)
m
E [|Z|]
m
E[|Z|]
On prends m = et c’est bon.
Définition 45. Une martingale (Xt )t 0 est dite fermée s’il existe Z 2 L1 tel que pour tout t 0, Xt = E [Z | Ft ].
Proposition 46. Soit (Xt ) une martingale continue à droite. il y a équivalence entre :
1) (Xt ) est une martingale fermée
2) Xt converge presque sûrement et dans L1 quand t ! 1.
3) (Xt ) est uniformément intégrable.
Démonstration. 1) =) 3) déjà vu
3) =) 2) par le théorème de convergence, Xt ! X1 p.s. (Xt ) uniformément intégrable =) la convergence a
lieu dans L1 .
L1
2) =) 1 X1 = limXt . Xs = E [Xt | Fs ]. Xt ! X1 dans L1 donc E [Xt | Fs ] ! E [X1 | Fs ] et Xs = E [X1 | Fs ].
17
p.s p.s
Remarque. Il n’est pas vrai que Xt ! X1 implique E [Xt | Fs ] ! E [X1 | Fs ].
ps
Si Xt ! X1 et si T est un temps d’arrêt, on note
XT = 1{T <1} XT + 1{T =1} X1
XT est FT -mesurable.
Théorème 47. Théorème d’arrêt. Soit (Xt ) une martingale continue à droite et uniformément intégrable. Soient
S et T deux temps d’arrêt tels que S T . Alors, XS et XT sont dans L1 et XS = E [XT | Fs ]. En particulier,
XS = E [X1 | Fs ] et E [XS ] = E [X1 ] = E [X0 ].
Démonstration. On utilise le résultat en temps discret. Soit Sn = ⇣21n d2n⌘Se et Tn = 21n d2n T e . On a Sn & S et
Tn & T . Sn et Tn sont des temps d’arrêt par rapport à la filtration F kn . Par le résultat discret,
2 k
18
Exemple 50. 1) T = inf {t 0 | Bt = 0} pour le brownien partant de 1. (Bt^T )t est une martingale positive.
ps
Bt^T ! 0. Mais on a pas de convergence dans L1 , pas uniformément intégrable, pas fermée etc...
2) Soit B un brownien issu de 0 et soit a < 0 < b, Ta = inf {t 0 | Bt = a} Tb = inf {t 0 | Bt = b}. T =
Ta ^ Tb < 1 presque sûrement. On a :
b
P0 (Ta < Tb ) =
b a
et
a
P0 (Tb < Ta ) =
b a
en effet, soit Mt = Bt^T martingale bornée donc uniformément intégrable.
3) T = inf {t 0 | |Bt | = 1}. Mt = Bt2 t est une martingale. Soit n > 0, (Mt^T ^n )t 0 martingale bornée.
0 = E [M0 ] = E [MT ^n ]
⇥ ⇤
E BT2 ^n = E [T ^ n]
d’où, par convergence dominée et convergence monotone, en passant à la limite,
⇥ ⇤
E Bt2 = E [T ] = 1
Proposition 51. Soit (Xt )t 0 surmartingale positive continue à droite et S T un temps d’arrêt. Alors, XS et
XT sont dans L1 et ⇥ ⇤ ⇥ ⇤
E XS 1{S<1} E XT 1{T <1}
Démonstration. On a vu le résultat si S et T sont des temps d’arrêt bornés. Donc, pour tout n,
E [XS^n ] E [XT ^n ]
⇥ ⇤ ⇥ ⇤
E XS^n 1{S>n} = E Xn 1{S>n}
⇥ ⇤
E Xn 1{T >n}
⇥ ⇤
= E XT ^n 1{T >n}
En prenant la différence, ⇥ ⇤ ⇥ ⇤
E XS^n 1{Sn} E XT ^n 1{T n}
⇥ ⇤ ⇥ ⇤
E XT ^n 1{T n} = E XT 1{T n}
⇥ ⇤
! E XT 1{T <1}
n!1
⇥ X ⇤ h i
Démonstration. On a déjà vu que le nombre de montées est tel que E Uab (Q+ \ [0, t]) b
1
a E (Xt a)
uniformément borné. Donc, avec probabilité 1, pour tout a, b 2 Q avec a < b, Uab
X
(Q+ ) < 1, cela suffit à conclure.
Proposition 53. Soit (Xt )t2Q+ une surmartingale positive. Pour tout t 2 Q+ ,
✓ ◆
P Xt > 0, inf Xs = 0 = 0
s2Q\[0,t]
19
Démonstration. Soient 0 s1 < . . . < sp t rationnelles, soit " > 0. Soit Ak := {Xsk < "} \ {8i < k, Xsi "}
" #
E Xt 1⇢ "P (minXsk < ")
min Xsk <"
1kp
" # ✓ ◆
E X t 1⇢ "P inf Xs < "
inf Xs <" s2Q\[0,t]
s2Q\[0,t]
⇥ ⇤
E Xt 1{infXs =0} = 0
3 Processus de Markov
On a vu la propriété de Markov pour le mouvement brownien. On va maintenant étudier des processus plus
généraux qui ont cette propriété. Soit S un espace métrique (espace “des états”). Soit D = D (R+ , S) l’ensemble
des fonctions de R+ dans S continues à droite et avec limite à gauche (noté cadlag). Soit F la plus petite tribu qui
D ! R
rende mesurable les applications coordonnées . L’espace (D, F) est notre nouvel espace mesurable
x 7! x (t)
X: D ! D
canonique. On a des translations temporelles : (✓s x) (t) = x (s + t) et X le processus canonique .
x 7! x
On a 8
>
>p t (x, y) 0
>
> X
>
> pt (x, y) = 1
>
<
y
(2)
>
> lim pt (x, x) = 1
>
> t!0 X
>
>
>
:ps+t (x, y) = ps (x, z) pt (z, y) (Chapman-Kolmogorov)
z
Réciproquement, si (pt (x, y)) satisfait (2) alors il définit une chaîne de Markov de manière unique.
Proposition 55. Pour tout x 2 S, il existe C (x) 0 tel que pt (x, x) = 1 C(x)t + o (t) X
Pour tout x 6= y 2 S, il existe q (x, y) 0 tel que pt (x, y) = tq (x, y) + o (t). On pose C (x) = q (x, y). On
P y6=x
pose q (x, x) = C (x). On a y q (x, y) = 0.
Soit Pt = (pt (x, y))x,y et Q = (q (x, y))x,y (matrice de transition).
On a Pt = etQ .
On a Pt+s = Pt Ps , Pt = 1 + tQ + o (t).
20
d
= QPt = Pt Q (équation de Kolmogorov)
dt Pt X
Réciproquement, si Q = (q (x, y)) telle que pour tout x 6= y, q (x, y) 0 et pour tout x q (x, y) = 0 alors
y
Pt = etQ définit des probabilités de transition.
Conclusion : Il y a correspondance entre chaîne de Markov, probabilité de transition et matrice de transition.
On a toujours la propriété de Markov forte.
Ex [F ✓s | Fs ] = EXs [F ] Px -p.s
Remarque. La dernière propriété (b2) est la propriété de Feller. Elle implique que si xn ! x 2 S alors la loi de Xt
sous Pxn converge vers la loi de Xt sous Px .
Théorème 58. Propriété de Markov forte pour un processus de Feller. Soit T un temps d’arrêt, F mesurable
positive D ! R+ . Alors,
Ex [F ✓T | FT ] = EXT [F ] Px -p.s sur {T < 1}
p
Y
Lemme. Disons que F : D ! R est spéciale si elle s’écrit F (X) = fi (Xti ) avec fi 2 C0 (S) et 0 t0 < . . . < tp .
i=1
La fonction x 7! Ex [F ] est continue.
Démonstration. p = 1 vient de la définition
pour p 2 soit F = G.fp Xtp
⇥ ⇤
Ex [F ] = Ex Gfp Xtp
h ⇥ ⇤i
= Ex GEXTp 1 fp ✓tp tp 1
⇥ ⇤ ⇥ ⇤
par la propriété de Markov et car G est Ftp 1
-mesurable. Si g (x) = Ex f ✓tp tp 1
, on aEx [F ] = Ex Gg Xtp 1
fonction spéciale avec p ! p 1.
Retour à la démonstration du théorème 58 :
Démonstration. On suppose T < 1 presque sûrement. Soit A 2 FT et F mesurable bornée. Si T prend ses valeurs
dans un ensemble dénombrable D, alors :
En effet, X ⇥ ⇤
Ex [1A F ✓T ] = Ex 1A\{T =s} F ✓s
s2D
21
par Markov faible (incluse dans la définition d’un processus de Feller)
X ⇥ ⇤ X ⇥ ⇤
Ex 1A\{T =s} F ✓s = Ex 1A\{T =s} EXS [F ]
s2D s2D
= Ex [1A EXs [F ]]
p.s
Sinon, on suppose F spéciale et on approche T par Tn = 21n d2n T e. Par continuité à droite, on a bien XTn ! XT .
p.s
Comme F est spéciale, par le lemme, on a EXTn [F ] ! EXT [F ]. On arrive à (3) pour toute fonction spéciale F . Par
densité des fonctions spéciales, on a le résultat pour toute F mesurable bornée puis pour toute fonction mesurable
positive.
Définition 59. Un semi-groupe de Feller est une famille d’applications (Pt )t 0, linéaires continues de C0 (S) dans
C0 (S) telle que pour tout f 2 C0 (S),
1) P0 f = f ,
2) kPt f f k ! 0,
t!0
3) Pt+s f = Pt Ps f ,
4) f 0 =) Pt f 0,
N
5) Si S est compact, Pt 1 = 1 ; si S non compact, il existe (fn )n 2 (C0 (S)) tel que sup kfn k < 1 et pour tout
x 2 S, Pt fn (x) ! 1 pour tout t 0.
Remarque. 2) est appelé la continuité forte. On a
Pt f = P t ( f ) Pt ( kf k) = kf k
Si S est non compact, on fixe x 2 S et t 0,
f 7! Pt f (x)
est une forme linéaire continue sur C0 (S) donc, par le théorème de Riesz, il existe µt,x mesure finie telle que
ˆ
Pt f (x) = f dµt,x
fn dµt,x , fn ! f ponctuellement, sup kfn k < 1 donc par le théorème de convergence dominée,
´
Pt fn (x) =
ˆ ˆ
fn dµt,x ! dµt,x
=
Pt fn (x) ! 1
ˆ ˆ +1
↵t ↵t
↵U↵ f = ↵e Pt f dt + ↵e Pt f dt
0
22
Proposition 62. Equation résolvante : Pour tout ↵, > 0,
U↵ U =( ↵) U↵ U
En particulier, U↵ U = U U↵ .
Démonstration. Pour ↵ 6= ,
ˆ +1
↵t
U↵ U f = e
Pt (U f ) dt
0
ˆ +1 ✓ˆ +1 ◆
↵t t
= e Pt e Ps f ds dt
0 0
ˆ +1 ˆ +1
↵t s
= e Pt+s f dtds
0 0
ˆ +1 ˆ r
↵t (r t)
= dr e dtPr f dr
0 0
+1 ↵r r
e e
ˆ
= Pr f dr
0 ↵
U↵ f U f
=
↵
↵
Remarque. Si Pt f = e t
f alors U↵ f = 1
↵+ f . On peut vérifier que 1
↵+
1
+ = (↵+ )( + ) .
Proposition 63. Dans la définition de semi-groupe de Feller, on peut remplacer l’hypothèse de continuité forte
kPt f f k ! 0 par : 8x 2 S, Pt f (x) ! f (x).
t!0 t!0
Démonstration. 1) on vérifie la propriété forte pour f = U↵ g, ↵ > 0, g 2 C0 (S).
ˆ +1
Pt f = Pt e ↵s Ps gds
0
ˆ +1
= e ↵s Ps+t gds
0
ˆ +1
= e ↵(s t) Ps gds
t
ˆ +1
Pt f f = e↵t 1 e ↵s Ps gds
t
ˆ t
e ↵s Ps gds
0
| {z }
k·k t kgk
´ +1 ↵t ´ +1 ↵t e↵t 1
t
(e 1) e ↵s Ps gds converge vers 0 pour tout s et on a la domination t (e 1) e ↵s
Ps gds ↵ kgk.
´ +1 ↵t
Par le théorème de convergence dominée t (e 1) e ↵s
Ps gds ! 0.
t!0
2) On montre que {U↵ g, ↵ > 0, g 2 C0 (S)} est dense dans C0 (S).
´ Par un argument de dualité, il suffit de montrer
que pour toute mesure finie sur S, pour tout ↵ > 0, g 2 C0 (S), U↵ gdµ = 0 =) µ = 0. On veut justifier
ˆ ˆ
↵U↵ gdµ ! gdµ
↵!+1
On a vu k↵U↵ gk kgk. il suffit de vérifier la convergence ponctuelle : pour tout x 2 S, ↵U↵ g (x) ! g (x) (voir
↵!+1
preuve précédente) et on conclut par le théorème de convergence dominée.
2) Conclusion : Soit " > 0 : il existe h 2 U tel que kf hk "
kPt f fk kPt f Pt hk + kPt h hk + kh fk
2 kh f k + kPt h hk
donc limsup kPt f f k 2".
t!0
23
3.3 Du processus au générateur infinitésimal
Théorème 64. Etant donné un processus de Feller (Xt )t , on pose
Pt f (x) = Ex [f (Xt )]
Pour montrer la continuité ponctuelle, il suffit de voir que pour tout x 2 S, Pt f (x) ! f (x). C’est clair par
t!0
continuité à droite des trajectoires. Par définition du processus de Feller, Pt envoie C0 (S) dans C0 (S).
Remarque. On peut ré-écrire la propriété de Markov Ex [f (Xt+s ) | Ft ] = Ps f (Xt ).
Proposition 65. Si f 2 C0 (S), f 0, ↵ > 0, alors Mt := e ↵t
U↵ f (Xt ) est une sur-martingale sous Px .
Démonstration. kU↵ f k 1
↵ kf k donc Mt 2 L1 .
ˆ +1
↵s ↵s ↵t
Ps e U↵ f = e e Ps+t f dt
0
ˆ +1
↵t
= e Pt f dt U↵ f
s
car f 0
h i
↵(t+s)
Ex [Mt+s | Ft ] = Ex e U↵ f (Xt+s ) | Ft
⇣ ⌘
↵(t+s)
= Ps e U↵ f (Xt )
↵t
e U↵ f (Xt ) = Mt
Comment passe-t-on maintenant du semi-groupe au générateur infinitésimal ? Pour le cas où S est fini, la matrice
de transition est Q = (q (x, y)) qu’on peut voir comme l’application linéaire
X
Qf (x) = q (x, y) (f (y) f (x))
y6=x
X
De même, on a Pt = (pt (x, y)) qu’on peut voir comme Pt f (x) = pt (x, y) f (y) = Ex [f (Xt )] et Pt = etQ =
y
1 + tQ + o (t). On a Pt f (x) = f (x) + tQf (x) + o (t) et Ex [f (Xt )] = f (x) + tQf (x) + o (t). On se replace à présent
dans le cadre général.
Définition 66. Soit (Pt ) un semi-groupen de Feller. Le générateur infinitésimalo associé est l’opérateur linéaire
L f = lim Pt ft f sur le domaine D (L ) := f 2 C0 (S) | Pt ft f existe dans C0 (S) .
t!0
24
⇣ ⌘
Ps f f
Démonstration. 1
s (Pt+s f Pt f ) = P t s ! Pt L f et la convergence est uniforme en t.
s!0
n
X1
Pt f f = lim P k+1 ·t f P k ·t f
n!1
k=0 |
n
{z n }
1
⇠ P k ·t L f
n n
ˆ t
= Ps L f ds
0
donc t 7! Pt f est C 1 et d
dt (Pt f ) = Pt L f .
✓ ◆
Ps f f
Pt L f = lim Pt
s!0 s
Ps (Pt f ) Pt f
= lim
s!0 s
= L Pt f
= U↵ (L f )
donc U↵ ((↵ L ) f ) = f .
3) provient immédiatement de 2) et 3) [
4) En particulier, ImU↵ ne dépend pas de ↵. Pour voir que D (L ) est dense, il suffit de voir que Im (U↵ )est
↵>0
dense. On a vu ↵U↵ f ! f donc c’est bon !.
↵!+1
25
Corollaire 69. Un semi-groupe de Feller est déterminé par son générateur infinitésimal (ce qui inclut l’information
sur le domaine !)
Démonstration. Soit f 2 C0 (S) positive. On veut montrer qu’on peut calculer Pt f en utilisant seulement l’infor-
1
mation sur L . On vient de voir que pour tout ↵ > 0, U↵ f = (↵ L ) f i.e. U↵ f est l’unique élément de D (L )
tel que (↵ L ) U↵ f = f ˆ
↵t
U↵ f (x) = e Pt f (x) dt
On peut donc retrouver la transformée de Laplace de t 7! Pt f (x). Cela caractérise Pt f (x) car t 7! Pt f ((x) est
continue.
Exemple 70. Le mouvement brownien.
(y x)2
1) Pt f (x) = p2⇡t
1
´
e 2t f (y) dy
p
2) U↵ f (x) = p2↵ exp
1
2↵ |y x| f (y) dy et D (L ) = f 2 C 2 (R) | f, f ” 2 C0 (R) et pou f 2 D (L ), on
´
´s
ˆ t
Ps f f= P L f du par Kolmogorov donc E [Mt+s | Ft ] = f (Xt )
0 u
L f (Xu ) du = Mt .
ˆ t 0
t
Pt f f 1
ˆ
= Ps gds ! g
t t 0 t!0
donc f 2 D (L ) et L f = g.
ˆ t
Exemple 72. Pour le mouvement brownien (Bt )t . On a :f (Bt ) 1
2 f ” (Bs ) ds est une martingale (assez proche
0
de la formule d’Itô). La martingale est f 0 (Bs ) dBs .
´
26
3.4 Mesures invariantes
Définition 73. Soit µ une mesure de probabilité sur S. On définit
ˆ
Pµ (A) = Px (A) dµ (x)
ˆ ˆ ˆ ˆ ˆ ˆ
Ps f d⌫ f d⌫ Ps f d⌫ Ps+t f dµ + Ps+t f dµ f d⌫
ˆ ˆ ˆ ˆ
Ps f d⌫ Pt (Ps f ) dµ + Ps+t f dµ f d⌫
! 0
t!+1
ˆ nk ˆ
1
ˆ
Pt f dµnk = Pt+s f dµds
nk 0
ˆ nk +t ˆ
1
= Ps f dµds
nk t
✓ ˆ tˆ ˆ nk +t ˆ ◆
1
ˆ ˆ
Pt f dµnk f dµnk = Ps f dµds + Ps f dµds ! 0
nk 0 nk k!1
27
où E1 ⇠ Exp (1)
✓ ◆ n h h h iii
1
Id L f = E P En E P En 1 . . . E P E1 f
↵ ↵ ↵ ↵
h i
= E P En +...+E1 f
↵
i.i.d.
où E1 , . . . , En ⇠ Exp (1).
✓ ◆ m h i
t
Id L f = E Pt· En +...+E1 f
m n
Pour f 2 D (L ) :
kPt f Ps f k kL f k |t s|
✓ ◆ n
t En + . . . + E1
Id L f Pt f t kL f k E 1 ! 0
m n n!1
ce qui prouve le lemme pour tout f 2 D (L )car les opérateurs sont des contractions et D (L ) est dense.
Théorème 78. µ est une mesure invariante si et seulement si, pour tout f 2 D (L ), L f.dµ = 0.
´
0.
“(=” On veut voir que pour tout f 2 C0 (S) et t > 0
ˆ ˆ
Pt f.dµ = f.dµ
1
Si Id 1
f = 0 alors g 2 D (L )et f = g 1
et donc
´ ´
↵L ↵L g f.dµ = g.dµ.
ˆ ✓ ◆ 1
1
ˆ
f.dµ = Id L f.dµ
↵
et on a le résultat.
Remarque 79. On est en général intéressé par la détermination de l’ensemble I des mesures invariantes d’un
processus. Cet ensemble est convexe. Il suffit donc de déterminer les points extrémaux de cet ensemble convexe.
C’est lié à la notion d’ergodicité. Une mesure n’est pas extrémale si elle s’écrit µ = p⌫1 + (1 p) ⌫0 avec p 2]0, 1[ et
⌫0 6= ⌫1 .
Définition 80. Une mesure de probabilité invariante µ est ergodique si pour tout f continue bornée,
1 t
ˆ ˆ
f (Xs ) ds ! f dµ, Pµ p.s
t 0 t!1
c’est à dire
t
1
ˆ ˆ
f (Xs ) ds ! f dµ, Px p.s (4)
t 0 t!1
dµ (x) p.s..
Remarque 81. Deux mesures invariantes ergodiques sont mutuellement singulières : si µ1 , µ2 sont ergodiques avec
µ1 6= µ2 alors il existe A mesurable telle que µ1 (A) = 1 et µ2 (A) = 2.
Proposition 82. Une mesure invariante ergodique est extrémale (c.f. Remarque 79 pour la définition).
28
Démonstration. Supposons que µ = p⌫1 + (1 p) ⌫0 avec µ invariante ergodique, p 2]0, 1[ et ⌫0 , ⌫1 invariantes. On
a ⌫1 ⌧ µ donc (4) est vrai d⌫1 (x) p.s. donc
1 t
ˆ ˆ
E [f (Xs )] ds ! f dµ
t 0 | {z } t!1
ˆ
= f d⌫1
car ⌫1 est invariante. Donc f dµ pour toute fonction continue bornée. Donc ⌫1 = µ = ⌫0 .
´ ´
f d⌫1 =
et L = 1
2 pour le brownien.
u (t, x) = Ex [f (Bt )] = E0 [f (x ` Bt )]
La formule de Feynman-Kac donne une représentation probabiliste d’une équation “avec potentiel”
Théorème 83. Formule de Feynman-Kac. Soit f 2 D (L ) et h 2 C0 (S). La fonction
✓ˆ t ◆
u (t, x) = Ex f (Xt ) exp h (Xs ) ds
0
Ex [|A|] Ex [|f (Xt+" ) f (Xt )|] etkhk e"khk 1 = o (") pourvu que |f (Xt+" ) f (Xt )| tende vers 0
h i
2 2
Ex [|f (Xt+" ) f (Xt )|] Ex (f (Xt+" ) f (Xt ))
⇥ ⇤
Ex f 2 (Xt+" ) 2f (Xt+" ) f (Xt ) + f 2 (Xt )
= Pt+" f 2 2Pt (f P" f ) + Pt f 2
⇥ ⇤
= Pt P " f 2 2f P" f + f 2
! 0, uniformément en t et en espace
"!0
⇥ ⇤
Ex [B] = Ex (P" f (Xt ) f (Xt )) eI(0,t) par Markov. Donc
u (t + ", x) u (t, x) h i h i
! Ex L f (Xt ) eI(0,t) + Ex f (Xt ) eI(0,t) h (Xt )
" "!0
´t
uniformément en t et en x. Donc u (t, x) = 0
. . . et u (·, x) est C 1 .
h i
u (t + ", x) = Ex eI(0,") f (Xt+" ) eI(",t+")
h i
Markov
= Ex eI(0,") u (t, X" )
29
⇥ ⇤
1
" (u (t + ", x) u (t, x)) = 1" Ex eI(0,") 1 u (t, X" ) + 1
" (P" u (t, x) u (t, x)). Or,
1 h⇣ I(0,") ⌘ i
Ex e 1 u (t, X" ) ! h (x) u (t, x)
" "!0
et poser Xt = Zt + 1 Bt . On verra que L f (x) = 21 f (x) rV (x) · rf (x). Si = +1, Xt ' x trV (x) + o (t),
f (Xt ) ' f (x) trV (x) · rf (x) + o (t).
On cherche
´ une mesure´invariante à densité g. On veut vérifier que pour tout f 2 D (L ), L f (x) g (x) dx = 0
´
1
L ⇤f = f + r (f rV )
2
En effet, rV rf g = (rf ) · (grV ) = f r (grV ). Il faut et il suffit que L ⇤ g = 0. On montre que ça équivaut
´ ´ ´
30
3.6.2 Modèle d’Ising dynamique
Exemple 86. Soit G = (V, E) un graphe fini (V est l’ensemble des sommets, E l’ensemble des arrêtes). On veut
V
une dynamique sur { 1, 1} telle que la mesure invariante soit
1
µ( ) = exp ( H ( ))
Z
X X
où Z = exp ( H ( )) avec H ( ) = i j avec i ⇠ j si i et j sont deux sommets adjacents. Pour
2{ 1,1}V i⇠j
V V
2 { 1, 1} , soit (i)
2 { 1, 1} défini par
(
(i) k si k 6= i
k =
i si k = i
⇣ ⌘
Un exemple important de dynamique est avec taux de transition de à (i)
donné par C , (i)
= exp 2 H (i)
H( ) .
On observe que ⇣ ⌘ ⇣ ⌘ ⇣ ⌘
µ ( ) .C , (i) = µ (i) .C (i)
,
⇣ ⌘⇣ ⇣ ⌘ X ⌘
En particulier, µ est invariante. On peut aussi vérifier que si L f ( ) = C , (i) f (i) f ( ) alors on a
i
bien L f dµ = 0. On peut construire cette dynamique sur Zd par exemple en utilisant une variation de l’approche
´
31
(
⇠ (z) si z 6= x
⇠ 1!x
(z) = . Formellement, on veut un processus stochastique dont le générateur infinitésimal est
1 si z = x
donné par
X X
L f (⇠) = 1{⇠(x)=1} f ⇠ 0!x f (⇠) + 1{⇠(x+1)=1} f ⇠ 1!x f (⇠) +
x x
X
1{⇠(x 1)=1} f ⇠ 1!x f (⇠)
x
Notons P la loi des processus ponctuels. On a défini le processus pour toute configuration initiale de manière couplée.
En particulier, on a immédiatement : A ⇢ B =) ⇠tA ⇢ ⇠tB . ⇣ t,A ⌘
t,A
Renversement du temps : soit ⇠ˆs = {y 2 Z | 9x 2 A, (y, t s) ! (x, t)} pour 0 s t. Alors ⇠ˆs a
0st
même loi que ⇠tA 0st
.
Lemme 87. P-presque sûrement, pour tout y 2 Z, il existe R (y, t) tel que |x y| > R (y, t) =) il n’existe pas de
chemin actif entre (x, 0) et (y, t)
Démonstration. Pour avoir (x n, 0) ! (x, 0) il fat avoir des “flèches” 0 < tn < . . . < t1 < t tels que tk 2 Px k,+ .
Presque sûrement, il existe K tel que Px K ,+ \ [0, t] est vide. De même, il existe K+ tel que Px+K+ , \ [0, t] est
vide. On prend donc R (y, t) = max (K+ , K ).
⇣ ⌘
Lemme 88. Pour tout " > 0, 9N tel que A|[ N,N ] = B|[ N,N ] =) P ⇠t|[ A B
N0 ,N0 ] 6= ⇠t|[ N0 ,N0 ] ".
32
Ainsi on obtient la propriété de Feller :
⇥ ⇤
|ft (A) ft (B)| E f ⇠tA f ⇠tB
E f ⇠tA f ⇠tB 1n ⇠ A B
=⇠t|[
o +
t|[ N0 ,N0 ] N0 ,N0 ]
E f ⇠tA f ⇠tB 1n ⇠ A B
6=⇠t|[
o
t|[ N0 ,N0 ] N0 ,N0 ]
" + 2 kf k "
par continuité de f et par le lemme 142.
4 Variation quadratique
ˆ t
But : définir HS dBS avec B le cours d’une action et H la quantité d’actions possédées.
0
Problème : le brownien n’est pas à variation finie. On va étudier la variation quadratique d’une martingale
continue générale.
est finie.
Proposition 91. i) La fonction t 7! F (t) est croissante et continue : il existe une mesure |µ| finie sur les compacts
telle que |µ| ([0, t]) = F (t).
ii) 8s t, |a (s) a (t)| F (t) F (s)
iii) t 7! F (t+a(t))
2 et t 7! F (t)2 a(t) sont croissantes et continues. Il existe µ+ , µ mesures finies sur les compacts
elles que µ+ ([0, t]) = F (t)+a(t)
2 , µ ([0, t]) = F (t)2 a(t) . On a alors :
|µ| = µ+ + µ
fn (s) ! f (s) pour tout s et fn est bornée par sup |f (s)| donc on obtient le résultat par convergence dominée.
0st
33
Notation : pour toute f mesurable positive, on note
ˆ ˆ
f (s) |da (s)| := f (s) d |µ| (s)
Définition 96. Un processus à variation finie est un processus adapté et sont toutes les trajectoires sont à variation
finie (continues, partant de 0).
Proposition 97. Soit A un processus à variation finie et H un processus progressif. Soit H · A le processus défini
par ˆ t
(H · A)t = Hs dAs
0
bien défini si pour tout t 0, ˆ t
|HS | |dAs | < +1
0
Le processus H · A est à variation finie.
Démonstration. Chaque trajectoire est à variation finie :
ˆ t
(H · A)t (H · A)s = Hs dAs
s
ˆ t
=) |(H · A)t (H · A)s | |Hs | |dAs |
s
Il reste à vérifier que le processus est adapté. On veut vérifier que si h : ⌦ ⇥ [0, t] ! R est Ft ⌦ B ([0, t])-mesurable
´t
bornée, alors 0 h (!, s) dAs est Ft -mesurable. Si h (!, s) = 1]u,v] (s) 1B (!) avec ]u, v] ⇢ [0, t] et B 2 Ft , alors
ˆ t
h (!, s) dAs = 1B (!) (A (v) A (u))
0
est Ft -mesurable. Par le lemme des classes monotones h = 1 est mesurable si 2 Ft ⌦ B ([0, t]). Puis, on conclue
si h est mesurable bornée en l’écrivant comme limite ponctuelle de fonctions étagées.
34
Notation : Si T est un temps d’arrêt, on note X T le processus t 7! Xt^T .
Définition 98. Un processus adapté à trajectoires continues (Mt )t 0 tel que M0 = 0 est une martingale locale s’il
existe une suite croissante d temps d’arrêts (Tn ) telle que Tn ! +1 presque sûrement telle que pour tout n, M Tn
est une martingale uniformément intégrable. Si M0 6= 0 ont dit que M est une martingale locale si M M0 est une
martingale locale. Dans tous les cas, on dit qu’une telle suite de temps d’arrêts réduit la martingale locale.
Remarque. On n’a pas forcément Mt 2 L1
Proposition 99. a. Une martingale est une martingale locale
b. On pourrait changer la définition et demander simplement M Tn n martingale.
c. Si T temps d’arrêt et M martingale locale, alors M T est une martingale locale.
d. Si Sn réduit M et Tn est une suite de temps d’arrêt telle que Tn % +1 presque sûrement, alors Tn ^ Sn
réduit M .
e. L’ensemble des martingales locales et un espace vectoriel.
Démonstration. a. prendre Tn = n
b. En effet, il suffit de considérer Tn ^ n
Proposition 100. 1) Une martingale locale positive telle que M0 2 L1 est une surmartingale.
2) Si (Mt )t 0 est une martingale locale telle que |Mt | Z pour tout t 0 où Z 2 L1 , alors M est une martingale
uniformément intégrable.
3) Si M est une martingale locale telle que M0 = 0 alors la suite Tn = inf {t 0, |Mt | n} réduit M .
Démonstration. 1) On a Mt = M0 + Nt où N est une martingale locale issue de 0. Soit (Tn ) qui réduit N . On a :
E [Nt^Tn | Fs ] = Ns^Tn
E [Mt^Tn | Fs ] = Ms^Tn
E [Mt | Fs ] Ms (5)
par Fatou (M 0). En particulier, E [Mt ] E [M0 ] < 1. Mt 2 L et (5) dit que M est une surmartingale.
1
2) On a de même
E [Nt^Tn | Fs ] = Ns^Tn
Par le théorème de convergence dominée,
E [Mt | Fs ] = Ms
3) M Tn
martingale locale bornée donc (vraie) martingale.
Rappel : si M est une martingale dans L2 ,
h i h i h i
2 2 2
E (Mt Ms ) = E (Mt Mu ) + E (Mu Ms )
si s u t.
Théorème 101. Si M est une martingale locale telle que M0 = 0 à variation finie, alors M = 0.
n ´t o
Démonstration. Soit Tn = inf t 0, 0 |sMs | n , Tn temps d’arrêt. N := M Tn martingale locale issue de 0.
ˆ Tn
N (t) |dMs | n
0
35
p 1
X ˆ t ˆ Tn
Or, Ntk+1 Ntk |dNs | |dMs | n
k=0 0 0
⇥ ⇤
E Nt2 n.E sup Ntk+1 N tk
k
X1 ⇣
n ⌘2
hM, M it = lim Mt(n) Mt(n)
n!1 k+1 k
k=0
en probabilité. Le processus hM, M i est indépendant de la suite de partition. Il est appelé variation quadratique de
M.
Remarque. 1) Si Mt = M0 + Nt alors hM, M it = hN, N it
2) Pour le mouvement brownien B, on a hB, Bit = t. En effet,
X1 ⇣
n ⌘2 ⇣
(n) (n)
⌘ (P)
Bt(n) Bt(n) tk+1 tk !0
k+1 k
k=0
A A0 = M 2 A0 M2 A
36
⇥ ⇤
M0 Nt^T˜n 2 L1 et E M0 Nt^T˜n | Fs = M0 Ns^T˜n donc (M0 Nt )t 0 est une martingale locale.
Etape 2. On montre qu’on peut supposer M bornée par une constante. Si M pas borné (mais M0 = 0), on pose
Tn = inf {t 0, |Mt | n}
(n+1)
M Tn est une martingale bornée. Sot A(n) sa variation quadratique. Par la partie unicité de la preuve, on a At^Tn =
(n) (n)
At . Tn % +1 presque sûrement donc on peut définir At = lim At est processus croissant partant de 0. Par
n!1
construction,Mt^Tn At^Tn est une martingale locale.
Etape 3. Il reste à montrer le théorème en supposant M0 = 0 et |Mt | K pour tout t. Soit ⇡ = {0 = t0 < t1 < . . .}
partition de R+ . La pas de ⇡ est |⇡| = sup |tk+1 tk |. Pour t 2 [tk , tk+1 [,
k
X 2 2
A⇡ (t) = Mt j Mt j 1 + (Mt Mt k )
j=1
Vérifions que Mt2 A⇡ (t) est une martingale (l’appartenance à L1 est OK). Soit s < t, soit k, l tels que tk s < tk+1 ,
tl t < tl+1 . Alors,
l
X 2 2 2
A⇡ (t) A⇡ (s) = Mt j Mt j 1
+ (Mt Mt l ) (Ms Mt k )
j=k+1
h i
2
E [A⇡ (t) A⇡ (s) | Fs ] = E (Mt Ms ) | Fs
⇥ ⇤
= E Mt2 Ms2 | Fs
⇥ ⇤
E Mt2 A⇡ (t) | Fs = Ms2 A⇡ (s)
h i
2
Problème : A⇡ n’est pas croissant ! Prendre la limité |⇡| ! 0. L’enjeu essentiel est d’estimer E (A⇡ (t) A⇡0 (t))
quand ⇡ ⇢ ⇡ 0 avec t 2 ⇡. ⇡ 0 = {0 = s0 < s1 < s2 < . . .}. ⇠i = Msi Msi 1 est borné par 2K. Mt1 Mt 0 =
⇠1 + . . . + ⇠k1 , Mt2 Mt1 = ⇠k1 +1 + . . . + ⇠k2 . Si i1 i2 . . . ik 1 ik alors
⇥ ⇤
E [⇠i1 . . . ⇠il ] = E ⇠i1 . . . ⇠ik 1 E [⇠il | Fsl ]
Pour t = tm = skm ,
m
X km
X
2
A⇡ (t) A (t)
⇡0 = ⇠ ki 1 +1
+ . . . + ⇠ ki ⇠j2
i=1 j=1
m
X
= 2 Ti
i=1
X
où Tl = ⇠i ⇠j . E [Tl Tl0 ] = 0 si l 6= l0 . Donc
kl 1 <i<jkl
h i m
X ⇥ ⇤
2
E (A⇡ (t) A⇡ (t)) =4 E Ti2
i=1
⇥ ⇤ X ⇥ ⇤
E Tl2 = E ⇠i ⇠i0 ⇠j2
kl 0 <jk
1 <i,i l
kl
X ⇣ ⌘2
= E Msj 1
M s kl 1
⇠j2
j=kl 1 +1
37
Posons t (") = sup |Mu Mv |
0u<vt, vu+"
2 3
m
X km
X
⇥ ⇤ 2
E Tl 2
E 4 t (|⇡|) ⇠j2 5
l=1 j=1
20 13 12
h i 12 Xkm
4
E t (|⇡|) E 4@ ⇠j2 A5
j=1
20 12 3
k
6 X 2A 7
m
20 12 3 2 3
k km km km
6 X 2A 7 X ⇥ 4⇤ X X
m
E 4@ ⇠j 5 = E ⇠j + 2 E 4⇠i2 ⇠j2 5
j=1 j=1 i=1 j=i+1
km
X ⇥ ⇤ km
X h i
2
= E ⇠j4 + 2 E ⇠i2 Mskm Msi
j=1 i=1
km
X km
X
2 ⇥ ⇤ 2 ⇥ ⇤
(2K) E ⇠j2 + 2 (2K) E ⇠i2
j=1 i=1
20 12 3
k
6 X A 7
m
12K 2 E 4@ ⇠j 5 48K 4
j=1
donc h i h i 12
2 4
E (A⇡ (t) A⇡0 (t)) 28K 2 E t (|⇡|)
h i 12
4 4
t (|⇡|) est bornée par 2K donc 28K 2 E t (|⇡|) ! 0 presque sûrement.
|⇡|!0
A⇡ A⇡0 est une martingale car A⇡ A⇡ 0 = M 2
A⇡ 0 M2 A⇡ . Par Doob,
h i 12
2 4
E sup (A⇡ (s) A⇡0 (s)) 112K 2 E t (|⇡|)
0st
Presque sûrement, on peut définir A (s) = lim A⇡n (s) s < t limite uniforme de fonctions continues donc continue.
n!1
A⇡ est croissante sur ⇡n donc A est croissante sur ⇡n pour tout n. Par continuité, A est croissante.
(P)
(Exercice pour la prochaine fois) Vérifier que pour tout (⇡n )n suite de partitions emboîtées, A⇡n ! A.
On a montré :
Remarque.
h i1
2 4 2
1) E sup (A⇡ (s) A (s)) 112K 2 E t (|⇡|)
0st
2) Si T est un temps d’arrêt, alors
hM T , M T it = hM, M it^T
En effet, Mt^T
2
hM, M it^T t 0 est une martingale locale.
3) On note hM, M i1 = limhM, M it 2 [0, +1]
38
Théorème 103. Soit M une martingale lolcale avec M0 = 0,
1) Il y a équivalence entre
a. M est une martingale bornée dans L2
b. E [hM, M i1 ] < +1
Si ces conditions sont satisfaites, alors Mt2 hM, M it t 0 est une martingale uniformément intégrable. En
particulier, ⇥ 2⇤
E M1 = E [hM, M i1 ]
2) Il y a équivalence entre
a. M est une martingale telle que pour tout t, Mt 2 L2
b. E [hM, M it ] < +1
Dans ce cas, Mt2 hM, M it t 0 est une vraie martingale.
Remarque. Dans a. l’hypothèse “vraie martingale” est nécessaire. Contre-exemple : brownien en dim 3.
Démonstration. “a =) b” Doob (pour les vraies martingales) :
2 ⇥ ⇤
E sup |Ms | 4E Mt2
0st
C < +1
E [hM, M i1 ] C < +1
par Fatou.
“b =) a” Soit Tn qui réduit Mt2 hM, M it . Posons Sn = Tn ^ inf {t 0, |Mt | n}. M Sn est une martingale
bornée. ⇥ 2 ⇤
E Mt^S n
= E [hM, M it^Sn ] E [hM, M i1 ] < +1
⇥ 2⇤
Par Fatou, E Mt E [hM, M i1 ]. (Mt^Sn )n est une martingale bornée dans L2 donc uniformément bornée et
converge presque sûrement dans L1 .
E [Mt^Sn | Fs ] = Ms^Sn
E [Mt | Fs ] = Ms
donc M est une martingale. Il reste à voir que M 2 hM, M i est une martingale uniformément bornée.
⇥ ⇤
E M 2 hM, M i supMs2 + hM, M i1
s 0
supMs2 est intégrable par Doob. Ainsi M 2 hM, M i est une martingale uniformément bornée.
s 0
2) Il suffit d’appliquer le résultat 1) à (Mt^t0 )t 0 pour t0 fixé.
Corollaire 104. Si M est une martingale locale qui part de 0 telle que hM, M i = 0, alors M = 0.
⇥ ⇤ ⇥ ⇤
Démonstration. On a M 2 vraie martingale : E Mt2 = E M02 = 0.
Définition 105. Soient M, N deux martingales locales. On appelle covariation de M et N le processus hM, N i :=
1
2 (hM + N, M + N i hM, M i hN, N i).
Proposition 106. 1) hM, N i est l’unique processus à variation finie tel que M N hM, N i tel que M N hM, N i
est une martingale locale.
2) L’application M, N 7! hM, N i est bilinéaire.
(n) (n)
3) Si 0 = t0 < . . . < tn = t est une suite de subdivisions dont le pas tend vers 0, alors hM, N it =
Xn ⇣ ⌘⇣ ⌘
lim Mt(n) Mt(n) Nt(n) Nt(n) .
n!+1 k+1 k k+1 k
k=0
4) Si T est un temps d’arrêt, on a hM T , N T it = hM T , N it = hM, N it^T .
39
5) Si M, N sont des martingales bornées dans L2 , alors M N hM, N i est une martingale uniformément inté-
grable. De plus, hM, N it ! hM, N i1 intégrable et tel que
ps
Démonstration. 1) découle des propriétés de la variation quadratique déjà vues. On montre l’unicité comme précé-
demment.
2) OK par définition.
3) OK par même propriété pour hM, M i
4) Conséquence de 3)⇣ ⌘
2
5) On écrit M N = 12 (M + N ) M 2 N 2 et on applique les résultats précédents.
1
hZ, Zit = t= hB + B 0 , B + B 0 i
2
1
= = (hB, Bit + hB 0 , B 0 it ) + hB, B 0 it
2
donc hB, B 0 i = 0.
Proposition 108. Inégalité de Kunita-Watanabe (équivalent de Cauchy-Schwarz)
Soient M, N deux martingales locales et H, K deux processus mesurables. Alors,
✓ˆ t ◆2 ✓ˆ t ◆ ✓ˆ t ◆
|Hs | |Ks | |dhM, N is | Hs2 dhM, M is Ks2 dhN, N is
0 0 0
Donc
ˆ t X t
|dhM, N is | = lim hM, N itk+1
k
s
X t
1
2 t
1
2
limsup hN, N itk+1
hM, M itk+1
k k
⇣X ⌘ 12 ⇣X ⌘1
t tk+1 2
limsup hM, M itk+1
k
hN, N i tk
✓ˆ t ◆ 12 ✓ˆ t ◆ 12
= dhM, M is dhN, N is
s s
2
donc A |dhM, N isP dhN, N is est vraie pour tout A mesurable par un argument de classe
´ ´ ´
| A dhM, MP is A
monotone. Si H = i 1Ai et K = µi 1Ai sont étagées positives, alors
ˆ X ˆ
Hs Ks |dhM, N is | = µ
i i |dhM, N is |
Ai
X ✓ˆ ◆ 12 ✓ˆ ◆ 12
i µi dhM, M is dhN, N is
Ai Ai
Cauchy-Schwarz ✓ˆ ◆ 12 ✓ˆ ◆ 12
Hs2 dhM, M is Ks2 dhN, N is
Pour conclure, on écrit H, K comme limites croissantes de fonctions étagées positives et on utilise le théorème de
convergence monotone.
40
4.4 Semi-martingales continues
Définition 109. On dit que X est une semi-martingale continue si X s’écrit X = M + A avec M martingale locale
et A à variation finie (la décomposition étant unique).
Si X = M + A et Y = N + B avec M, N martingales locales et A, B à variation finie, on pose hX, Y i = hM, N i.
(n) (n)
Proposition 110. Soit 0 = t0 < . . . < tn = t une suite de subdivisions dont le pas tend vers 0 et soit X, Y deux
semi-martingales. On a :
X1 ⇣
n ⌘⇣ ⌘
hX, Y i = lim Xt(n) Xt(n) Yt(n) Yt(n)
n!1 k+1 k k+1 k
k=0
! 0 ps
5 Intégrale stochastique
5.1 Construction de l’intégrale stochastique
⇥ ⇤
Définition 111. Soit H l’espace des martingales M continues bornées dans L2 (pour tout M 2 H, supE Mt2 < 1)
t
telles que M0 = 0. On a vu que M, N 2 H =) E [|hM, N i1 |] < 1. On définit la forme bilinéaire symétrique
Presque sûrement,
+1
X (nk+1 ) (nk )
sup Mt Mt < +1
t 0
k=0
41
Donc M (nk ) converge uniformément sur R+ vers une limite, notée M . M est donc continue
h comme limite
i uniforme
(nk ) (nk ) (nk )
de fonctions continues. Mt ! Mt dans L . En particulier, Mt 2 L et Mt
2 2
= E Ms | Ft pour t s et
k!1
Mt = E [Ms | Ft ] donc M est une martingale et Mt = E [M1 | Ft ]. Par Doob,
⇥ 2⇤
E sup Mt2 4E M1
t 0
L2 (M ) := L2 (⌦ ⇥ R+ , P rog, dP ⌦ dhM, M i)
h´ i
+1
L2 (M ) est l’espace des processus progressifs tels que E 0 Hs2 dhM, M is < +1. C’est un espace de Hilbert pour
le produit scalaire ˆ +1
(H, K)L2 (M ) = E Hs Ks dhM, M is
0
p 1
X
Définition 114. On note E le sous-espace de L2 (M ) formée des processus de la forme Hs (!) = H (k) (!)1]tk ,tk+1 ] (s)
k=0
où 0 < t0 < . . . < tp et H (k) est Ftk -mesurable et borné pour tout k.
Proposition 115. Pour tout M 2 H, l’espace E est dense dans L2 (M ).
Démonstration. Il suffit de montrer que E ? = {0}. Soit K 2 E ? . On pose
ˆ t
Xt := Ku dhM, M iu
0
d’où K = 0 dans L2 (M ).
Théorème 116. Soit M 2 H. Pour tout H 2 E de la forme
p 1
X
Hs (!) = H (k) (!) 1]tk ,tk+1 ] (s)
k=0
42
1) L’application H 7! H · M s’étend en une isométrie de L2 (M ) dans H.
2) Le processus H · M est caractérisé par :
ˆ
8N 2 H, hH · M, N i = H · hM, N i = Hs dhM, N is
T
3) Si T est un temps d’arrêt, alors 1[0,T ] H · M = (H · M ) = H · M T .
´t
Définition 117. On note (H · M )t = 0 Hs dMs l’intégrale stochastique.
Démonstration. 1) H · M est bien une martingale, bornée dans L2 , continue : H · M 2 H. H 7! H · M est linéaire.
Il reste à voir la propriété d’isométrie, ie
kH · M kH = kHkL2 (M )
p 1⇣
X ⌘2
hH · M, H · M it = H (k) hM, M it^tk+1 hM, M it^tk .
k=0
2
kH · M kH = E [hH · M, H · M i1 ]
"p 1 #
X⇣ ⌘2
= E H (k) hM, M itk+1 hM, M itk
k=0
ˆ
= E Hs2 dhM, M is
L’espace d’arrivée H est complet et E est dense dans L2 (M ) donc on peut étendre l’isométrie H 7! H · M à tout
L2 (M ).
2) On vérifie que c’est vrai pour les processus élémentaires. On prend H de la forme habituelle. On a :
p 1
X
hH · M, N it = H (k) hM, N it^tk+1 hM, N it^tk
k=0
ˆ t
= Hs dhM, N is
0
et s 7! hM, N is continue donc hH · M, M it = (H · hM, N i)t . Pour voir que le propriété reste vraie pour tout
H 2 L2 (M ), on observe que X 7! hX, N it est continue de H dans L1 . En effet, par l’inégalité de Kunita-Watanabe
108,
1 1
E [|hX, N it |] E [hX, Xit ] 2 E [hN, N it ] 2
kXkH kN kH
Si H (n) 2 E est tel que H (n) ! H dans L2 (M ) alors H (n) ·M ! H ·M dans H et donc hH (n) ·M, N it ! hH ·M, N it
dans L1 .
hH · M, N i = lim hH (n) · M, N i
n!+1
43
Voyons que si X 2 H est tel que pour tout N 2 H, hX, N i = H · hM, N i alors X = H · M . Dans ce cas, on a
hX H · M, N i, 8N 2 H
T
Donc (H · M ) = H1[0,T ] · M . De la même façon,
hH · M T , N i = H · hM T , N i t
= H · hM, N iT
= H1[0,T ] · hM, N i
Donc H · (M t ) = H1[0,T ] · M .
Remarque. On peut utiliser la propriété 116 2) pour définir l’intégrale stochastique en utilisant le théorème de Riesz.
On peut réécrire cette propriété sous la forme
⌧ˆ · ˆ t
Hs dMs , N = Hs dhM, N is
0 t 0
hK · M, K · M i = K · hM, K · M i
= K · (K · hM, M i)
= K 2 · hM, M i
ˆ +1 ˆ +1
Donc Hs2 Ks2 dhM, M is = Hs2 dhK · M, K · M is . Comme H 2 L2 (K · M ), on a bien HK 2 L2 (M ). Soit
0 0
N 2 H. On a
h(HK) · M, N i = H · hK · M, N i
On a aussi
⌧ˆ · ˆ · ˆ t ✓⌧ ˆ · ◆
Hs dMs , Ks dNs = Hs d M, Ku dNu
0 0 t 0 0 s
ˆ t ✓ˆ · ◆
= Hs d Ku dhM, N iu
0 0 s
ˆ t
= Hs Ks dhM, N is
0
44
Pour tout M, N 2 H et H 2 L2 (M ) , N 2 L2 (N ),
⌧ˆ · ˆ · ˆ t
Hs dMs , Ks dNs = Hs Ks dhM, N is
0 0 t 0
h´ i
t
Comme H · M est une martingale bornée dans L2 : E 0
Hs dMs = 0. Si s t,
ˆ t ˆ s
E Hu dMu | Fs = Hu dMu
0 0
"✓ˆ ◆2 # ˆ
t t
E Hu dMu =E Hs2 dhM, M is
0 0
+1.
Théorème 119. Soit M martingale locale issue de 0. pour tout H 2 L2loc (M ), il existe une unique martingale
locale H · M tel que, pour tout N martingale locale,
hH · M, N i = H · hM, N i
(HK) · M = H · (K · M )
hM Tn , M Tn i = hM, M it^Tn n
donc M Tn 2 H. ˆ +1 ˆ Tn
Hs2 dhM Tn , M Tn is = Hs2 hM, M is n
0 0
45
par la propriété caractéristique 116 2), d’où
hH · M, N iSn = H · hM Tn , N Sn i
= H · hM, N iSn
Sn
= (H · hM, N i)
hH · M, H · M i = H · hM, H · M i = H 2 · hM, M i
h´ i ⇣ ⌘2
t t t
Si E 0
Hs2 dhM, M is < +1 alors (H · M ) est une martingale uniformément intégrable et (H · M ) hH ·
M, H · M i aussi. En particulier, on a alors bien
ˆ t
E Hs dMs = 0
0
et "✓ˆ ◆2 # ˆ
t t
E Hs dMs =E Hs2 dhM, M is
0 0
On peut finalement définir l’intégrale par rapport à une semi-martingale. On dit qu’un processus progressif H
est localement borné si, presque sûrement, pour tout t 0, sup |Hs | < +1. En particulier, tout processus adapté
0st
ˆ t
et continu est localement borné. Si H est localement borné et A est à variation finie, alors Hs |dAs | < +1 et si
0
M est une martingale locale, on a aussi ˆ t
Hs2 dhM, M is < +1
0
ie H 2 L2loc (M ).
Définition 120. Soit X = M + A une semi-martingale où M est une martingale locale et A à variation finie. Pour
tout processus H localement borné, on pose :
H ·X =H ·M +H ·A
ˆ t
(H · X)t = Hs dXs
0
p 1
X
(H · X)t = H (k) Xt^tk+1 Xt^tk
k=0
46
Démonstration. 1),2),3) découlent des propriétés vues précédemment.
4) n’est pas immédiat car on a enlevé l’hypothèse H (k) bornés. on peut supposer X = M martingale locale issue
de 0, on peut supposer que M est bornée par localisation.
Soit Tn = inf {t 0, |Ht | n} = inf tk , H (k) n . Presque sûrement, Tn ! +1 et
n!1
p 1
X
Hs 1[0,Tn ] = H (k,n) 1{tk <stk+1 }
k=0
et
H (k,n) = H (k) 1{Tn <tk } n
donc H1[0,Tn ] est un processus élémentaire. On a
(H · M )t^Tn = H1[0,Tn ] · M t
p 1
X
= H (k,n) 1{tk <stk+1 }
k=0
0 si s = 0 ou s t
(n) ´ t^Tp ⇣ (n)
⌘2
Or, Hs Hs ! 0 presque sûrement donc E 0
Hs Hs dhM, M is ! 0 par le théorème de convergence
dominée. Donc lim H (n)
· M Tp
t
= H ·M Tp
t
dans L . 2
n!1
⇣ ⌘
L2
H (n) · M ! (H · M )t^Tp
t^Tp
(P)
De plus, P (Tp > t) ! 1. Donc H (n) · M t
! (H · M )t .
p!1
Remarque. Le résultat n’est pas vrai si on remplace Htk par Htk+1 . Pour le voir, on peut prendre H = X :
X X X 2
Xtk+1 Xtk+1 X tk = Xtk Xtk+1 Xtk + Xtk+1 X tk
donc
X (P)
ˆ t
lim Xtk+1 Xtk+1 X tk = Xs dXs + hX, Xit
0
ˆ t
Xt2 X02 =2 Xs dXs + hX, Xit
0
47
5.2 Formule d’Itô
La formule d’Itô est un équivalent du théorème fondamental de l’analyse pour l’intégrale stochastique. On peut
aussi l’interpréter comme une sorte de formule de Taylor pour le calcul stochastique.
Théorème 123. Formule d’Itô.
1) Soit X une semi-martingale et f : R ! R de classe C 2 . Alors,
t t
1
ˆ ˆ
f (Xt ) = f (X0 ) + f 0 (Xs ) dXs + f ” (Xs ) dhX, Xis
0 2 0
Remarque. En particulier, f (Xt ) est une semi-martingale et la formule d’Itô donne la décomposition.
(n) (n)
Démonstration. On traite d’abord 1). Soit 0 = t0 < . . . < tn = t une suite de subdivision dont le pas tend vers
0.
n
X1 ⇣ ⌘ ⇣ ⌘
f (Xt ) f (X0 ) = f Xt(n) f Xt(n)
k+1 k
k=0
n
X1 ⇣ ⌘⇣ ⌘ (P)
ˆ t
0
f Xt(n) Xt(n) Xt(n) ! f 0 (Xs ) dXs
k k+1 k
k=0 0
Il reste à voir :
n
X1 ⇣ ⌘2 (P)
ˆ t
f ”n,k Xt(n) Xt(n) ! f ” (Xs ) dhX, Xis
k+1 k
k=0 0
Définissons pour m n,
m
X1 X ⇣ ⌘2
Im,n := f ”m,k Xt(n) Xt(n)
l+1 l
k=0 l:tk
(m)
tl
(n) (m)
<tk+1
On a : ˆ t ˆ t
(P) (P)
Im,n ! hm (s) dhX, Xis ! f ” (Xs ) dhX, Xis
n!1 0 m!1 0
(m) (m)
où hm (s) = f ”m,k si tk s < tk+1 . En effet, presque sûrement, on a hm (s) ! f ” (Xs ) uniformément sur [0, t]
car presque sûrement, sup |Xs | < +1. On souhaite justifier que
48
Reste à montrer (6) :
n
X1 ⇣ ⌘2 m
X1 X ⇣ ⌘2
f ”n,k Xt(n) Xt(n) f ”m,k Xt(n) Xt(n)
l+1 l l+1 l
l=0 k=0 l:tk
(m) (n)
tl <tk+1
(m)
X1 ⇣
n ⌘2
sup sup |f ”m,k f ”n,k | · Xt(n) Xt(n)
k<ml:t(m) t(n) <t(m) l+1 l
l=0
} | {z }
k l k+1
| {z
ps (P)
!0 ! hX, Xit
n!1
4) Soit F : Rt ⇥ Rx ! R est C , 2
ˆ t ˆ t✓ ◆
@F @F 1 @2F
F (t, Bt ) = F (0, B0 ) + (s, Bs ) dBs + + (s, Bs ) ds
0 @x 0 @t 2 @x2
Si B est un brownien multidimensionnel :
d ˆ
X t ˆ t✓ ◆
@F @F 1
F (t, Bt ) = F (0, B0 ) + (s, Bs ) dBs(i) + + F (s, Bs ) ds
i=1 0 @xi 0 @t 2
49
Remarque. Cela signifie “E ( M ) est solution de dXt = Xt dMt ”
Démonstration. Soit F (x, r) de classe C 2 ,
t ˆ t✓ ◆
@F @F 1 @2F
ˆ
F (Mt , hM, M it ) = F (M0 , 0) + (Ms , hM, M is ) dMs + + (Ms , hM, M is ) dhM, M is
0 @x 0 @f 2 @x2
1 @2F
donc⇣ (F (Mt , hM,
⌘ M it ))t est une martingale locale dès que
@F
@r + 2 @x2 = 0. Cela est bien vérifié pour F (x, r) =
2
exp x 2 r et on a bien la formule annoncée.
Autrement dit : !
2
|⇠|
E [exp (i⇠. (Xt Xs )) | Fs ] = exp (t s)
2
On a que (Xt Xs ) ⇠ N (0, s) et est indépendant de Fs . En effet, soit A 2 Fs tel que P (A) > 0 :
!
2
|⇠|
E [exp (i⇠ (Xt Xs )) | A] = exp (t s)
2
Sous P (· | A), (Xt Xs ) ⇠ N (0, t s) donc E [f (Xt Xs ) | A] = E [f (Xt Xs )]. E [1A f (Xt Xs )] = P (A) E [f (Xt Xs )].
On a bien (Xt Xs ) indépendant de Fs ie c’est un processus continu.
Remarque. Dans la preuve précédente x.y représente le produit scalaire usuel de x et y dans Rd .
Théorème 128. Inégalité de Burkholder-Davis-Gundy.
Soit M une martingale locale issue de 0 et soit Mt⇤ := sup |Ms |. Soit p > 0. Il existe cp et Cp indépendantes de
st
M telles que h p i h p i
p
cp E hM, M i1
2
E [|Mt⇤ | ] Cp E hM, M i1
2
Démonstration. (partielle) On montre d’abord la 1ère inégalité pour p 2. on peut supposer M bornée. Sinon, on
pose Tn = inf {t 0, |Mt | n} appliquer le résultat à M Tn et passer à la limite grâce au théorème de convergence
monotone. On applique la formule d’Itô :
ˆ t
1
ˆ
p p 1 p 2
|Mt | = p |Ms | dMs signe (Ms ) dMs + p (p 1) |Ms | dhM, M is
2 0
50
ˆ ·
p 1
M est bornée donc M 2 H et p |Ms | signe (Ms ) dMs est une martingale. Donc
0
ˆ t
p p (p 1) p 2
E [|Mt | ] = 0+ E |Ms | dhM, M is
2 0
p (p 1) h ⇤ p 2
i
E (Mt ) hM, M it
2
Hölder p (p 1) p h p ip
2
p 1
E [|Mt⇤ | ] 2
E hM, M it2
2
Par Doob :
p p
E [|Mt⇤ | ] Cp E [|Mt | ]
p h p ip
2
p 1
Cp0 E [|Mt⇤ | ] 2
E hM, M it2
0 1
"ˆ p #
h pi t 2
B p C
E hM, M it2 Cp @E [|Mt | ] + E Ms dMs A
0
| {z }
"ˆ ˜ p #
t 4
Cp E Ms2 dhM, M is
0
⇣ p
hp i⌘
p
Cp E [|Mt⇤ | ] + E |Mt⇤ | 2 hM, M it4
✓ h 1◆
CS 1 p i2
⇤ p ⇤ p 2
Cp E [|Mt | ] + E [|Mt | ] E hM, M it 2
Or x2 Cp y 2 + xy =) 9C, x C.y.
Théorème 129. Girsanov. Soit L une martingale locale issue de 0 et
✓ ◆
1
E (L) = exp L hL, Li
2
On suppose que E (L) est une martingale uniformément intégrable ( =) E [E (L)1 ] = 1). On pose,
dQ = E (L)1 dP
Si M est une P-martingale locale alors M hM, Li est une Q- martingale locale.
Démonstration. On note E = E (L) et F l’espérance par rapport à Q.
T
Première étape : si X est un processus adapté continu et T un temps d’arrêt tel que (XE ) est une P-martingale,
alors X est une Q-martingale.
T
a.
F [|Xt^T |] = E [|Xt^T | E1 ]
= E [|Xt^T | Et^T ]
= E [|(XE )t^T |] < +1
b. Soit A 2 Fs et s < t, On a
⇥ ⇤ ⇥ ⇤
F 1A\{T s} Xt^T = F 1A\{T s} Xs^T
51
De plus,
⇥ ⇤ ⇥ ⇤
F 1A\{T >s} Xt^T = E 1A\{T >s} Xt^T E1
⇥ ⇤
= E 1A\{T >s} Xt^T Et^T
⇥ ⇤
= E 1A\{T >s} Xs^T Et^T
⇥ ⇤
= E 1A\{T >s} Xs^T E1
⇥ ⇤
= F 1A\{T >s} Xs^T
F [Xt^T | Fs ] = Xs^T
Etape 2 : Soit M une P-martingale locale et soit M̃ = M hM, Li. On veut vérifier que M̃ E est une P-martingale
locale (cf étape 1). Par la formule d’Itô,
ˆ ˆ t ˆ t
M̃t Et = M̃0 E0 + M̃s dEs + Es dMs Es dhM, Lis + hM, E it
0 0
´t
On veut que 0 Es dhM, Lis hM, E it = 0 ! On va vérifier que hM, N i = E 1 · hM, E i.
´t
Etape 3 : Lt = 0 Es 1 dE s . En effet, Et > 0pour tout t et continu donc on peut appliquer la formule d’Itô
“généralisée” évoquée dans la remarque 124 :
ˆ t
dEs 1 t dhE , E is
ˆ
log (Et ) = log (E0 ) +
0 Es 2 0 Es2
1
= 0 + Lt hL, Lit
2
Par égalité des parties “martingales locales”, on a bien
t
dEs
ˆ
Lt =
0 Es
donc L = E 1
· E et hM, E 1
·Ei = E 1
· hM, E i.
Remarque. Pour utiliser le théorème, il faut pouvoir vérifier que E (L) est une martingale uniformément intégrable.
E (L) martingale locale 0 donc surmartingale 0 sont converge vers E (L)1 . Par le lemme de Fatou
E [E (L)1 | Ft ] E (L)t
Si E [E (L)1 ] = 1 = E [E (L)0 ] = E [E (L)t ]. Alors, on a E [E (L)1 | Ft ] = E (L)t et donc (E (L)t ) est une martingale
uniformément intégrable. En résumé, il suffit de vérifier que E [E (L)1 ] = 1 pour assurer que E (L) est une martingale
uniformément intégrable.
Proposition
⇥ 130. Soit ⇤L une martingale locale issue de 0. Considérons les propriétés :
i) E exp 12 hL, Li1 < +1 ⇥ ⇤
ii) L est une martingale uniformément intégrable et E exp 12 L1 < +1
iii) E (L) est une martingale uniformément intégrable.
On a 1) =) 2) =) 3)
Démonstration. “1) =) 2)” On a E [hL, Li1 ] < 1 donc L est une martingale bornée dans L2 donc uniformément
1 1
intégrable. exp 1
2 L1 = E (L)1
2
exp 12 hL, Li1 2 par Cauchy-Schwarz.
✓ ◆ ✓ ◆
1 1 1
E exp L1 E [E (L)1 ] 2 E exp hL, Li1
2 2
✓ ◆
1
E exp hL, Li1
2
< +1
52
“2) =) 3)” On suppose que L est une martingale uniformément intégrable donc pour tout temps d’arrêt,
LT = E [L1 | FT ]. Par Jensen,
✓ ◆ ✓ ◆
1 1
exp LT E exp L1 | FT
2 2
⇥ ⇤ (a)
E exp ⌘ < +1 donc exp , T temps d’arrêt est uniformément intégrable. Soit 0 < a < 1 et Zt
1 1
⇣ 2 L1 2 LT =
a
exp 1+a Lt .
a2
E (aL)t = E (L)t exp a a2 Lt
⇣ ⌘1 a 2
a2 (a)
= E (L)t Zt
1 = E [E (aL)1 ]
✓ ◆ 1 a2
Hölder a2 a
E [E (L)1 ] · E exp L1
| {z } 1+a
| {z }
! E [E (L)1 ] !1
a!1 a!1
On a bien E [E (L)1 ] = 1.
2
Corollaire 131. Soit b : R+ ⇥ R ! R et telle que sup |b (t, x)| dt < +1. Soit B un mouvement brownien et
´
x
´t
Lt = 0 b (s, Bs ) dBs .
✓ˆ t ◆
1 t 2
ˆ
E (L)t = exp b (s, Bs ) dBs b (s, Bs ) ds
0 2 0
(E (L)t )t est une martingale uniformément intégrable. Soit dQ = E (L)1 dP. Alors,
t = Bt hB, Lit
ˆ t
= Bt b (s, Bs ) ds
0
h , it hB, Bit = t
53
´ +1 ´t
Si b ne dépend pas de x : b (t, x) = g (t) avec 0 g 2 (t) dt < 1. Posons h (t) = 0 g (s) ds. h 2 H 1 . Sous
´1 1
dQ = exp 0 g (s) dBs 12 0 g 2 (s) ds dP, le processus t = Bt h (t) est un mouvement brownien sous Q.
´
Autrement, dit, si est une fonction mesurable positive sur C (R+ , R), alors
⇣ ⇣ ⌘⌘
F (Bt )t 0 = F [ ( + h)]
✓ˆ +1 ˆ +1 ◆
1
, E [ (B)] exp g (s) dBS g 2 (s) ds = E [ (B + h)]
0 2 0
Pour h de la forme choisie, on a donc que la loi de B + h est absolument continue par rapport à la loi de B avec
une densité explicite. En fait, cette propriété d’absolue continuité implique aussi que h est de la forme donnée (cf.
Théorème de Cameron-Martin).
Conséquence : Loi du temps d’atteinte d’une droite par le brownien.
Soit B un brownien, a >⇣ 0 et ⌘Ta = inf {t 0, Bt = a}. Soit c 2 R et Sa = inf {t 0, Bt = a ct}. La loi de
a2
´s ´s
Ta a pour densité p2⇡s
a
3
exp 2s 1{s 0} . Soit (w) 1⇢ et h (s) = 0 c1{ut} du =: 0 g (u) du. On a bien
maxw a
[0,t]
´ +1 2
0
g (u) du < 1.
P (Sa t) = E [ (B + h)]
✓ˆ +1 ◆
1 +1 2
ˆ
= E (B) exp g (s) dBs g (s) ds
0 2
2 3 0
✓ ◆
1 2 5
= E 41{Ta t} exp cBt c t
| {z } 2
| {z }
FTa -mesurable martingale
✓ ◆
c2
= E 1{Ta t} exp cBTa ^t (Ta ^ t)
2
✓ 2
◆
c
= E 1{Ta t} exp ac Ta
2
ˆ t ✓ 2 ◆
a a c2
= p exp + ac s ds
0 2⇡s3 2s 2
ˆ t ✓ ◆
a 1 2
= p exp (a cs) ds
0 2⇡s 3 2s
| {z }
densité de la loi de Sa
54
Si 0 = 0, Xt = x.exp⇣(b0 t). ⌘ 2
Si b0 = 0, Xt = x.exp 2 t 0 Bt
0
⇣ ⇣ 2
⌘⌘
On peut espérer que Xt = x.exp 0 Bt + b0 2
0
t . Dans ce cas, la formule d’Itô donne :
t ˆ t✓ 2
◆ t
1
ˆ ˆ
0 2
Xt = x+ 0 Xs dBs + b0 Xs ds + 0 Xs ds
0 0 2 2 0
ˆ t ˆ t
= x+ 0 Xs dBs + b0 Xs ds
0 0
⇣ ⇣ ⇣ 2
⌘⌘⌘
donc x.exp 0 Bt + b0 2
0
t est bien une solution de l’EDS.
t
Xt e b0 t
est une vraie martingale donc E [Xt e
t
t0 t
] = x soit E [Xt ] = xeb0 t .
ps ps
Si 2
0 > b0 , comme Btt ! 0, on a Xt ! 0.
t!1 t!1
On sait que la solution de L’EDO dYt = Yt dt est Yt = Y0 e t . On veut faire une sorte de méthode de variation de
la constante : on pose Zt = et Xt . Alors, par la formule d’Itô :
dZt = et dXt + et Xt dt
= et (dBt Xt dt) + et Xt dt
= et dBt
ˆ t
Zt = x+ es dBs
0
ˆ t
Xt = et x + e (t s) dBs
0
| {z }
✓ ◆
1 2t
⇠ N 0, 1 e
2
ˆ ⇣ q ⌘ y2
donc E [f (Xt )] = f e t x + 12 (1 e 2t )y · ep 2
2⇡
. (Xt )t est appelé le processus de Ornstein-Uhlenbeck.
Lemme 135. Lemme de Gronwall. Soit T > 0 et soit g positive mesurable, bornée sur [0, T ] telle qu’il existe a 0
et b 0 tels que pour tout t T ,
ˆ t
g (t) a + b g (s) ds
0
55
Démonstration. On a
ˆ t
g (t) a+b g (s) ds
0
ˆ t✓ ˆ s1 ◆
a+b a+b g (s2 ) ds2 ds1
0 0
ˆ t ˆ s1 ✓ ˆ s2 ◆
a + abt + b2 ds1 ds2 a + b g (s3 ) ds3
0 0 0
..
.
2 n t sn
(bt) (bt)
ˆ ˆ
a + a (bt) + a + ... + a + bn ds1 . . . dsn+1 g (sn+1 )
2 n! 0 0
2 n n+1
(bt) (bt) t
a + a (bt) + a + ... + a + kgk1 bn
2 n! (n + 1)!
On passe à la limite :
Démonstration. Unicité. Soient X, X 0 deux solutions de l’EDS. Soit ⌧ = min {inf {t 0, |Xt | n} , inf {t 0, |Xt0 | n}}.
Alors,
ˆ t^⌧ ˆ t^⌧
Xt^⌧ = x + (s, Xs ) dBs + b (s, Xs ) ds
0 0
ˆ t^⌧ ˆ t^⌧
0
Xt^⌧ Xt^⌧ = ( (s, Xs ) (s, Xs0 )) dBs + (b (s, Xs ) b (s, Xs0 )) ds
0 0
56
"✓ˆ ◆2 # "✓ˆ ◆2 #
h i t^⌧ t^⌧
0 2
E |Xt^⌧ Xt^⌧ | 2E ( (s, Xs ) (s, Xs0 )) dBs + 2E (b (s, Xs ) b (s, Xs0 )) ds
0 0
ˆ "✓ˆ ◆2 #
Itô t^⌧
2
t^⌧
2E ( (s, Xs ) (s, Xs0 )) dhB, Bis + 2E (b (s, Xs ) b (s, Xs0 )) ds
0 0
ˆ "
✓ˆ t^⌧ ◆
t^⌧
2 1
2E ( (s, Xs ) (s, Xs0 )) dhB, Bis + 2 (t ^ ⌧ ) E 0
(b (s, Xs ) b (s, Xs )) ds
0 t^⌧ 0
ˆ " ✓ˆ t^⌧ ◆2 #
t^⌧
2 1
2E ( (s, Xs ) (s, Xs0 )) dhB, Bis + 2t.E 0
(b (s, Xs ) b (s, Xs )) ds
0 t^⌧ 0
ˆ ˆ t^⌧
Jensen t^⌧
2 2
2E ( (s, Xs ) (s, Xs0 )) dhB, Bis + 2t.E (b (s, Xs ) b (s, Xs0 )) ds
0 0
Lipschitz ˆ t^⌧ ˆ t^⌧
2 2
2K 2 .E |Xs Xs0 | ds + 2tK 2 .E |Xs Xs0 | ds
0 0
ˆ t ˆ t
0 2 0 2
2K 2 .E |Xs^⌧ Xs^⌧ | ds + 2tK .E 2
|Xs^⌧ Xs^⌧ | ds
0 0
ˆ t
0 2
2K 2 (1 + t) |Xs^⌧ Xs^⌧ | ds
0
2
donc |Xt^⌧ Xt^⌧0
| = 0 pour tout t. On fait tendre n ! +1 et on obtient Xt = Xt0 pour tout t.
Existence : On utilise la méthode d’itérations de Picard. On construit par récurrence la suite (X n )n : Xt0 = x
´t ´t
et Xtn+1 = x + 0 (s, Xsn ) dBs + 0 b (s, Xsn ) ds. Par récurrence on montre que pour tout n, X n est continu est
adapté. On construit une solution sur [0, T ]. Voyons d’abord qu’il existe Cn tel que
h i
2
supE (Xtn ) Cn
tT
Pour n = 0, c’est clair. Il existe C tel que pour tout t T et pour tout x,
2
⇣ ⌘
2
(t, x) C 1 + |x|
2
⇣ ⌘
2
b (t, x) C 1 + |x|
ˆ t ˆ t
Xtn+1 Xtn = (s, Xsn ) s, Xsn 1 dBs + b (s, Xsn ) b s, Xsn 1
ds
0 0
57
donc
2 !2 3 2 !2 3
ˆ ˆ
gn+1 (t) 2E 4sup (s, Xsn ) s, Xsn 1
dBs 5 + 2E 4sup b (s, Xsn ) b s, Xsn 1
ds 5
t 0 t 0
"✓ˆ 2 !2 3
◆2 #
Doob t ˆ
8E (s, Xsn ) s, Xsn 1
dBs + 2E 4sup b (s, Xsn ) b s, Xsn 1
ds 5
0 t 0
"✓ˆ 2 !2 3
t ◆2 #
1
ˆ
8E (s, Xsn ) s, Xsn 1
dBs + 2E 4sup b (s, Xsn ) b s, Xsn 1
ds 5
0 t 0
"✓ˆ 2 !2 3
t ◆2 #
1
ˆ
8E (s, Xsn ) s, Xsn 1
dBs + 2tE 4sup b (s, Xsn ) b s, Xsn 1
ds 5
0 t 0
"✓ˆ ◆2 # " !#
Jensen t ˆ
2
8E (s, Xsn ) s, Xsn 1 dBs + 2tE sup b (s, Xsn ) b s, Xsn 1 ds
0 t 0
" #
Lipschitz ˆ t ˆ
2
2 2
8K gn (s) ds + 2tK E sup Xsn Xsn 1 ds
0 t 0
ˆ t ˆ t
1 2
8K 2 gn (s) ds + 2tK 2 E Xsn Xsn ds
0 0
Fubini
ˆ t ˆ t h i
2 2 1 2
8K gn (s) ds + 2tK E Xsn Xsn ds
0 0
ˆ t ˆ t
8K 2 gn (s) ds + 2tK 2 gn (s) ds
0 0
ˆ t
2K 2 (4 + t) gn (s) ds
0
ˆ t
CT gn (s) ds
0
+1
X
n 1
On vérifie que supg1 (t) C̃. On peut alors montrer par récurrence que gn (t) C̃ (C T t)
(n 1)! . En particulier, gn (T ) 2 < +1,
tT n=0
+1
X
soit sup Xsn Xsn 1
< +1 presque sûrement. Donc, presque sûrement, la suite (Xsn , s 2 [0, T ])n converge uni-
n=1 sT
formément. Notons X la limite. X est continu et adapté.
1
2
+1
X 1
n 2
E sup |Xs Xs | gk (T ) 2 ! 0
sT n!1
k=n
On a
ˆ t ˆ t
Xtn+1 = x+ (s, Xsn ) dBs + b (s, Xsn ) ds
0 0
´t L2 ´t ´t L2 ´t
Or, 0
(s, Xsn ) dBs ! 0
(s, Xs ) dBs , 0 b (s, Xsn ) dBs ! 0 b (s, Xs ) dBs . Ainsi, pour tout t, on a bien
n!1 n!1
(
dXt = (t, Xt ) dBt + b (t, Xt ) dt
presque sûrement.
X0 = x
Si B et B 0 sont deux browniens (éventuellement sur des espaces de probabilité différents) et si X et X 0 sont
solutions des EDS respectives
( (
dXt = (t, Xt ) dBt + b (t, Xt ) dt dXt0 = (t, Xt0 ) dBt0 + b (t, Xt0 ) dt
et
X0 = x X00 =x
58
Sous les hypothèses du théorème précédent, le couple (X, B) a la même loi que le couple (X 0 , B 0 ). X est une fonction
mesurable de B ! De même X n et X 0n (construits comme dans la preuve précédente) ont la même loi pour tout n.
Si on note (Xtx )t 0 la solution partant de x, il n’est pas évident que x 7! (Xtx )t est continue.
Théorème 137. Soient , b continues, lipschitziennes par rapport à la seconde variable. Alors, il existe Fx :
C (R+ , R) ! C (R+ , R) mesurable telle que
i) w 7! (Fx (w))t est Ft -mesurable
ii) Pour tout w 2 C (R+ , R), l’application x 7! Fx (w) est continue.
iii) Si B est un brownien, la solution de l’EDS
(
dXt = (t, Xt ) dBt + b (t, Xt ) dt
X0 = x
59
y p p
Ainsi, d’après le lemme de Gronwall, il existe C (T, p, K)telle que E sup Xs^T
x
n
Xs^T n
C |x y| . On
sT
p p
obtient le résultat annoncé en passant à la limite n ! 1. Pour montrer E sup |Xtx | C |x| , on procède de la
tT
même manière.
Attention ! Le dernier résultat n’est pas une conséquence du premier avec y = 0 !
⇣ ⌘
Définition 139. On dit que X̃ est une modification de X si pour tout t, P Xt = X̃t = 1.
Définition 140. On dit qu’une fonction est ↵-Hölder si et seulement si il existe C telle que pour tout x, y ,
↵
|f (x) f (y)| C |x y| .
Théorème 141. Critère de continuité de Kolmogorov. Soit I ⇢ R intervalle borné et X = (Xt )t2I une famille de
de variable aléatoire à valeurs dans un espace métrique (E, d) complet. S’il existe q, ", C > 0 telles que, pour tout
q 1+"
s, t 2 I, E [d (Xs , Xt ) ] C |t s| , alors il existe une modification X̃ de X telle que X̃ est presque sûrement
↵-Hölder pour tout ↵ < q . En particulier, X̃ est continu.
"
Tchebytchev C 1+"
P (d (Xs , Xt ) a) |t s|
aq
Si on prend ↵ < q" ,
⇣ ⇣ ⌘ ⌘
n↵
P d X 2in , X i+1
n
2 C2n↵q 2 n(1+")
2
2n
!
[1 n ⇣ ⌘ o
n↵ n(" ↵q)
P d X 2in , X i+1
n
2 C
2
i=0
↵
d (Xs , Xt ) K̃ |t s|
avec K̃ < +1 presque sûrement. En particulier, X est uniformément continu sur d. E est complet donc on peut
étendre X par continuité de manière unique. On pose X̃ cette extension. Alors,
X̃ est ↵-Hölder
q
X̃ est une modification de X. En effet, pour tout t 2 D, X̃t = Xt et on a E [d (Xs , Xt ) ] ! 0. X̃s =
s!t, s2D
(P) ps
Xs ! Xt et X̃s est continu donc X̃s ! X̃t donc Xt = X̃t presque sûrement.
s!t, s2D s!t, s2D
Lemme 142. Si f est telle que pour tout n et pour tout i < 2n ,
✓ ✓ ◆ ✓ ◆◆
i i+1 n↵
d f , f K2
2n 2n
↵
Alors, pour tout s, t 2 D = {dyadiques}, d (f (s) , f (t)) CK |t s| .
Remarque. On a montré
p p
E sup |Xsx Xsy | C |x y|
st
60
On veut utiliser le critère de continuité de Kolomogorov. On munit C (R+ , R) de la topologie de la convergence
uniforme sur tout compact :
X ✓ ◆
0 0
d (w, w ) = ↵k sup |w (s) w (s)| ^ 1
sk
P
avec ↵k > 0 et ↵k < +1.
⇣X ⌘p
x y p
Jensen 1 X p
E [d (X , X ) ] ↵k ↵k E sup |Xsx Xsy |
sk
p
C |x y|
pourvu
⇣ ⌘ qu’on choisisse ↵k & 0 assez vite. Le théorème d’extension de Kolmogorov assure qu’il existe X̃ =
X̃tx modification de X pour tout x et tel que x 7! X̃ x est ↵-Hölder pour tout ↵ < 1 p1 .
x2R,t 0
Théorème 143. Supposons (t, x) = (x) et b (t, x) = b (x) lipschitziennes et (Xtx )t solution de l’EDS
(
dXt = (t, Xt ) dBt + b (t, Xt ) dt
X0 = x
Alors, (Xtx )t est un processus de Markov dont le semi-groupe d’évolution est donné par Pt f (x) = E [f (Xtx )].
Démonstration. Soit f mesurable bornée sur Rd . On veut voir que E [f (Xt+s ) | Fs ] = P f (Xs ).
ˆ t+s ˆ t+s
Xt+s = Xs + (Xu ) dBu + b (Xu ) du
s s
On pose Xu0 = Xs+u , Fu0 = Fs+u et Bu0 = Bs+u Bs (mouvement brownien). X 0 et B 0 sont (Fu0 )u 0 -adaptés et
ˆ t ˆ t
Xt0 = Xs + (Xu0 ) dBu0 + b (Xu0 ) du
0 0
E [f (Xt+s ) | Fs ] = E [f (Xt ) | Fs ]
= E [f (FXs (B 0 )t ) | Fs ]
ˆ
= f (FXs (w)t ) dWiener (w)
= Pt f (Xs )
donc
⇥ x
⇤
Pt+s f (x) = E f Xt+s
⇥ ⇥ x
⇤ ⇤
= E E f Xt+s | Fs
= E [Pt f (Xsx )] = Ps Pt f (x)
Théorème 144. Sous le mêmes conditions, le processus est de Feller. De plus, son générateur infinitésimal L
satisfait : Cc2 (R) ⇢ D (L ) et pour f 2 Cc2 (R),
1
L f (x) = 2
(x) f ” (x) + b (x) f 0 (x)
2
61
Démonstration. On suppose , b bornés pour simplifier. Si f 2 C0 (R), on doit voir Pt f 2 C0 (R). La continuité est
OK car x 7! Fx (w) est continue. Il faut aussi voir que |Pt f (x)| ! 0
|x|!+1
ˆ t ˆ t
Xtx = x+ (Xsx ) dBs + b (Xsx ) ds
0 0
h i
2
E (Xtx x) C t + t2
⇥ ⇤
Pt f (x) = E f Xt2
Pour finir, un exemple où on a unicité en loi de la solution d’une EDS mais pas unicité presque sûrement :
( ˆ t
1 si x 0
Exemple 145. Soit (x) = et W un brownien. Alors Bt = (Ws ) dWs définit un mouvement
1 si x < 0 0
´t ´t
brownien car hB, Bit = t. Alors Wt = 0 (Ws ) dBs et Wt = 0 ( Ws ) dBs .
Références
[1] Durrett. Probability theory and examples.
[2] Revuz, Yor. Continuous martingales and brownian motions.
[3] Kanatsaz, Shieve. Brownian motions and stochastic calculus.
[4] Le Gall. Mouvements browniens, martingales et calcul stochastiques.
62