Sunteți pe pagina 1din 62

Processus stochastiques

17 décembre 2014

Cours donné par Jean-Christophe Mourrat (ENS Lyon)


http ://perso.ens-lyon.fr/jean-christophe.mourrat/index/html

Script rédigé par Nils Caillerie (UCBL)


http ://math.univ-lyon1.fr/~caillerie/

1
Table des matières
1 Mouvement brownien 3
1.1 Vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Une construction du mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Construction rigoureuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Propriétés du mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 L’espace de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5 Filtration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6 Propriété de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6.1 Propriété de Markov faible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6.2 Temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.6.3 Propriété de Markov forte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6.4 Principe de réflexion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.6.5 Zéros du brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.6.6 Un contre-exemple pour la propriété de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2 Martingales 14

3 Processus de Markov 20
3.1 Rappels sur les chaînes de Markov sur S fini. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.2 Processus de Feller . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.3 Du processus au générateur infinitésimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.4 Mesures invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.5 Formule de Feynman-Kac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.6 Exemples de processus de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.6.1 Un exemple formel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.6.2 Modèle d’Ising dynamique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.7 Construction et étude du processus de contact . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.7.1 Quelques rappels sur les processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.7.2 Construction graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

4 Variation quadratique 33
4.1 Processus à variation finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.1.1 Fonction à variation finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.1.2 Processus à variation finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.2 Martingale locale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.3 Variation quadratique d’une martingale locale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.4 Semi-martingales continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

5 Intégrale stochastique 41
5.1 Construction de l’intégrale stochastique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.2 Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.3 Quelques applications de la formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

6 Equations différentielles stochastiques 54

2
Dans la suite, on considère (⌦, F, P) un espace de probabilité et on note E l’espérance associée à P.

1 Mouvement brownien
1.1 Vecteurs gaussiens
Définition 1. On dit que X suit une loi gaussienne standard sa loi a pour densité
!
2
1 |x|
p exp
2⇡ 2

On note X ⇠ N m, 2 si X = m + X0 où X0 suit une loi gaussienne standard.


Le vecteur aléatoire X = (X1 , . . . , Xn ) est un vecteur gaussien si pour tout 2 Rn , le processus h , Xi suit une
loi gaussienne.
Proposition 2. Soit X = (X1 , . . . , Xn ) un vecteur gaussien tel que E [Xi ] = 0 8i. Soit C = (E [XI XJ ])i,j . On a
⇣X ⌘
i) Var i Xi =
t
C
⇥ iP X ⇤
ii) E e j j
= exp 1 t
2 C
iii) La loi de X est déterminée par C. En particulier, (X1 , . . . , Xn ) sont des variables aléatoires indépendantes
si et seulement si C est diagonale.
(La preuve de ce résultat se trouve dans la littérature standard sur le sujet)
L
Proposition 3. 1) Soit (Xn )n telle que Xn ⇠ N mn , 2
n telle que Xn ! X. Alors,
2
X ⇠ N m,

où m = lim mn et 2
= lim 2
n .
n n
P
2) Si Xn ! X, alors la convergence a lieu dans tous les espaces Lp .
Démonstration. 1) La convergence en loi est équivalente à
⇥ ⇤ ⇥ ⇤ 2
n ⇠2
8⇠ 2 R, E ei⇠Xn ! E ei⇠X = ei⇠mn 2

En prenant le module,
2
n ⇠2
⇥ ⇤
e 2 ! E ei⇠X (continue en ⇠ = 0)
n!1

ceci implique que 2


n converge. Soit 2
la limite.
2
⇠2
⇥ ⇤
ei⇠mn ! e 2 E ei⇠X
n!1

Si on sait a priori que (mn ) est bornée, soient m et m0 deux valeurs d’adhérence. On a, pour tout ⇠ 2 R,
0
ei⇠m = ei⇠m = 1 + i⇠m0 + o (⇠)

et on a m = m0 . Montrons donc que la suite (mn ) est bornée supérieurement. Si on suppose le contraire, on peut
extraire une sous-suite mnk ! +1. On a :
k!1

1
P (Xnk mn k ) =
2

P (X A) limsupP (Xnk A)
k!1
limsupP (Xnk mn k )
k!1
1
2

3
Pour tout A, P (X A) 1
2 . Or, lim P (X A) = 0. De la même manière, on montre que (mn )n est bornée
A!1
inférieurement.
2) Pour tout ✓ 2 R,
⇥ ⇤ ✓2 2
E e✓Xn = e✓mn + 2 n

⇥ ⇤
supE e✓Xn < +1
n
h i
supE e✓|Xn | < +1
n

car e|x|  ex + e x
. En particulier, pour tout q > 0,
q
supE [|Xn | ] < +1
n
q
supE [|Xn X| ] < +1
n

p P
Yn = |Xn X| est tel que Yn ! 0 et Yn est bornée dans L2 donc uniformément intégrable. Donc Yn ! 0 dans
L1 :
p
E [|Xn X| ] ! 0
n!1

1.2 Une construction du mouvement brownien


1.2.1 Définitions
Définition 4. Un processus stochastique est une collection de variable aléatoires indexées par “le temps”, i.e R+
ou un sous-ensemble de R+ .
Un processus stochastiques (X (t))t 0 est à accroissements stationnaires si la loi de X (t + s) X (t) ne dépend
que de s, i.e 8t1 , t2 , s 0,
L
X (t1 + s) X (t1 ) = X (t2 + s) X (t2 )
(X (t)) est à accroissements indépendants si pour tout 0  t0 < t1 < . . . < tn , la famille de variables aléatoires
(X (t1 ) X (t0 ) , . . . , X (tn ) X (tn 1 )) indépendante.
(X (t)) est un processus gaussien si pour tout 0  t0 < . . . < tn , le vecteur (X (t0 ) , . . . , X (tn )) est gaussien.
Exemple 5. Soient ⌧1 , ⌧2 , . . . des variables aléatoires de loi Exp ( ). On pose N (t) = card {k | ⌧1 + . . . + ⌧k  t}.
Alors, N est un processus à accroissements indépendants stationnaires.
Définition 6. On appelle mouvement brownien standard (issu de 0) tout processus stochastique (Bt )t tel que
i) B0 = 0 p.s.
ii) 8s, t 0, Bt+s Bt ⇠ N (0, s).
iii) B est à accroissements indépendants. (
R+ ! R
iv) Il existe A mesurable tel que P (A) et tel que pour tout ! 2 A, la fonction est continue.
t 7! Bt (!)

Remarque 7. Par le théorème d’extension de Kolmogorov, on peut construire un processus stochastique sur RR+ muni
de la topologie produit et qui satisfait i), ii) et iii). L’ensemble {! | t 7! Bt (!) est continue} n’est
( pas mesurable.
Bt si t 6= ⌧
C’est même pire que ça ! Imaginons que B soit un mouvement brownien. Soit ⌧ ⇠ Exp (1) et Bt = .
Bt + 1 si t = ⌧
Alors, Bt n’est pas continu mais il satisfait i), ii) et iii). En effet, pour tout t 0,
P Bt = Bt = P (⌧ 6= t) = 1

même si P 8t 0, Bt = Bt = 0.
Définition 8. Quand on a deux processus Bt t , (Bt )t qui vérifient P Bt = Bt = 1, on dit que B est une
modification de B.
Les propriétés i), ii), iii) concernent seulement les “lois fini-dimensionnelles” : la loi de (Bt1 , . . . , Btn ) est celle de
B t1 , . . . , B tn .

4
1.2.2 Construction rigoureuse
On va construire le mouvement brownien sur [0, 1]. On peut “recoller” ensuite pour l’avoir sur R+ . On choisit
une base orthonormée de L2 [0, 1] (base de Haar). On pose
8
>
<1 si 0  t < 12
H (t) = 1 si 12  t < 1
>
:
0 sinon

Pour n 1 entier, on pose n = 2j + k où 0  k < 2j et


j
Hn (t) = Hj,k (t) = 2 2 H 2j t k

Pour n = 0, H0 (t) = 1. Alors (Hn )n2N est une base orthonormée de L2 ([0, 1]).
Soit (Zn ) une suite de variables aléatoires indépendantes N (0, 1). On pose
X
⇠ (f ) = Zn hHn , f iL2 ([0,1])
n2N

N
X N
X N
X
La variable aléatoire Zn hHn , f i est une gaussienne centrée de variance hHn , f i2 et hHn , f i2 ! kf kL2
N !1
n=0 n=0 n=0
PN 2
donc n=0 Zn hHn , f i converge en norme L2 vers une variable aléatoire gaussienne de variance kf kL2 = ⇠ (f ). On
a envie de poser Bt = ⇠ 1[0,t] , mais pour chaque t, Bt est défini p.s. donc on n’aura pas de sens à la question de
la continuité. On regarde X
Zn hHn , 1[0,t] i (1)
n2N

On va montrer que, sauf sur un ensemble de probabilité nulle, cette série converge uniformément en t.
|Zn |
Lemme. Si (Zn )n est une suite de variables aléatoires indépendantes N (0, 1), alors sup p lnn
< +1 p.s.
n

Démonstration. On a
ˆ +1
1 u2
P (Z1 x) = p e 2 du
2⇡ x
ˆ +1
1 u u2
 p e 2 du
2⇡ x x
1 x2
 p e 2
x 2⇡
x2
Si x 1, P (|Z1 | x)  p2 e
2⇡
2 .
⇣ p ⌘ 2
P Zn 2 lnn  p exp (2lnn)
2⇡
2 1
 p · 2
2⇡ n

qui est sommable. Il suffit ensuite d’appliquer le lemme d Borel-Cantelli.


Retour à la construction :

ˆ t
hHj,k , 1[0,t] i = Hj,k (s) ds
0
ˆ t
j
= 2 2 H 2j s k ds
0
j
 2 2 1{t2[ k , k+1 [}
2 2

5
Montrons maintenant que la série (1) converge uniformément pour tout ! tel que C (!) := sup |Zpnlnn
(!)|
< +1. On
rappelle que n = 2 + k  2
j j+1
et donc lnn  C (j + 1).
j j
+1 2X1
X +1 2X1
X p j
Zn (!) hHn , 1[0,t]  C (!) · C j+1·2 2 1{t2[ k , k+1 [}
2j 2j
j=J k=0 j=J k=0
+1
X p j
 C · C (!) ⇥ j + 12 2

j=J

aussi petit que voulu, uniformément en t. Conclusion : pour tout ! tel que C (!) < +1, la série (1) converge
uniformément. On note t 7! Bt la limite (continue !). il reste à vérifier les propriétés i), ii) et iii) :
i) B0 = 0 p.s : évident
ii) On veut vérifier Bt+s Bt ⇠ N (0, s) :

Bt+s = ⇠ 1[0,t+s]
(
L2 ([0, 1]) ! L2 (⌦, F, P)
et est une isométrie.
f 7! ⇠ (f )

Bt+s Bt = ⇠ 1[0,t+s] 1[0,t]


h i
2
E (Bt+s Bt ) = s

Par ailleurs, ⇠ (f ) est gaussienne pour tout f 2 L2 ([0, 1]), ce qui démontre ii)
iii) Montrons que les accroissements sont indépendants. Soit 0  t0 < . . . < tn . On veut montrer Bt1 Bt0 , . . . , Btn B tn 1

est indépendante. Bt1 Bt0 , . . . , Btn Btn 1 est un vecteur gaussien. Toute combinaison linéaire est ⇠ (f ) donc
une gaussienne. Il suffit alors de voir que, pour tout i 6= j,
⇥ ⇤
E Bti+1 Bti Btj+1 Btj = 0

⇥ ⇤
E ⇠ 1]ti ,ti+1 ] · ⇠ 1]tj ,tj+1 ] = E [⇠ (f ) ⇠ (g)]
= hf, giL2
= 0

par isométrie.

1.3 Propriétés du mouvement brownien


⇥ ⇤
Théorème 9. Théorème limite centrale. Soient X1 , X2 , . . . des variables aléatoires iid E [X1 ] = 0, E X12 = 1. Soit
bt/"c
p X
S" (t) = " Xk . Alors,
k=0
L
S" ! B
où B est un mouvement brownien standard au sens des lois fini-dimensionnelles : pour tout t1 , . . . , tn ,
L
(S" (t1 ) , . . . , S" (tn )) ! (Bt1 , . . . , Btn ) .

Proposition 10. Soit (Xt )t 0 un processus stochastique. Il y a équivalence entre :


a) X est à accroissements indépendants stationnaires et Xt ⇠ N (0, t) pour tout t 0
b) X est un processus gaussien tel que pour tout t, s, E [Xt ] = 0 et E [Xs Xt ] = s ^ t.
Démonstration. On procède par double inclusion
“a)b”
E [Xt ] = 0 OK.

6
Mettons que s < t,
⇥ ⇤
E [Xs Xt ] = E [Xs (Xt Xs )] + E Xs2
⇥ ⇤
= E [(Xs X0 ) (Xt Xs )] + E Xs2
= 0+s=s=s^t
P
Il reste à voir que X est un processus gaussien.
P Soient P 1 , . . . , n 2 R, 0  t1 < . . . < tn . On veut voir que i Xti
est gaussienne.
P Par sommation par parties, i X t i
= µ i X t i
X t i 1
(gaussiennes indépendantes) où on pose
t0 = 0 donc i Xti est gaussienne.
“b)a”
On a bien X0 = 0 p.s.
h i ⇥ 2 ⇤ ⇥ ⇤
2
E (Xt+s Xt ) = E Xt+s + E Xt2 2E [Xt Xt+s ]
= s

Xt+s Xt gaussienne centrée de variance s. on a bien Xs ⇠ N (0, s) et accroissements stationnaires. Reste à voir
que les accroissements sont indépendants. Soit 0  t0 < t1 < . . . < tn . Xt1 Xt0 , . . . , Xtn Xtn 1 est un vecteur
gaussien. il suffit donc de voir que pour tout i 6= j, (disons i < j),
⇥ ⇤
E Xti+1 Xti Xtj+1 Xtj = ti+1 ti+1 ti + ti = 0

Théorème 11. Soit Bt un mouvement brownien standard. Les processus suivants sont aussi des mouvements
browniens standards :
1) X1 (t) = Bt+s Bs avec s 0 fixé
2) X2 (t) = Bt
3) X3 (t) = p1C BCt avec C > 0 fixé
(
t · B 1t si t > 0
4) X4 (t) =
0 si t = 0

Démonstration. Pour les trois premiers processus, la preuve est laissée en exercice.
Pour X4 :
C’est un processus gaussien et il est continu sauf peut-être en 0. On montre
h i
E [X4 (s) X4 (t)] = E st · B 1s · B 1t
st
= =s^t
s_t
Il reste à voir la continuité en 0. Comme B est continu :
n o ⇢
1 1
! | lim Bt = 0 = \ [ ! | 8t 2 Q \ 0, , Bt (!) 
t!0 m2n n2N n m

n o ⇢
1 1
! | lim X4 (t) = 0 = \ [ ! | 8t 2 Q \ 0, , X4 (t) 
t!0 m2N n2N n m
⇣ ⌘ ⇣ ⌘
Donc P limX4 (t) = 0 = P limBt = 0 = 1 car les lois fini-dimensionnelles de X4 et B coïncident. on a bien la
0 0
continuité en 0.

Conséquence : lim t · B 1t = 0 p.s. et lim Bt


= 0 presque sûrement par la loi des grands nombres. Soit Bn =
t!0 t!+1 t
n
X1
(Bk+1 Bk ). Par le théorème limite centrale et la loi du 0-1, on peut montrer
k=0

Bn
limsup p = +1 p.s.
n!1 n

7
et
Bn
liminf p = 1 p.s.
n!1 n
t · B1
limsup p t = +1 p.s.
t!1 t
Bt
limsup p = +1 p.s.
t!0 t
Bt
liminf p = 1 p.s.
t!0 t
En particulier, B change de signe une infinité de fois sur tout intervalle [0, "], " > 0. Presque sûrement, t 7! Bt n’est
pas dérivable en 0.

Définition 12. Soient B (1) , . . . , B (d) d mouvements browniens standards indépendants. On dit que B = B (1) , . . . , B (d)
est un mouvement brownien standard d-dimensionnel.

1.4 L’espace de Wiener


Soit C = C (R+ , R) l’espace des fonctions continues de R+ dans R muni de la topologie de la convergence
uniforme sur tout compact. Soit C la tribu des boréliens sur C.
Proposition
( 13. La tribu C coïncide avec B, la plus petite tribu qui rend mesurable les applications coordonnées
C !R
.
x 7! x (t)

Démonstration. Les applications coordonnées sont continues sur C donc B ⇢ C . Pour l’autre inclusion, notons que
la topologie est métrisable par la distance
+1
X ✓ ◆
n
d (x, y) = 2 1 ^ sup |x (t) y (t)|
n=0 0tn

L’espace C est séparable (par exemple les polynômes à coefficients rationnelles forment une base dénombrable
dense). Tout ouvert est donc union dénombrable de boules. Il suffit de montrer que toute boule est dans la tribu
B. Il suffit donc de voir que 8y 2 C, l’application x 7! d (x, y) est mesurable pour la tribu B. On constate que
+1
!
X
n
d (x, y) = 2 1 ^ sup |x (t) y (t)|
n=0 t2Q\[0,n]

qui est B-mesurable.

Conséquence 1 : si P et P sont deux mesures de probabilité sur C qui ont les mêmes marginales fini-dimensionnelles
(i.e. P ({x | x (t1 ) 2 A1 , . . . , x (tn ) 2 An }) = P ({x | x (t1 ) 2 A1 , . . . , x (tn ) 2 An }) pour tout A1 , . . . , An 2 B et tout
t1  . . .  tn ) alors P = P , par le lemme des classes monotones.
: ⌦ ! C
Conséquence 2 : Soit B un brownien défini sur (⌦, F, P). L’application est mesurable. En
! 7! B (!)
effet, il suffit de vérifier que pour tout t, ! 7! Bt (!) est mesurable, ce qui est clair par définition d’un processus
stochastique. ( (
R⇥⌦ !R R+ ⇥ C ! R
Conséquence 3 : L’application G : est mesurable. En effet, si F est définie par F :
(t, ⌦) 7! Bt (!) (t, x) 7! x (t)
, alors G (t, !) = F (t, (!)).

Définition 14. La mesure de Wiener est la mesure image de P par , autrement dit la loi de B, notée P0 . La
définition a un sens car deux browniens B et(B 0 ont même loi par la conséquence 1. L’espace de Wiener est le triplet
C !C
(C, C , P0 ). L’image de P0 par l’application avec z 2 R est la mesure Pz .
x 7! x + z

8
1.5 Filtration
X: C ! C
On note le processus canonique : pour tout t 0 et pour tout ! 2 C, Xt (!) = ! (t).
! 7 ! !
Définition 15. Une filtration (Ft )t 0 est une famille de tribus croissante pour l’inclusion. On dit que (Ft )t est
continue à droite si pour tout t 0, Ft = \ Fs .
s>t

Une filtration possible sur (C, C ) est (! 7! ! (s) , s  t) =: Ft0 . Or, Ft0 t n’est pas continue à droite. Exemple :
L = limsup p Xt est \ Ft0 -mesurable mais pas F00 -mesurable. car {L = 1} 2 F0 mais {L = 1} 2 / F00 .
t!0 2tlog|logt| t>0
On pose Ft = \ Fs0 : c’est clairement continu à droite.
s>t
⇣ ⌘
Définition 16. L’espace de Wiener filtré est le quadruplet ⌦, F, (Ft )t 0 , (Px )x2R .

1.6 Propriété de Markov


1.6.1 Propriété de Markov faible
(s)
Proposition 17. Pour tout s 0, le processus Xt := Xt+s Xs est un mouvement brownien indépendant de Fs0
sous Px pour tout x .
Démonstration. Sous Px , X est un brownien car il a même loi que B”, un brownien issu de x : en effet, pour tout
(s)
A 2 C , Px X 1 (A) = Px (A) = P Bx 1 (A) . On a déjà vu que cela implique que Xt n est un mouvement brownien.o
(s) (s)
Il reste à justifier l’indépendance. Soient t1 , . . . , tp0 et A1 , . . . , Ap des boréliens de R. Xt1 2 A1 , . . . , Xtp 2 Ap
⇣ ⌘
(s)
est indépendant de (Xu , u  s) = Fs0 . Par le lemme des classes monotones, Xt , t 0 est indépendante de
Fs0 donc X () est indépendante de Fs0 .
Théorème 18. Loi du 0-1 de Blumenthal. F0 est une tribu triviale i.e. pour tout A 2 F0 et pour tout x 2 R,
Px (A) 2 {0, 1}.
Démonstration. Soit A 2 F0 , t1 < . . . < tp et 0 < " < t. La famille Xt1 X" , . . . , Xtp X" est indépendante de
F"0 donc de A. pour tout F continue bornée,
⇥ ⇤ ⇥ ⇤
E 1A F Xt1 X" , . . . , Xtp X" = Px (A) Ex F Xt1 X" , . . . , Xtp X"
Par continuité en 0,
⇥ ⇤ ⇥ ⇤
E 1A F X t 1 x, . . . , Xtp x = Px (A) Ex F Xt1 x, . . . , Xtp x
A est indépendant de ((Xs ) , s 0). A est indépendant de F"0 pour tout " > 0 donc de F 0 = \ F"0 . Ainsi A est
">0
2
indépendant de A d’où Px (A) = Px (A)
Corollaire 19. La propriété de Markov faible reste vraie si on remplace Fs0 par Fs .
⇣ ⌘
(s,0) (s) (s) (s,0) (s)
Démonstration. Soit Ft = Xr , r  t . Ft = \ Ft+" . Par la loi du 0-1, F0 est triviale. De plus :
⇣ ⌘ ">0
(s) (s)
Fs = Fs0 , F0 . X (s) est indépendante de Fs0 par la propriété de Markov. X (s) est indépendante de F0 car
cette tribu est triviale. Donc X (s) est indépendantes de Fs .
Conséquence : la loi du 0-1 assure que L = constante P0 -presque sûrement. Si T = inf {t 0 | Xt > 0},
P (T  t) 12 par symétrie donc P (T = 0) 21 . Par la loi du 0-1, P (T = 0) = 1.
Théorème 20. Soit F 1 = \ (Xs , s t). La tribu F 1 est triviale : pour tout x 2 R, Px (F 1 ) 2 {0, 1}.
t 0

Démonstration. X̃ : t 7! t · X 1t est un brownien sous P0 . On transforme un événement A 2 F 1 en un événement


(
˜ C !C
à 2 F0 . cette tribu est triviale, donc P0 (A) 2 {0, 1}. L’application préserve l’ensemble F1 mais
! 7! ! + x
change P0 en Px . Donc on en déduit le résultat sous Px .
Exercice. Si A 2 F 1 , alors Px (A) ne dépend pas de x.

9
1.6.2 Temps d’arrêt
Définition 21. Une variable aléatoire T : ⌦ ! [0, +1] est un temps d’arrêt si pour tout t 0, l’événement
{T  t} 2 Ft .
Exemple. 1) Un temps d’arrêt constant est un temps d’arrêt. ( )
2) Pour a fixé, Ta = inf {t 0 | Xt = a} est un temps d’arrêt : {Ta  t} = sup Xs a
s2Q\[0,s]

Proposition 22. T est un temps d’arrêt si et seulement si pour tout t 0, {T < t} 2 Ft .


Démonstration. “)” facile
“(” {T  t} = \ {T < t + "} 2 \ Ft+" = Ft par continuité à droite de la filtration.
"<0 ">0

Proposition 23. Soit O un ouvert de R (ou de Rd pour le brownien multi-dimensionnel) et soit T = inf {t 0 | Xt 2 O}.
Alors, T est un temps d’arrêt.
Démonstration. Il suffit de voir {T < t} 2 Ft : {T < t} = [ {Xs 2 O} 2 Ft .
s2Q\[0,t[

Remarque. La démonstration utilise seulement la continuité à droite du processus.

Proposition 24. Soit Tn une suite de temps d’arrêt. Les variables aléatoires suivantes sont des temps d’arrêt :
1) sup Tn
2) inf Tn
3) limsup Tn
4) liminf Tn

Démonstration. 1) {supTn  t} = \ {Tn  t} 2 Ft


n
2) {infTn } = [ {Tn t}
n
3) limsupTn = inf supTk donc c’est bon.
n k n
4) idem
Proposition 25. Soit F un fermé de R (ou de Rd pour le brownien multi-dimensionnel) et soit T = inf {t 0 | Xt 2 F }.
Alors, T est un temps d’arrêt.
Démonstration. Soit On := x | 9y 2 F, |x y| < n1 . On est un ouvert qui contient F . On note Tn le temps
d’atteinte de On . Tn est une suite croissante de temps d’arrêt. Soit S = limTn . Par la propriété précédente, S est
n
un temps d’arrêt. Clairement, Tn  T donc S  T . On veut montrer que S T .
Si S = +1 il n’y a rien à démontrer.
Si S < +1, XTn 2 On ⇢ Om pour n  m. En utilisant la continuité des trajectoires, lim XTn = XS 2 Om
n!1
donc XS 2 \Om = F donc T  S et T est un temps d’arrêt.
m

Remarque. On utilise la continuité à gauche de X. En fait, on a seulement besoin de la quasi-continuité à gauche,


i.e. pour tout Tn et T temps d’arrêt tels que Tn ! T et Tn  T alors XTn ! XT .
Définition 26. On définit la tribu associée au temps d’arrêt T par FT = {A mesurable | {T  t} \ A 2 Ft }.
Définition d’un processus adapté :
Définition 27. Un processus stochastique (Yt )t est dit adapté si pour tout t 0, Yt est Ft -mesurable.

Proposition 28. Soient T, Tn des temps d’arrêt.


1) T est FT -mesurable.
2) si T1  T2 , FT1 ⇢ FT2 .
3) Si Tn & T , alors FT = \ FTn .
n
4) Si (Yt ) est adapté et continu à droite (càd t 7! Tt est presque sûrement continue à droite) alors YT 1{T <1}
est FT -mesurable.

10
Démonstration. 1) On doit vérifier que {T  s} 2 FT pour tout s : {T  s} \ {T  t} = {T  s ^ t} 2 FT .
2) Soient t 0 et A 2 FT1 . A \ {T2  t} = (A \ {T1  t}) \ {T2  t} 2 Ft .
3) Il est clair que FT ⇢ FTn d’où FT ⇢ \ FTn ,
n

A \ {T < t} = [ A \ {Tn < t} 2 Ft


n

A \ {T  t} = \ A \ {T < t + "}
">0
2 \ Ft+" = Ft
">0

4) Si T prend des valeurs dans un ensemble dénombrable {t1 , t2 , . . .} alors avec B borélien,

YT 1{T <1} 2 B \ {T  t} = [ {T = tk , Ytk 2 B} 2 Ft


k, tk t

Supposons T < +1 presque sûrement. on approche T par Tn = k+1


2n si 2n  T <
k k+1
2n avec k entier (autrement
n
dit Tn = b2 2Tnc+1 ). Alors, ⇢
k
{Tn  t} = T < n 2 F kn ⇢ Ft
2 2

si 2kn  t < k+1


2n . On a donc bien que Tn est un temps d’arrêt. Or, Tn & T . Comme Y est continu à droite,
YTn = lim YT , YTn est FTn -mesurable (OK car Tn prend ses valeurs dans un ensemble dénombrable) et Tn  Tm
n!+1
pour n m : FTn ⇢ FTm . YTn est FTm -mesurable. YT est FTm mesurable. Yt est \FTm -mesurable c’est à dire
m
FT -mesurable.
Il reste à voir les cas où T = 1 est autorisé. On peut utiliser le résultat pour T ^ m : YT ^m est FT ^m -mesurable
donc FT -mesurable.
YT 1{T <1} = lim YT ^n 1{T <1} est FT -mesurable.
n!1

1.6.3 Propriété de Markov forte


Théorème 29. Soit T un temps d’arrêt. Sur l’événement {T < 1}, le processus X (T ) défini par
(T )
Xt = (Xt+T XT ) 1{T <+1}

est un mouvement brownien indépendant de FT .


Démonstration. Supposons T < 1 presque sûrement. On va montrer que pour tout A 2 FT , 0  t1 < . . . < tp et
pour tout F continue bornée,
h ⇣ ⌘i ⇥ ⇤
(T ) (T )
E 0 1A F X t 1 , . . . , X t p = P0 (A) E0 F Xt1 , . . . , Xtp

(T )
Si A = ⌦, l’égalité montre que la loi de X (T ) est la loi d’un mouvement brownien (il est clair que t 7! Xt est
continu). L’indépendance suit de l’égalité générale.

⇣ ⌘ +1
X ⇣ ⌘
(T ) (T )
F X t 1 , . . . , X tp = lim 1{ kn T < k+1 } F X kn +t1 X k ,...,X k
+tp X k
n!1 2 2 n 2 2n 2n 2n
k=0

par continuité des trajectoires et de F . Par le théorème de convergence dominée,


h ⇣ ⌘i +1
X h ⇣ ⌘i
(T ) (T )
E 0 1A F X t 1 , . . . , X t p = lim E0 1A\{ k
T < k+1 } F X k
+t1 X k ,...,X k
+tp X k
n!1 2n 2n 2n 2n 2n 2n
k=0

L’événement A \ k
2n T < k+1
2n est dans F k , (A \ T  k
2n est dans F k ⇢ F k+1 ). Par la propriété de Markov
2n 2n 2n
faible, h i ⇥ ⇤
E0 [·] = E0 1A\{ E 0 F Xt1 , . . . , X tp
2n }
T < k+1
k
2n

11
donc
h ⇣ ⌘i +1
X h i ⇥ ⇤
(T ) (T )
E 0 1A F X t 1 , . . . , X t p = lim E0 1A\{ E 0 F X t1 , . . . , X t p
2n }
T < k+1
k
n!1 2n
k=0
⇥ ⇤
= P0 (A) E0 F Xt1 , . . . , Xtp

Si P0 (T = +1) > 0,
h ⇣ ⌘i ⇥ ⇤
(T ) (T )
E0 1A\{T <+1} F Xt1 , . . . , Xtp = P0 (A \ {T < +1}) E0 F Xt1 , . . . , Xtp

(la preuve est identique à la précédente).


Lemme 30. Soit f (·, ·) une fonction mesurable positive, Y G-mesurable, Z est indépendante de G. Alors,

E [f (Y, Z) | G] = g (Y ) p.s.

où g (y) = E [f (y, Z)].


Démonstration. Soit X une variable aléatoire G-mesurable. (X, Y ) et Z sont indépendantes. la loi jointe de (X, Y, Z)
a la forme µ (x, y) ⌦ ⌫ (z). On veut vérifier

E [Xf (Y, Z)] = E [Xg (Y )]

E [Xf (Y, Z)] = xf (y, z) dµ (x, y) d⌫ (z) = x f (y, z) d⌫ (z) dµ (x, y) par Fubini donc E [Xf (Y, Z)] = xg(y)dµ (x, y) =
´ ´ ´ ´

E [Xg (Y )].
On peut donner à la propriété de Markov une reformulation plus adaptée à des processus “moins homogènes”. On
définit les trajectoires temporelles ✓s : C ! C par (✓s !) (t) = ! (t + s). On se place sur l’espace canonique
de Wiener.
Théorème 31. Soit F une variable aléatoire positive sur ⌦ = C et soit T un temps d’arrêt. Pour tout x,

1{T <+1} Ex [F ✓T | FT ] = EXT [F ] 1{T <+1} Px -p.s.

Démonstration. T < +1 presque sûrement.


h ⇣ ⌘ i
Ex [F ✓t | FT ] = Ex F X (T ) + XT | FT

XT est FT -mesurable,
⇥ X (T )est indépendante
(T )
⇤ de FT .
Soit g (y) = Ex F X + y = Ey [F ] car X (T ) a pour loi P0 . Par le lemme, Ex [F ✓T | FT ] = g (XT ) =
EXT [F ].

1.6.4 Principe de réflexion


Soit Mt = sup Xs .
0st

Théorème 32. Principe de réflexion. Soit a > 0 et b < a. Pour tout t > 0,

P0 (Mt a, Xt  b) = P0 (Xt 2a b)

Remarque. Cela décrit complètement la loi jointe (Mt , Xt ).


Démonstration. Soit T = inf {s 0, Xs = a} (on a vu que limsup p
Bt
t
= +1 et liminf p
Bt
t
= 1 P0 -p.s. donc
T < +1 presque sûrement). On pose X t = Xt+T XT = Xt+T a.

P0 (Mt a, Xt  b) = P0 (T  t, Xt  b)
= P0 T  t, X t T b a

12
Par la propriété de Markov forte, T et X sont indépendantes et X est un mouvement brownien issu de 0 donc
X est un brownien issu de 0. T et X sont indépendantes. Donc T, X et T, X ont la même loi. Soit
A = {(s, x) 2 R+ ⇥ C | s  t et xt s  b a}.

P0 T, X 2 A = P0 T, X 2 A
= P0 T  t, Xt T b a
= P0 (T  t, Xt + a  b a)
= P0 (T  t, Xt 2a b)

Or, Xt 2a b ) Xt a ) T  t donc P0 (T  t, Xt  2a b) = P0 (Xt 2a b).


Conséquence 1 : Mt et |Xt | ont la même loi pour tout t fixé.

P (Mt a) = P (Mt a, Xt < a) + P (Mt a, Xt a)

Par le théorème précédent et passage à la limite,

P0 (Mt a, Xt < a) = P (Xt > a)

D’autre part,
P0 (Mt a, Xt a = P0 (Xt a))
donc
P0 (Mt a) = 2P0 (Xt a) = P0 (|Xt | a)
Conséquence 2 :
Exercice. Montrer que (Mt Xt ) et |Xt | ont la même loi pour chaque t fixé (en fait les deux processus ont la
même loi).
Conséquence 3 : Soit T = inf {t 0, Xt = 0}. pour tout x 6= 0,
ˆ t ✓ 2◆
|x| x
Px (T  t) = p exp dz
0 2⇡z 3 2z
En effet,

Px (T  t) = P|x| (T  t)
= P|x| (9s  t, Xs = 0)
= P|x| (9s  t, Xs = 2 |x|)
= P0 (Mt |x|)
= P0 (|Xt | |x|)
= 2P0 (Xt |x|)
ˆ +1
2 y2
= p e 2t dy
2⇡t |x|
q
On pose y = |x| t
z et ça fonctionne.

1.6.5 Zéros du brownien


Proposition 33. Soit Z = {t 0, Xt = 0}. P0 -presque sûrement, l’ensemble Z est parfait (i.e. c’est un fermé tel
que tout point est point d’accumulation de Z).
n
N
Démonstration. Z est fermé car X est continue. Soit Ta = inf {t a, Xt = 0}. Soit A = 9 (tn )n 2 R⇤+ tendant vers 0 | Xtn =
A est l’événement : “0 est un point d’accumulation à droite”. P0 (A) = 1 (déjà vu). Par propriété de Markov forte,

E0 [1A ✓Ta | FTa ] = EXTa [1A ]


= E0 [1]
= 1

13
En particulier, E0 [1A ✓TA ] = 1. {X | ✓Ta X 2 A} = {9tn ! 0, tn>0 ÷mid 8n, XTa +tn = 0}. Presque sûrement, 8a 2
Q+ , Ta est un point d’accumulation à droite. Soit x 2 Z \ U Ta . Alors, 8a 2 Q+ , a < x il existe un x0 2 ]a, x[ \ Z.
a2Q+
Donc x est un point d’accumulation à gauche.
L’ensemble Z a une mesure nulle :
ˆ +1 ˆ +1
E0 1Z (t)dt = E0 [1Z (t)] dt
0 0
ˆ +1
= P0 (Xt = 0) dt
0
= 0

1.6.6 Un contre-exemple pour la propriété de Markov


La propriété de Markov faible n’implique pas la propriété de Markov forte en général. Soit, pour tout x 6= 0, Px
la loi usuelle du brownien partant de x et P0 le dirac sur la trajectoire X = 0. Alors, pour tout s > 0, F mesurable
positive et x,
Ex [F ✓s | Fs ] = EXs [F ] Px -p.s.
C’est vrai :
si x 6= 0 car Xs 6= 0 Px -p.s. (et par la propriété usuelle)
si x = 0 (évident)

On n’a pas la propriété de Markov forte : Soit T = inf {t 0 | Xt = 0}. On n’a pas Ex [F ✓T | FT ] = EXT [F ] car
EXT [F ] = E0 [F ] = F (t 7! 0) 6= Ex [F ✓T | FT ]. Pour avoir Markov faible =) Markov faible, il semble nécessaire
que Pxn ! Px quand xn ! x.

2 Martingales
⇣ ⌘
Tous les résultats sur les martingales à temps discret sont supposés connus. Soit ⌦, F, (Ft )t 0 , P espace de
probabilité muni d’une filtration continue à droite.
Définition 34. Un processus (Mt )t 0 adapté et tel que pour tout t, E [|Mt |] < +1 est :
une martingale si pour tout s, t 0, E [Mt+s | Fs ] = Mt
une sur-martingale si pour tout s, t 0, E [Mt+s | Fs ]  Mt
une sous-martingale si pour tout s, t 0, E [Mt+s | Fs ] Mt
Exemple 35. Soit (Xt )t processus adapté et a accroissements indépendants par rapport à (Ft )t i.e. pour tout
s, t 0, (Xt+s Xt ) est indépendante de Ft . On a :
i) si Xt 2 L1 pour tout t alors Mt = Xt E [X⇥t ] est⇤ une martingale
ii) si Xt 2 L2 pour tout t, alors Mt = Mt2 E Mt2 est une martingale
⇥ ⇤ e Xt
iii) si pour 2 R, E e Xt < +1, alors Nt = E[e Xt ] est une martingale.

Démonstration. i)

E [Xt+s | Ft ] = E [(Xt+s Xt ) + Xt | Ft ]
= Xt + E [Xt+s Xt ]
, E [Mt+s | Ft ] = Xt + E [Xt+s Xt ] E [Xt+s ]
= Mt+s

14
ii)
⇥ 2 ⇤ h i
2
E Mt+s | Ft = E (Mt+s Mt + Mt ) | Ft
h i
2
= E (Mt+s Mt ) | Ft + 2E [Mt+s Mt | Ft ] · Mt + Mt2
h i
2
= E (Mt+s Mt ) + Mt2
⇥ 2 ⇤ ⇥ ⇤
= E Mt+s 2E [Mt+s · Mt ] + E Mt2 + Mt2
⇥ 2 ⇤ ⇥ ⇤
= E Mt+s 2E [E [Mt+s | Ft ] Mt ] + E Mt2 + Mt2
⇥ 2 ⇤ ⇥ ⇤ ⇥ ⇤
= E Mt+s 2E Mt2 + E Mt2 + Mt2
⇥ 2 ⇤ ⇥ ⇤
= E Mt+s E Mt2 + Mt2
⇥ ⇤ ⇥ ⇤
donc E Mt+s | Ft = h E Mt + Mt2 =i Mt 2
h i
E e (Xt+s Xt +Xt ) |Ft E e (Xt+s Xt )
iii) E [Nt+s Ft ] = h i =e Xt h i = Nt
E e (Xt+s Xt +Xt ) E e (Xt+s Xt ) E[e Xt ]

Par exemple
⇣ si ⌘
B est un brownien, t 7! Bt est une martingale (1), t 7! Bt2 t est une martingale (2) et
2
t 7! exp Bt 2 t est une martingale.

Remarque. Les propriétés (1)-(2) caractérisent le mouvement brownien parmi les processus adaptés continues (ca-
ractérisation due à Paul Lévy).
Proposition 36. Soit (Mt )t une martingale et : R ! R convexe telle que E [| (Mt )|] < 1. Alors, ( (Mt ))t 0
est une sous-martingale.
Démonstration. E [ (Mt+s ) | Ft ] (E [Mt+s | Ft ]) = (Mt ).
Jensen
Remarque. La propriété est aussi vraie si M est une sous-martingale et est convexe croissante.
Conséquence : si (Mt ) est une martingale, alors |Mt | , Mt+ sont des sous-martingales. Si Mt 2 Lp pour tout t
p
(p 1) alors (|Mt | )t est une sous-martingale.
Proposition 37. Si (Mt )t est une sous-martingale (resp. une sur-martingale), alors pour tout t 0, supE [|Ms |] <
st
+1.
Démonstration. Il suffit de le voir pour une sous-martingale (si M est une sur–martingale, M est une sous-
martingale). ⇥ ⇤
Soit donc M une sous-martingale. Mt+ t est une sous-martingale. E [Ms+ ]  E Mt+ . (Mt )t est une sous-
martingale donc E [Ms ] E [M0 ]. Or |x| = 2x+ x donc
⇥ ⇤ ⇥ ⇤
E [|Ms |] = 2E Ms+ E [Ms ]  2E Mt+ E [M0 ]

Proposition 38. Soit (Mt )t martingale de carré intégrable. Soit 0  s = t0 < . . . < tp = t. Alors,
" p #
X 2 ⇥ ⇤
E Mti Mti 1 | Fs = E Mt2 Ms2 | Fs
i=1
h i
2
= E (Mt Ms ) | Fs
h i h i ⇥ ⇤
2
En particulier, E Mti+1 Mt i = E Mt2i+1 E Mt2i .
Démonstration.
h i h h i i
2 2
E Mt i Mt i 1
| Fs = E E Mti Mti 1 | Fti 1 | Fs
h ⇥ ⇤ ⇥ ⇤ i
= E E Mt2i | Fti 1 2Mti 1 E Mti | Fti 1 + Mt2i 1
| Fs
⇥ ⇤ h i
= E Mt2i | Fs E Mt2i 1 | Fs

15
Proposition 39. Inégalité maximale. Soit (Xt )t une sur-martingale (resp une sur-martingale) continue à droite.
Pour tout t > 0 et > 0, ✓ ◆
· P sup |Xs | >  E [|X0 |] + 2 · E [|Xt |]
st

Inégalité de Doob. Soit (Xt )t une martingale continue à droite. Pour tout t > 0 et p > 1,
 ✓ ◆p
p p p
E sup |Xs |  E [|Xt | ]
0st p 1

Démonstration. Fixons t > 0 et soit D un sous-ensemble dénombrable dense de [0, t] tel que 0 2 D, t 2 D. On
écritD = [Dm avec Dm fini et Dm ⇢ Dm+1 . Par exemple cardDm = m + 1 et Dm = {tm 0 , . . . , tm } avec t0 = 0 et
m m
m
(m)
m = t. La suite Yn
tm = Xtm
n^m
. Y (m) est une martingale pour la filtration Ftm
n^m n2N
. Par la version discrète de
l’inégalité maximale, !
·P sup Yn(m) >  E [|X0 |] + 2 · E [|Xt |]
n2{0,...,m}
✓ ◆
·P sup |Xs | >  E [|X0 |] + 2 · E [|Xt |]
s2Dm

Par passage à la limite, comme sup |Xs | > est une suite croissante, on a
s2Dm m
✓ ◆
· P sup |Xs | >  E [|X0 |] + 2 · E [|Xt |]
s2D
| {z }
= sup |Xs |
s2[0,t]

Le raisonnement pour Doob est similaire :


 ✓ ◆p
p p p
E sup |Xs |  E [|Xt | ]
s2Dm p 1

Par le théorème de convergence dominée,


 ✓ ◆p
p p p
E sup |Xs |  E [|Xt | ]
s2D p 1

Par continuité à droite, on a le résultat.


Définition 40. Si f = I ! R où I ⇢ R+ , on définit le nombre de montées de X de a à b où a < b comme le plus
grand k 1 tel qu’il existe s1 < t1 < s2 < t2 < . . . < sk < tk tous dans I et tel que Xsi < a, Xti >b pour tout
i 2 {1, . . . , k} (le nombre de montées est égal à 0 s’il n’existe pas de tel k). On le note Uab
X
(I).
Proposition 41. Inégalité du nombre de montées. Soit (Xt )t une sur-martingale continue à droite et soit a < b,
t > 0. Alors,
⇥ X ⇤ 1 h i
E Uab ([0, t])  · E (Xt a)
b a
Démonstration. On reprend Dm défini comme précédemment. Par l’inégalité du nombre de montées discrète,
⇥ X ⇤ 1 h i
E Uab (Dm )  · E (Xt a)
b a
X
Uab (Dm ) converge en croissant vers Uab
X
(D) quand m ! +1.
⇥ X ⇤ 1 h i
E Uab (D)  · E (Xt a)
b a
On conclut par continuité à droite.

16
Théorème 42. Théorème de convergence des martingale presque sûr. Soit X une surmartingale continue à droite
et bornée dans L1 : supE [|Xt |] < 1. Alors, il existe X1 2 L1 tel que Xt ! X1 presque sûrement.
t t!+1

⇤ ⇥ h i
Démonstration. On a vu que pour tout a < b et pour tout t > 0, E Uab
X
([0, t])  1
b a · E (Xt a) . Par le
théorème de convergence monotone,
⇥ X ⇤ 1
E Uab ([0, t])  ·C
b a
avec C = supE [|Xt |] + a < 1. Presque sûrement, pour tout a, b 2 Q, a < b, Uab
X
(R+ ) < +1. Ceci implique
t
Xt ! X1 2 [ 1, +1] (convergence presque sûre). Par le lemme de Fatou,
t!+1

E [|X1 |]  liminf E [|Xt |] < +1


t!+1

Donc X1 2 L1 (en particulier, |X1 | =


6 +1).
Remarque. La condition sup E [|Xt |] < 1 est vérifiée dès que (Xt ) est une sur-martingale positive.
Définition 43. Une famille de variables aléatoires (Xt )t est uniformément intégrable si pour tout " > 0, il existe
m > 0 tel que pour tout t, ⇥ ⇤
E |Xt | 1{|Xt | m}  "
Proposition 44. Soit (Xt )t uniformément intégrable. Alors, pour tout " > 0, il existe > 0 tel que pour tout A
mesurable,
P (A)  =) 8t, E [|Xt | 1A ]  "
⇥ ⇤
Démonstration. Soit m tel que E |Xt | 1{|Xt | m}  ".
⇥ ⇤ ⇥ ⇤
E [|Xt | 1A ]  E |Xt | 1A\{|Xt | m} + E |Xt | 1A\{|Xt |m}
 " + m · P (A)

Il suffit de prendre = "


m pour 2".
Conséquence : Soit Z 2 L1 . Alors, (E [Z | G]) (où G est une sous-tribu de F) est uniformément intégrable.
Démonstration. Soit " > 0. Il existe > 0 tel que pour tout A mesurable, P (A)  =) E [|X| 1A ]  ".

⇥ ⇤ ⇥ ⇤
E |E [Z | G]| 1{|E[Z|G]| m}  E E [|Z| | G] 1{|E[Z|G]| m}
⇥ ⇤
 E |Z| 1{|E[Z|G]| m}

E [|E [Z | G]|]
P (|E [Z | G]| m) 
m
E [|Z|]

m
E[|Z|]
On prends m = et c’est bon.
Définition 45. Une martingale (Xt )t 0 est dite fermée s’il existe Z 2 L1 tel que pour tout t 0, Xt = E [Z | Ft ].
Proposition 46. Soit (Xt ) une martingale continue à droite. il y a équivalence entre :
1) (Xt ) est une martingale fermée
2) Xt converge presque sûrement et dans L1 quand t ! 1.
3) (Xt ) est uniformément intégrable.
Démonstration. 1) =) 3) déjà vu
3) =) 2) par le théorème de convergence, Xt ! X1 p.s. (Xt ) uniformément intégrable =) la convergence a
lieu dans L1 .
L1
2) =) 1 X1 = limXt . Xs = E [Xt | Fs ]. Xt ! X1 dans L1 donc E [Xt | Fs ] ! E [X1 | Fs ] et Xs = E [X1 | Fs ].

17
p.s p.s
Remarque. Il n’est pas vrai que Xt ! X1 implique E [Xt | Fs ] ! E [X1 | Fs ].
ps
Si Xt ! X1 et si T est un temps d’arrêt, on note
XT = 1{T <1} XT + 1{T =1} X1
XT est FT -mesurable.
Théorème 47. Théorème d’arrêt. Soit (Xt ) une martingale continue à droite et uniformément intégrable. Soient
S et T deux temps d’arrêt tels que S  T . Alors, XS et XT sont dans L1 et XS = E [XT | Fs ]. En particulier,
XS = E [X1 | Fs ] et E [XS ] = E [X1 ] = E [X0 ].
Démonstration. On utilise le résultat en temps discret. Soit Sn = ⇣21n d2n⌘Se et Tn = 21n d2n T e . On a Sn & S et
Tn & T . Sn et Tn sont des temps d’arrêt par rapport à la filtration F kn . Par le résultat discret,
2 k

XSn = E [XTn | FSn ]


Soit A 2 Fs . On veut E [1A XS ] = E [1A XT ] car XS est FS mesurable. A 2 FS ⇢ FSn . On a
E [1A XSn ] = E [1A XTn ]
ps ps
On a également XSn ! XS et XTn ! XT par continuité à droite. Toujours par le résultat discret, XSn E [X1 | FSn ]
L1 L1
donc XSn est uniformément intégrable. Donc XSn ! XS . De même, XTn ! XT . On a donc XS , XT 2 L1 et pour
tout A 2 Fs , E [1A XS ] = E [1A XT ] i.e XS = E [XT | FS ].
Remarque. On peut montrer un résultat analogue : si Xt est une surmartingale fermée par X1 ie pour tout t 0,
Xt E [X1 | Ft ] et si S  T alors XS E [Xt | Fs ].
Proposition 48. Soit (Xt ) une martingale continue à droite et S  T des temps d’arrêt bornés presque sûrement
alors XS , XT 2 L1 et XS = E [XT | FS ].
Démonstration. Soit m tel que T  m presque sûrement. (Xt^m )t est une martingale fermée par Xm . Il suffit
’appliquer le théorème d’arrêt à cette martingale.
Remarque. De même, si (Xt ) est une surmartingale continue à droite et S  T temps d’arrêt bornés alors XS
E [XT | Fs ].
Proposition 49. Soit (Xt )t 0 une martingale continue à droite et T un temps d’arrêt. Alors,
1) (Xt^T )t 0 est une martingale
2) Si (Xt )t est uniformément intégrable, alors (Xt^T )t est uniformément intégrable et pour tout t 0, E [Xt | Ft ] =
Xt^T .
Démonstration. On commence par montrer 2). On sait déjà XT 2 L1 et Xt^T = E [Xt | Ft^T ] par le théorème
d’arrêt. XT est FT -mesurable. XT 1{T t} est Ft -mesurable et aussi FT -mesurable donc aussi FT ^t -mesurbale.
⇥ ⇤ ⇥ ⇤
E XT 1{T t} | Ft^T = XT 1{T t} = E XT 1{T t} | Ft
Il reste à voir : ⇥ ⇤ ⇥ ⇤
E XT 1{T >t} | Ft^T = E XT 1{T >t} | Ft
Soit A 2 Ft . A \ {T > t} 2 FT . On a aussi A \ {T > t} 2 Ft donc dans Ft^T .
⇥ ⇤ ⇥ ⇤
E 1A XT 1{T >t} = E 1A\{T >t} E [XT | Ft^T ]
⇥ ⇥ ⇤⇤
= E 1A E XT 1{T >t} | Ft^T
⇥ ⇤ ⇥ ⇤ ⇥ ⇤
Or, E XT 1{T >t} | Ft^T est Ft mesurable donc on a bien E XT 1{T >t} | Ft = E XT 1{T >t} | Ft^T . En résumé,
Xt^T = E [Xt | Ft^T ] = E [XT | Ft ]
donc (Xt^T )t est une martingale fermée donc uniformément intégrable.
Pour montrer 1), on observe que pour tout t0 0 fixé, (Xt^t0 )t est une martingale fermée (par Xt0 ). Donc
(Xt^tà ^T )t 0 es une martingale. Si t  t0 ,
Xt^T = E [Xt0 ^T | Ft ]
donc (Xt^T )t 0 est une martingale.

18
Exemple 50. 1) T = inf {t 0 | Bt = 0} pour le brownien partant de 1. (Bt^T )t est une martingale positive.
ps
Bt^T ! 0. Mais on a pas de convergence dans L1 , pas uniformément intégrable, pas fermée etc...
2) Soit B un brownien issu de 0 et soit a < 0 < b, Ta = inf {t 0 | Bt = a} Tb = inf {t 0 | Bt = b}. T =
Ta ^ Tb < 1 presque sûrement. On a :
b
P0 (Ta < Tb ) =
b a
et
a
P0 (Tb < Ta ) =
b a
en effet, soit Mt = Bt^T martingale bornée donc uniformément intégrable.

0 = E [M0 ] = E [MT ] = E [BT ] = P (Ta < Tb ) a + P (Tb < Ta ) b

3) T = inf {t 0 | |Bt | = 1}. Mt = Bt2 t est une martingale. Soit n > 0, (Mt^T ^n )t 0 martingale bornée.

0 = E [M0 ] = E [MT ^n ]
⇥ ⇤
E BT2 ^n = E [T ^ n]
d’où, par convergence dominée et convergence monotone, en passant à la limite,
⇥ ⇤
E Bt2 = E [T ] = 1

Proposition 51. Soit (Xt )t 0 surmartingale positive continue à droite et S  T un temps d’arrêt. Alors, XS et
XT sont dans L1 et ⇥ ⇤ ⇥ ⇤
E XS 1{S<1} E XT 1{T <1}
Démonstration. On a vu le résultat si S et T sont des temps d’arrêt bornés. Donc, pour tout n,

E [XS^n ] E [XT ^n ]

⇥ ⇤ ⇥ ⇤
E XS^n 1{S>n} = E Xn 1{S>n}
⇥ ⇤
 E Xn 1{T >n}
⇥ ⇤
= E XT ^n 1{T >n}

En prenant la différence, ⇥ ⇤ ⇥ ⇤
E XS^n 1{Sn} E XT ^n 1{T n}
⇥ ⇤ ⇥ ⇤
E XT ^n 1{T n} = E XT 1{T n}
⇥ ⇤
! E XT 1{T <1}
n!1

car XT 0 et par le théorème de convergence monotone.


⇥ ⇤ ⇥ ⇤
E XS 1{S<1} E XS 1{Sn}

Quelques résultats techniques pour le chapitre suivant :


Proposition 52. Soit (Xt )t2Q+ une surmartingale bornée. Presque sûrement, lim Ms et lim Ms existent.
s%t,s2Q+ s&t,s2Q+

⇥ X ⇤ h i
Démonstration. On a déjà vu que le nombre de montées est tel que E Uab (Q+ \ [0, t])  b
1
a E (Xt a)
uniformément borné. Donc, avec probabilité 1, pour tout a, b 2 Q avec a < b, Uab
X
(Q+ ) < 1, cela suffit à conclure.

Proposition 53. Soit (Xt )t2Q+ une surmartingale positive. Pour tout t 2 Q+ ,
✓ ◆
P Xt > 0, inf Xs = 0 = 0
s2Q\[0,t]

19
Démonstration. Soient 0  s1 < . . . < sp  t rationnelles, soit " > 0. Soit Ak := {Xsk < "} \ {8i < k, Xsi "}

E [Xt 1Ak ] = E [1Ak E [Xt | Fsk ]]


 E [1Ak Xsk ]  "P (Ak )

S
Les Ak sont disjoints et Ak = min Xsk < " .
1kp

" #
E Xt 1⇢  "P (minXsk < ")
min Xsk <"
1kp

" # ✓ ◆
E X t 1⇢  "P inf Xs < "
inf Xs <" s2Q\[0,t]
s2Q\[0,t]
⇥ ⇤
E Xt 1{infXs =0} = 0

3 Processus de Markov
On a vu la propriété de Markov pour le mouvement brownien. On va maintenant étudier des processus plus
généraux qui ont cette propriété. Soit S un espace métrique (espace “des états”). Soit D = D (R+ , S) l’ensemble
des fonctions de R+ dans S continues à droite et avec limite à gauche (noté cadlag). Soit F la plus petite tribu qui
D ! R
rende mesurable les applications coordonnées . L’espace (D, F) est notre nouvel espace mesurable
x 7! x (t)
X: D ! D
canonique. On a des translations temporelles : (✓s x) (t) = x (s + t) et X le processus canonique .
x 7! x

3.1 Rappels sur les chaînes de Markov sur S fini.


Soit S un ensemble fini
Définition 54. Une chaîne de Markov (à temps continu) sur S et la donnée :
a) d’une collection de mesures de probabilité (Px )x2S sur (D, F).
b) d’une filtration (Ft )t continue à droite sur (D, F) telle que X est adaptée et pour tout x 2 S,
Px (X0 = x) = 1
Pour tout F mesurable positive D ! R+ , Ex [F ✓s | Fs ] = EXs [F ], Px -presque sûrement.
pt (x, y) = Px (Xt = y) sont les probabilités de transition associées.

On a 8
>
>p t (x, y) 0
>
> X
>
> pt (x, y) = 1
>
<
y
(2)
>
> lim pt (x, x) = 1
>
> t!0 X
>
>
>
:ps+t (x, y) = ps (x, z) pt (z, y) (Chapman-Kolmogorov)
z

Réciproquement, si (pt (x, y)) satisfait (2) alors il définit une chaîne de Markov de manière unique.
Proposition 55. Pour tout x 2 S, il existe C (x) 0 tel que pt (x, x) = 1 C(x)t + o (t) X
Pour tout x 6= y 2 S, il existe q (x, y) 0 tel que pt (x, y) = tq (x, y) + o (t). On pose C (x) = q (x, y). On
P y6=x
pose q (x, x) = C (x). On a y q (x, y) = 0.
Soit Pt = (pt (x, y))x,y et Q = (q (x, y))x,y (matrice de transition).
On a Pt = etQ .
On a Pt+s = Pt Ps , Pt = 1 + tQ + o (t).

20
d
= QPt = Pt Q (équation de Kolmogorov)
dt Pt X
Réciproquement, si Q = (q (x, y)) telle que pour tout x 6= y, q (x, y) 0 et pour tout x q (x, y) = 0 alors
y
Pt = etQ définit des probabilités de transition.
Conclusion : Il y a correspondance entre chaîne de Markov, probabilité de transition et matrice de transition.
On a toujours la propriété de Markov forte.

3.2 Processus de Feller


A partir de maintenant, on suppose que S est un espace métrique séparable et localement compact (pour tout
x il existe " > 0 tel que B (x, ") est compacte).
Zd
Exemple. S = Rd ou S = {0, 1} muni de la topologie produit.
Définition 56. Une fonction f : S ! R tend vers 0 en l’infini si pour tout " > 0 il existe un compact K tel que
sup |f |  ". Dans ce cas, on note limf = 0. On note C0 (S) l’ensemble des fonctions continues qui tendent vers 0
S\K 1

en l’infini. On le munit de la norme kf k = kf k1 = sup |f |. C0 (S) est un espace de Banach.


S

NB : Toute fonction de C0 (S) est uniformément continue.


Définition 57. Un processus de Feller est la donnée :
a) d’une collection de mesure de probabilités (Px )x2S sur (D, F)
b) d’une filtration (Ft )t 0 continue à droite tel que X est adapté et pour tout x 2 S,
b1) Px (X0 = x) = 1
b2) L’application z 7! Ez [f (Xt )] est dans C0 (S) pour tout f 2 C0 (S) et t 0
b3) Pour tout F mesurable D ! R+ , pour tout s 0,

Ex [F ✓s | Fs ] = EXs [F ] Px -p.s

Remarque. La dernière propriété (b2) est la propriété de Feller. Elle implique que si xn ! x 2 S alors la loi de Xt
sous Pxn converge vers la loi de Xt sous Px .
Théorème 58. Propriété de Markov forte pour un processus de Feller. Soit T un temps d’arrêt, F mesurable
positive D ! R+ . Alors,
Ex [F ✓T | FT ] = EXT [F ] Px -p.s sur {T < 1}
p
Y
Lemme. Disons que F : D ! R est spéciale si elle s’écrit F (X) = fi (Xti ) avec fi 2 C0 (S) et 0  t0 < . . . < tp .
i=1
La fonction x 7! Ex [F ] est continue.
Démonstration. p = 1 vient de la définition
pour p 2 soit F = G.fp Xtp
⇥ ⇤
Ex [F ] = Ex Gfp Xtp
h ⇥ ⇤i
= Ex GEXTp 1 fp ✓tp tp 1

⇥ ⇤ ⇥ ⇤
par la propriété de Markov et car G est Ftp 1
-mesurable. Si g (x) = Ex f ✓tp tp 1
, on aEx [F ] = Ex Gg Xtp 1
fonction spéciale avec p ! p 1.
Retour à la démonstration du théorème 58 :
Démonstration. On suppose T < 1 presque sûrement. Soit A 2 FT et F mesurable bornée. Si T prend ses valeurs
dans un ensemble dénombrable D, alors :

Ex [1A F ✓T ] = Ex [1A EXT [F ]] (3)

En effet, X ⇥ ⇤
Ex [1A F ✓T ] = Ex 1A\{T =s} F ✓s
s2D

21
par Markov faible (incluse dans la définition d’un processus de Feller)
X ⇥ ⇤ X ⇥ ⇤
Ex 1A\{T =s} F ✓s = Ex 1A\{T =s} EXS [F ]
s2D s2D
= Ex [1A EXs [F ]]
p.s
Sinon, on suppose F spéciale et on approche T par Tn = 21n d2n T e. Par continuité à droite, on a bien XTn ! XT .
p.s
Comme F est spéciale, par le lemme, on a EXTn [F ] ! EXT [F ]. On arrive à (3) pour toute fonction spéciale F . Par
densité des fonctions spéciales, on a le résultat pour toute F mesurable bornée puis pour toute fonction mesurable
positive.
Définition 59. Un semi-groupe de Feller est une famille d’applications (Pt )t 0, linéaires continues de C0 (S) dans
C0 (S) telle que pour tout f 2 C0 (S),
1) P0 f = f ,
2) kPt f f k ! 0,
t!0
3) Pt+s f = Pt Ps f ,
4) f 0 =) Pt f 0,
N
5) Si S est compact, Pt 1 = 1 ; si S non compact, il existe (fn )n 2 (C0 (S)) tel que sup kfn k < 1 et pour tout
x 2 S, Pt fn (x) ! 1 pour tout t 0.
Remarque. 2) est appelé la continuité forte. On a

kPt+s f Ps f k = kPs (Pt f f )k  C kPt f fk ! 0

Pt : C0 (S) ! C0 (S) est appelé la propriété de Feller.


3) est la propriété de semi-groupe, parallèle de Chapman-Kolmogorov.
Proposition 60. Pour tout t 0, Pt est une contraction i.e pour tout f 2 C0 (S), kPt f k  kf k.
Démonstration. Si S est compact,
Pt f  Pt kf k = kf k

Pt f = P t ( f ) Pt ( kf k) = kf k
Si S est non compact, on fixe x 2 S et t 0,
f 7! Pt f (x)
est une forme linéaire continue sur C0 (S) donc, par le théorème de Riesz, il existe µt,x mesure finie telle que
ˆ
Pt f (x) = f dµt,x

fn dµt,x , fn ! f ponctuellement, sup kfn k < 1 donc par le théorème de convergence dominée,
´
Pt fn (x) =
ˆ ˆ
fn dµt,x ! dµt,x
=
Pt fn (x) ! 1

donc µt,x est une mesure de probabilité et |Pt fn (x)|  kfn k.


ˆ +1
Définition 61. A tout semi-groupe (Pt ) on peut associer sa transformée de Laplace U↵ f = e ↵t
Pt f dt pour
0
↵ > 0.
Remarque. Comme ke ↵t Pt f k  e ↵t kf k, on a kU↵ f k  ↵1 kf k donc ↵U↵ est une contraction.
ˆ +1
↵U↵ f = ↵e ↵t Pt f dt ! f . En effet, kPt f f k ! 0 donc 8" > 0 , 9 , t  =) kPt f fk  "
0 ↵!+1 t!0

ˆ ˆ +1
↵t ↵t
↵U↵ f = ↵e Pt f dt + ↵e Pt f dt
0

22
Proposition 62. Equation résolvante : Pour tout ↵, > 0,
U↵ U =( ↵) U↵ U
En particulier, U↵ U = U U↵ .
Démonstration. Pour ↵ 6= ,
ˆ +1
↵t
U↵ U f = e
Pt (U f ) dt
0
ˆ +1 ✓ˆ +1 ◆
↵t t
= e Pt e Ps f ds dt
0 0
ˆ +1 ˆ +1
↵t s
= e Pt+s f dtds
0 0
ˆ +1 ˆ r
↵t (r t)
= dr e dtPr f dr
0 0
+1 ↵r r
e e
ˆ
= Pr f dr
0 ↵
U↵ f U f
=


Remarque. Si Pt f = e t
f alors U↵ f = 1
↵+ f . On peut vérifier que 1
↵+
1
+ = (↵+ )( + ) .
Proposition 63. Dans la définition de semi-groupe de Feller, on peut remplacer l’hypothèse de continuité forte
kPt f f k ! 0 par : 8x 2 S, Pt f (x) ! f (x).
t!0 t!0
Démonstration. 1) on vérifie la propriété forte pour f = U↵ g, ↵ > 0, g 2 C0 (S).
ˆ +1
Pt f = Pt e ↵s Ps gds
0
ˆ +1
= e ↵s Ps+t gds
0
ˆ +1
= e ↵(s t) Ps gds
t
ˆ +1
Pt f f = e↵t 1 e ↵s Ps gds
t
ˆ t
e ↵s Ps gds
0
| {z }
k·k  t kgk
´ +1 ↵t ´ +1 ↵t e↵t 1
t
(e 1) e ↵s Ps gds converge vers 0 pour tout s et on a la domination t (e 1) e ↵s
Ps gds  ↵ kgk.
´ +1 ↵t
Par le théorème de convergence dominée t (e 1) e ↵s
Ps gds ! 0.
t!0
2) On montre que {U↵ g, ↵ > 0, g 2 C0 (S)} est dense dans C0 (S).
´ Par un argument de dualité, il suffit de montrer
que pour toute mesure finie sur S, pour tout ↵ > 0, g 2 C0 (S), U↵ gdµ = 0 =) µ = 0. On veut justifier
ˆ ˆ
↵U↵ gdµ ! gdµ
↵!+1

On a vu k↵U↵ gk  kgk. il suffit de vérifier la convergence ponctuelle : pour tout x 2 S, ↵U↵ g (x) ! g (x) (voir
↵!+1
preuve précédente) et on conclut par le théorème de convergence dominée.
2) Conclusion : Soit " > 0 : il existe h 2 U tel que kf hk  "
kPt f fk  kPt f Pt hk + kPt h hk + kh fk
 2 kh f k + kPt h hk
donc limsup kPt f f k  2".
t!0

23
3.3 Du processus au générateur infinitésimal
Théorème 64. Etant donné un processus de Feller (Xt )t , on pose

Pt f (x) = Ex [f (Xt )]

avec Ex [·] l’espérance associée à Px . Alors, Pt est un semi-groupe de Feller.


Démonstration. P0 f = f OK
f 0 =) Pt f 0
Si S est compact, Pt 1 = 1 (admis pour S non compact)
Propriété de semi-groupe :

Pt+s f (x) = Ex [f (Xt+s )]


= Ex [Ex [f (Xt+s ) | Ft ]]
= Ex [EXt [f (Xs )]]
= Ex [Ps f (Xt )]
= Pt (Ps f ) (x)

Pour montrer la continuité ponctuelle, il suffit de voir que pour tout x 2 S, Pt f (x) ! f (x). C’est clair par
t!0
continuité à droite des trajectoires. Par définition du processus de Feller, Pt envoie C0 (S) dans C0 (S).
Remarque. On peut ré-écrire la propriété de Markov Ex [f (Xt+s ) | Ft ] = Ps f (Xt ).
Proposition 65. Si f 2 C0 (S), f 0, ↵ > 0, alors Mt := e ↵t
U↵ f (Xt ) est une sur-martingale sous Px .
Démonstration. kU↵ f k  1
↵ kf k donc Mt 2 L1 .
ˆ +1
↵s ↵s ↵t
Ps e U↵ f = e e Ps+t f dt
0
ˆ +1
↵t
= e Pt f dt  U↵ f
s

car f 0
h i
↵(t+s)
Ex [Mt+s | Ft ] = Ex e U↵ f (Xt+s ) | Ft
⇣ ⌘
↵(t+s)
= Ps e U↵ f (Xt )
↵t
 e U↵ f (Xt ) = Mt

Comment passe-t-on maintenant du semi-groupe au générateur infinitésimal ? Pour le cas où S est fini, la matrice
de transition est Q = (q (x, y)) qu’on peut voir comme l’application linéaire
X
Qf (x) = q (x, y) (f (y) f (x))
y6=x

X
De même, on a Pt = (pt (x, y)) qu’on peut voir comme Pt f (x) = pt (x, y) f (y) = Ex [f (Xt )] et Pt = etQ =
y
1 + tQ + o (t). On a Pt f (x) = f (x) + tQf (x) + o (t) et Ex [f (Xt )] = f (x) + tQf (x) + o (t). On se replace à présent
dans le cadre général.
Définition 66. Soit (Pt ) un semi-groupen de Feller. Le générateur infinitésimalo associé est l’opérateur linéaire
L f = lim Pt ft f sur le domaine D (L ) := f 2 C0 (S) | Pt ft f existe dans C0 (S) .
t!0

Proposition 67. Equation de Kolmogorov. Si f 2 D (L ), alors t 7! Pt f est une fonction C 1 et d


dt (Pt f ) = Pt L f =
L Pt f .

24
⇣ ⌘
Ps f f
Démonstration. 1
s (Pt+s f Pt f ) = P t s ! Pt L f et la convergence est uniforme en t.
s!0

n
X1
Pt f f = lim P k+1 ·t f P k ·t f
n!1
k=0 |
n
{z n }
1
⇠ P k ·t L f
n n
ˆ t
= Ps L f ds
0

donc t 7! Pt f est C 1 et d
dt (Pt f ) = Pt L f .

✓ ◆
Ps f f
Pt L f = lim Pt
s!0 s
Ps (Pt f ) Pt f
= lim
s!0 s
= L Pt f

Proposition 68. Soit ↵ > 0,


1) 8f 2 C0 (S), U↵ f 2 D (L ) et (↵ L ) U↵ f = f
2) Si f 2 D (L ) alors U↵ ((↵ L ) f ) = f
3) ImU↵ = D (L ) et les applications U↵ et (↵ L ) sont inverses l’une de l’autre.
4) D (L ) est dense dans C0 (S)
Démonstration. 1) On a
✓ˆ +1 +1 ◆
1 1
ˆ
↵t ↵t
(Ps U↵ f U↵ f ) = e Pt+s f dt e Pt f dt
s s 0 0
✓ˆ +1 s ◆
1
ˆ
= (e↵s 1) e ↵t
Pt f dt e ↵t
Pt f dt
s s 0
ˆ +1
↵t
! ↵e Pt f dt f = ↵U↵ f f
s!0 0

donc U↵ f 2 D (L ) et L (U↵ f ) = ↵U↵ f f , (↵ L ) (U↵ f ) = f .


ˆ t
2) Si f 2 D (L ), on a vu que Pt f = f + Ps L f ds
0
ˆ
↵t
U↵ f = e Pt f dt
ˆ ˆ t
↵t
↵U↵ f f = ↵ e Ps L f dsdt
0
ˆ ˆ +1
↵t
= Ps L f ↵e dtds
s
ˆ
↵s
= Ps L f e ds

= U↵ (L f )

donc U↵ ((↵ L ) f ) = f .
3) provient immédiatement de 2) et 3) [
4) En particulier, ImU↵ ne dépend pas de ↵. Pour voir que D (L ) est dense, il suffit de voir que Im (U↵ )est
↵>0
dense. On a vu ↵U↵ f ! f donc c’est bon !.
↵!+1

25
Corollaire 69. Un semi-groupe de Feller est déterminé par son générateur infinitésimal (ce qui inclut l’information
sur le domaine !)
Démonstration. Soit f 2 C0 (S) positive. On veut montrer qu’on peut calculer Pt f en utilisant seulement l’infor-
1
mation sur L . On vient de voir que pour tout ↵ > 0, U↵ f = (↵ L ) f i.e. U↵ f est l’unique élément de D (L )
tel que (↵ L ) U↵ f = f ˆ
↵t
U↵ f (x) = e Pt f (x) dt

On peut donc retrouver la transformée de Laplace de t 7! Pt f (x). Cela caractérise Pt f (x) car t 7! Pt f ((x) est
continue.
Exemple 70. Le mouvement brownien.
(y x)2
1) Pt f (x) = p2⇡t
1
´
e 2t f (y) dy
p
2) U↵ f (x) = p2↵ exp
1
2↵ |y x| f (y) dy et D (L ) = f 2 C 2 (R) | f, f ” 2 C0 (R) et pou f 2 D (L ), on
´

a L f = 12 f ” (en dimension quelconque, L f = 12 f )


Remarque. Il est en général difficile de déterminer D (L ) explicitement. La plupart du temps, on a simplement
besoin de comprendre L sur un sous-domaine assez grand.
Théorème 71. Soit f, g 2 C0 (S). Les conditions suivantes sont équivalentes :
1) f 2 D (L ) et L f = g
ˆ t
2) f (Xt ) g (Xs ) ds est une martingale sous Px .
0
ˆ t
Démonstration. 1) =) 2) Soit Mt = f (Xt ) L f (Xs ) ds. Alors, comme f 2 C0 (S), Mt 2 L1 pour tout t
0
ˆ t+s ˆ t ˆ t+s
Ex L f (Xu ) du | Ft = L f (Xu ) du + Ex L f (Xu ) du | Ft
0 0 t
ˆ t ˆ t+s
= L f (Xu ) du + Ex [L f (Xu ) | Ft ] du
0 t
ˆ t ˆ s
= L f (Xu ) du + Pu L f (Xt ) du
0 0
ˆ t ˆ s
Ex [Mt+s | Ft ] = Ps f (Xt ) L f (Xu ) du Pu L f (Xt ) du
0 0

´s
ˆ t
Ps f f= P L f du par Kolmogorov donc E [Mt+s | Ft ] = f (Xt )
0 u
L f (Xu ) du = Mt .
 ˆ t 0

2) =) 1) Ex f (Xt ) g (Xs ) ds = f (x)


0
ˆ t
Pt f (x) Ps g (x) ds = f (x)
0

t
Pt f f 1
ˆ
= Ps gds ! g
t t 0 t!0

donc f 2 D (L ) et L f = g.
ˆ t
Exemple 72. Pour le mouvement brownien (Bt )t . On a :f (Bt ) 1
2 f ” (Bs ) ds est une martingale (assez proche
0
de la formule d’Itô). La martingale est f 0 (Bs ) dBs .
´

26
3.4 Mesures invariantes
Définition 73. Soit µ une mesure de probabilité sur S. On définit
ˆ
Pµ (A) = Px (A) dµ (x)

où A est un ensemble mesurable. On a bien que Pµ (X0 2 B) = µ (B). Dans ce cas, Px = P x .


Loi de Xt sous Pµ : Eµ [f (Xt )] = Pt f (x) dµ (x) = f (x) d (Pt⇤ µ) (x). Plus proprement, A 7! Pµ (Xt 2 A) est
´ ´

une mesure de probabilité (c’est la loi de (Xt )t sous Pµ ) on la note Pt⇤ µ.


loi
Définition 74. On dit que µ est une mesure invariante (ou stationnaire) si pour tout t 0, Pt⇤ µ = µ i.e. Xt = X0
sous Pµ .
Proposition 75. Si µ est une mesure de probabilité sur S telle que Pt⇤ µ ! ⌫ (au sens EPt⇤ µ [f ] ! E⌫ [f ] pour
t!1
tout f 2 C0 (S)) alors ⌫ est une mesure invariante.
Démonstration. Il suffit de vérifier que pour tout s 0 et pour tout f 2 C0 (S), Ps f d⌫ = f d⌫
´ ´

ˆ ˆ ˆ ˆ ˆ ˆ
Ps f d⌫ f d⌫  Ps f d⌫ Ps+t f dµ + Ps+t f dµ f d⌫
ˆ ˆ ˆ ˆ
 Ps f d⌫ Pt (Ps f ) dµ + Ps+t f dµ f d⌫
! 0
t!+1

Proposition 76. Si S est compact, alors il existe une mesure invariante.


ˆ n
Démonstration. Soit µ une mesure arbitraire. Soit µn = n
1
Ps⇤ µds. (µn )n est une suite de mesures de probabilité
0
sur S compact. Par le théorème de Prokorov, on peut en extraire une sous-suite (µnk )´k convergente vers une limite
⌫. Pour vérifier que ⌫ est invariante, il suffit de voir 8f 2 C0 (S) , 8t 0, Pt f d⌫ = f d⌫.
´

ˆ nk ˆ
1
ˆ
Pt f dµnk = Pt+s f dµds
nk 0
ˆ nk +t ˆ
1
= Ps f dµds
nk t
✓ ˆ tˆ ˆ nk +t ˆ ◆
1
ˆ ˆ
Pt f dµnk f dµnk = Ps f dµds + Ps f dµds ! 0
nk 0 nk k!1

Lemme 77. Pour tout f 2 C0 (S) et t > 0,


✓ ◆ n
t
lim Id L f = Pt f
n!+1 n
n
Remarque. Pt = P nt . . . P nt ' 1 + nt L
1 n
Démonstration. Id t
nL : C0 (S) ! D (L ) donc Id t
nL f est bien définie.
✓ ◆ 1
1
Id L = ↵U↵ f

ˆ +1
= ↵e ↵t Pt f.dt
0
h i
= E P E1 f

27
où E1 ⇠ Exp (1)
✓ ◆ n h h h iii
1
Id L f = E P En E P En 1 . . . E P E1 f
↵ ↵ ↵ ↵
h i
= E P En +...+E1 f

i.i.d.
où E1 , . . . , En ⇠ Exp (1).
✓ ◆ m h i
t
Id L f = E Pt· En +...+E1 f
m n

Pour f 2 D (L ) :
kPt f Ps f k  kL f k |t s|
✓ ◆ n 
t En + . . . + E1
Id L f Pt f  t kL f k E 1 ! 0
m n n!1

ce qui prouve le lemme pour tout f 2 D (L )car les opérateurs sont des contractions et D (L ) est dense.

Théorème 78. µ est une mesure invariante si et seulement si, pour tout f 2 D (L ), L f.dµ = 0.
´

Démonstration. “ =) ” On suppose Pt ft f .dµ = 0. Si f 2 D (L ), on a bien L f.dµ = 0 en faisant tendre t vers


´ ´

0.
“(=” On veut voir que pour tout f 2 C0 (S) et t > 0
ˆ ˆ
Pt f.dµ = f.dµ

1
Si Id 1
f = 0 alors g 2 D (L )et f = g 1
et donc
´ ´
↵L ↵L g f.dµ = g.dµ.
ˆ ✓ ◆ 1
1
ˆ
f.dµ = Id L f.dµ

En itérant : pour tout n 2 N,


ˆ ✓ ◆ n
1
ˆ ˆ
f.dµ = Id L f.dµ ! Pt f dµ
n n!1

et on a le résultat.
Remarque 79. On est en général intéressé par la détermination de l’ensemble I des mesures invariantes d’un
processus. Cet ensemble est convexe. Il suffit donc de déterminer les points extrémaux de cet ensemble convexe.
C’est lié à la notion d’ergodicité. Une mesure n’est pas extrémale si elle s’écrit µ = p⌫1 + (1 p) ⌫0 avec p 2]0, 1[ et
⌫0 6= ⌫1 .
Définition 80. Une mesure de probabilité invariante µ est ergodique si pour tout f continue bornée,

1 t
ˆ ˆ
f (Xs ) ds ! f dµ, Pµ p.s
t 0 t!1

c’est à dire
t
1
ˆ ˆ
f (Xs ) ds ! f dµ, Px p.s (4)
t 0 t!1

dµ (x) p.s..
Remarque 81. Deux mesures invariantes ergodiques sont mutuellement singulières : si µ1 , µ2 sont ergodiques avec
µ1 6= µ2 alors il existe A mesurable telle que µ1 (A) = 1 et µ2 (A) = 2.
Proposition 82. Une mesure invariante ergodique est extrémale (c.f. Remarque 79 pour la définition).

28
Démonstration. Supposons que µ = p⌫1 + (1 p) ⌫0 avec µ invariante ergodique, p 2]0, 1[ et ⌫0 , ⌫1 invariantes. On
a ⌫1 ⌧ µ donc (4) est vrai d⌫1 (x) p.s. donc

1 t
ˆ ˆ
E [f (Xs )] ds ! f dµ
t 0 | {z } t!1
ˆ
= f d⌫1

car ⌫1 est invariante. Donc f dµ pour toute fonction continue bornée. Donc ⌫1 = µ = ⌫0 .
´ ´
f d⌫1 =

3.5 Formule de Feynman-Kac


On a vu que u (t, ·) = Pt f est solution de l’équation
(
@t u = L u
u (0, ·) = f

et L = 1
2 pour le brownien.
u (t, x) = Ex [f (Bt )] = E0 [f (x ` Bt )]
La formule de Feynman-Kac donne une représentation probabiliste d’une équation “avec potentiel”
Théorème 83. Formule de Feynman-Kac. Soit f 2 D (L ) et h 2 C0 (S). La fonction
 ✓ˆ t ◆
u (t, x) = Ex f (Xt ) exp h (Xs ) ds
0

est solution de l’équation (


@t u = (L + h) u
u (0, ·) = f
´t
Démonstration. La condition initiale est claire. Posons I (s, t) = s h (Xu ) du pour simplifier la notation.
h ⇣ ⌘
u (t + ") u (t, x) = Ex (f (Xt+" ) f (Xt )) eI(0,t) eI(t,t+") 1 + := A
(f (Xt+" ) f (Xt )) eI(0,t) + := B
⇣ ⌘i
f (Xt ) eI(0,t) eI(t,t+") 1 := C

Ex [|A|]  Ex [|f (Xt+" ) f (Xt )|] etkhk e"khk 1 = o (") pourvu que |f (Xt+" ) f (Xt )| tende vers 0
h i
2 2
Ex [|f (Xt+" ) f (Xt )|]  Ex (f (Xt+" ) f (Xt ))
⇥ ⇤
 Ex f 2 (Xt+" ) 2f (Xt+" ) f (Xt ) + f 2 (Xt )
= Pt+" f 2 2Pt (f P" f ) + Pt f 2
⇥ ⇤
= Pt P " f 2 2f P" f + f 2
! 0, uniformément en t et en espace
"!0
⇥ ⇤
Ex [B] = Ex (P" f (Xt ) f (Xt )) eI(0,t) par Markov. Donc

u (t + ", x) u (t, x) h i h i
! Ex L f (Xt ) eI(0,t) + Ex f (Xt ) eI(0,t) h (Xt )
" "!0
´t
uniformément en t et en x. Donc u (t, x) = 0
. . . et u (·, x) est C 1 .
h i
u (t + ", x) = Ex eI(0,") f (Xt+" ) eI(",t+")
h i
Markov
= Ex eI(0,") u (t, X" )

29
⇥ ⇤
1
" (u (t + ", x) u (t, x)) = 1" Ex eI(0,") 1 u (t, X" ) + 1
" (P" u (t, x) u (t, x)). Or,

1 h⇣ I(0,") ⌘ i
Ex e 1 u (t, X" ) ! h (x) u (t, x)
" "!0

et la limite de 1" (u (t + ", x) u (t, x)) existe donc la limite de 1


" (P" u (t, x) u (t, x)) existe aussi. On a donc
u (t, ·) 2 D (L ) et on a
L u (t, ·) = @t u hu
Quand est ce qu’un opérateur linéaire est le générateur infinitésimal d’un processus stochastique ?

Proposition 84. Soit f 2 D (L ) et g 2 C0 (S), 0. Si (Id L ) f = g, alors inf f inf g.


Pt f f
Démonstration. gt = f t = Id + t f !
t Pt f t!0 g par définition.
Id + t inf f inf gt + t inf Pt f . On a Pt f inf f .
✓ ◆
Id + inf f inf gt + inf f
t t

d’où inf f inf g.


La propriété du haut est le principe du maximum. satisfaire cette propriété : disons que inf f < 0 et soit x
tel que f (x) = inf f . Il faut que f (x) 0. Si (Id ) f = g, on a g (x) = f (x) f (x)  f (x) = inf f et
donc inf g  inf g.
Ainsi, si l’on veut qu’un opérateur linéaire soit le générateur infinitésimal d’un processus stochastique, il faut
qu’il vérifie le principe du maximum.
Exemple. L’opérateur D3 : f 7! f 000 sur R n’est pas un générateur infinitésimal.

3.6 Exemples de processus de Markov


3.6.1 Un exemple formel
Exemple 85. Soit > 0 et V : Rd ! R tel que V
< 1 pour tout > 0. On verra plus tard comment donner
´
e
un sens à
dBt
dXt = rV (Xt ) dt

Une façon détournée de définir (Xt ) est de dire que Zt = Xt 1


t est bien définie par l’équation :
✓ ◆
1
dZt = rV Zt + Bt dt

et poser Xt = Zt + 1 Bt . On verra que L f (x) = 21 f (x) rV (x) · rf (x). Si = +1, Xt ' x trV (x) + o (t),
f (Xt ) ' f (x) trV (x) · rf (x) + o (t).
On cherche
´ une mesure´invariante à densité g. On veut vérifier que pour tout f 2 D (L ), L f (x) g (x) dx = 0
´

c’est à dire L f g = 0 , f L ⇤ g = 0. Or,

1
L ⇤f = f + r (f rV )
2

En effet, rV rf g = (rf ) · (grV ) = f r (grV ). Il faut et il suffit que L ⇤ g = 0. On montre que ça équivaut
´ ´ ´

à g = exp ( 2 V ). Alors, rg = 2 rV.g et L ⇤ g = 21 r ( 2 grV ) + r (grV ).

30
3.6.2 Modèle d’Ising dynamique
Exemple 86. Soit G = (V, E) un graphe fini (V est l’ensemble des sommets, E l’ensemble des arrêtes). On veut
V
une dynamique sur { 1, 1} telle que la mesure invariante soit
1
µ( ) = exp ( H ( ))
Z
X X
où Z = exp ( H ( )) avec H ( ) = i j avec i ⇠ j si i et j sont deux sommets adjacents. Pour
2{ 1,1}V i⇠j
V V
2 { 1, 1} , soit (i)
2 { 1, 1} défini par
(
(i) k si k 6= i
k =
i si k = i
⇣ ⌘
Un exemple important de dynamique est avec taux de transition de à (i)
donné par C , (i)
= exp 2 H (i)
H( ) .
On observe que ⇣ ⌘ ⇣ ⌘ ⇣ ⌘
µ ( ) .C , (i) = µ (i) .C (i)
,
⇣ ⌘⇣ ⇣ ⌘ X ⌘
En particulier, µ est invariante. On peut aussi vérifier que si L f ( ) = C , (i) f (i) f ( ) alors on a
i
bien L f dµ = 0. On peut construire cette dynamique sur Zd par exemple en utilisant une variation de l’approche
´

“construction graphique”. On peut montrer :


pour d = 1 : l’unicité de le mesure invariante
pour d 2 : il existe C 2]0, +1[ tel que < C =) unicité de la mesure et > C =) pas d’unicité.

3.7 Construction et étude du processus de contact


3.7.1 Quelques rappels sur les processus de Poisson
✓ ◆
n k n k k
Soit > 0. Si Xn ⇠ Bin n, n pour n assez grand, alors P (Xn = k) = n 1 n ! e .
k n!1 k!
+1
X k
On définit la loi de Poisson de paramètre (notée Poi ( )) par k. e
k!
k=0
Si X ⇠ Poi ( ) et Y ⇠ Poi (µ) sont indépendantes alors X + Y ⇠ Poi ( + µ).
iid
Une façon directe de construire la processus de Poisson : on se donne (Ti )i2N ⇠ Exp ( ) et on pose N (t) =
( k
)
X
card k | Tk  t le processus de Poisson. N (t) ⇠ Poi ( t).
i=1( )
n
X
Soit P = Tk | n 1 . On peut montrer que pour toute partie A mesurable, si on pose N (A) = card (P \ A)
i=1
alors N (A) ⇠ Poi ( . 1 (A)) avec 1 la mesure de Lebesgue. P est le processus ponctuel d’intensité .
A \ B = ; =) N (A) et N (B) sont indépendantes.
(loi)
Soit P (t) = {s t, s 2 P, s t}. Alors, P (t) = P.

3.7.2 Construction graphique


On va construire le processus de contact sur Z. on peut généraliser à tout graphe de degré localement fini (c’est
à dire chaque sommet a un nombre fini de voisin) et à une classe de processus plus grande, à valeurs dans des
espaces produits S V , S et V sont dénombrables. Le processus de contact est un modèle de propagation d’épidémie
Z
dans une population : soit (⇠t )t 0 à valeurs dans {0, 1} . Les points de Z sont les individus, ils sont en contact s’ils
sont reliés par une arrête. ⇠t (x) = 0 , l’individu x est sain au temps t, ⇠t (x) = 1 , l’individu x est malade au
temps t.
Un individu malade guérit avec un taux qu’on normalise égal à 1. un individu sain devient(malade avec taux
Z Z ⇠ (z) si z 6= x
.card {y | x ⇠ y et ⇠t (y) = 1}. Pour ⇠ 2 {0, 1} , on définit ⇠ 0!x 2 {0, 1} tel que ⇠ 0!x (z) = et
0 si z = x

31
(
⇠ (z) si z 6= x
⇠ 1!x
(z) = . Formellement, on veut un processus stochastique dont le générateur infinitésimal est
1 si z = x
donné par
X X
L f (⇠) = 1{⇠(x)=1} f ⇠ 0!x f (⇠) + 1{⇠(x+1)=1} f ⇠ 1!x f (⇠) +
x x
X
1{⇠(x 1)=1} f ⇠ 1!x f (⇠)
x

On pourrait définir la processus en partant de ce générateur mais on va le construire différemment. On se donne


(Px , Px+ , Px )x2Z des processus ponctuels indépendants, (Px ) d’intensité 1 et (Px+ ) , (Px ) d’intensité . Pour
(x, s) , (y, t) 2 Z ⇥ R+ , on dit qu’il y a un chemin actif de (x, s) à (y, t) et on note (x, s) ! (y, t) si il existe
(x, s) = (x0 , t0 ) , . . . , (xn , tn ) = (y, t) tel que
a. t0 < t1 < . . . < tn
b. pour tout k, |xk+1 xk | = 1
c. tk 2 Pxk (xk+1 xk )
d. pour tout s, tk < s < tk+1 =) s 2 / Px k
Le processus de contact partant de 1A où A ⇢ Z est défini par :

⇠tA = {y 2 Z | 9x 2 A, (x, 0) ! (y, t)}

Notons P la loi des processus ponctuels. On a défini le processus pour toute configuration initiale de manière couplée.
En particulier, on a immédiatement : A ⇢ B =) ⇠tA ⇢ ⇠tB . ⇣ t,A ⌘
t,A
Renversement du temps : soit ⇠ˆs = {y 2 Z | 9x 2 A, (y, t s) ! (x, t)} pour 0  s  t. Alors ⇠ˆs a
0st
même loi que ⇠tA 0st
.

Lemme 87. P-presque sûrement, pour tout y 2 Z, il existe R (y, t) tel que |x y| > R (y, t) =) il n’existe pas de
chemin actif entre (x, 0) et (y, t)
Démonstration. Pour avoir (x n, 0) ! (x, 0) il fat avoir des “flèches” 0 < tn < . . . < t1 < t tels que tk 2 Px k,+ .
Presque sûrement, il existe K tel que Px K ,+ \ [0, t] est vide. De même, il existe K+ tel que Px+K+ , \ [0, t] est
vide. On prend donc R (y, t) = max (K+ , K ).
⇣ ⌘
Lemme 88. Pour tout " > 0, 9N tel que A|[ N,N ] = B|[ N,N ] =) P ⇠t|[ A B
N0 ,N0 ] 6= ⇠t|[ N0 ,N0 ]  ".

Démonstration. Il suffit de voir que pour N assez grand, P (R ( N0 , t) N N0 )  "


2 et P (R (N0 , t) N N0 ) 
2 . C’est clair car R (N0 , t) < 1presque sûrement.
"

Théorème 89. Le processus ainsi défini est un processus de Feller.


s,A
Démonstration. On vérifie la propriété de Markov faible puis celle de Feller. Pour tout t 0, on pose ⇠t+s =
⇣ ⌘
s,A s,⇠sA
{y 2 Z | 9x 2 A, (x, s) ! (y, t + s)}. Alors, ⇠t+s a la même loi que ⇠t t 0 . Pour tout s, t 0, ⇠t+s = ⇠t+s ,
A A
t 0
(i.e. si (x, 0) ! (y, t + s) alors il existe z 2 ⇠sA tel que (x, 0) ! (z, s) ! (y, t + s)). Conditionnellement à Fs , la loi
s,⇠ A
de ⇠t+ss est celle du processus ponctuel au temps t partant de ⇠sA . Autrement dit, pour tout F mesurable bornée,
h ⇣ ⌘ i h ⇣ A⌘ i
A s,⇠
E F ⇠t+s t 0
| Fs = E F ⇠t+ss | Fs
h ⇣ ⌘i
= E⇠sA F (⇠t )t 0

Il reste à vérifier la propriété de Feller :


Z
Soit f 2 C0 (S) (i.e. une fonction continue sur l’espace compact). On veut vérifier que
{0, 1} ft : ! ⇥ R ⇤
A 7 ! E f ⇠tA
est une fonction continue. Il s’agit de montrer que pour tout " > 0, il existe N tel que A|[ N,N ] = B|[ N,N ] =)
|ft (A) ft (B)|  ". Comme f est continue, il existe N0 tel que A|[ N0 ,N0 ] = B|[ N0 ,N0 ] =) |ft (A) ft (B)|  ".

32
Ainsi on obtient la propriété de Feller :
⇥ ⇤
|ft (A) ft (B)|  E f ⇠tA f ⇠tB

 E f ⇠tA f ⇠tB 1n ⇠ A B
=⇠t|[
o +
t|[ N0 ,N0 ] N0 ,N0 ]

E f ⇠tA f ⇠tB 1n ⇠ A B
6=⇠t|[
o
t|[ N0 ,N0 ] N0 ,N0 ]

 " + 2 kf k "
par continuité de f et par le lemme 142.

4 Variation quadratique
ˆ t
But : définir HS dBS avec B le cours d’une action et H la quantité d’actions possédées.
0
Problème : le brownien n’est pas à variation finie. On va étudier la variation quadratique d’une martingale
continue générale.

4.1 Processus à variation finie


4.1.1 Fonction à variation finie
Définition 90. Une fonction continue a : R+ ! R telle que a (0) = 0 est à variation continue si pour tout t > 0,
(n 1 )
X
F (t) := sup |a (tk+1 ) a (tk )| , n 2 N, 0  t0 < . . . < tn  t
k=0

est finie.
Proposition 91. i) La fonction t 7! F (t) est croissante et continue : il existe une mesure |µ| finie sur les compacts
telle que |µ| ([0, t]) = F (t).
ii) 8s  t, |a (s) a (t)|  F (t) F (s)
iii) t 7! F (t+a(t))
2 et t 7! F (t)2 a(t) sont croissantes et continues. Il existe µ+ , µ mesures finies sur les compacts
elles que µ+ ([0, t]) = F (t)+a(t)
2 , µ ([0, t]) = F (t)2 a(t) . On a alors :
|µ| = µ+ + µ

a (t) = µ+ ([0, t]) µ ([O, t])


= µ ([0, t])
où µ est la mesure signée µ = µ+ µ .

(n) (n) (n)


Proposition 92. Soit f : R+ ! R continue, t 0 et 0 = t0 < t1 < . . . < tn = t une suite de subdivisions dont
le pas tend vers 0. On a
ˆ t ˆ t
f (s) da (s) := f (s) dµ (s)
0 0
n
X1 ⇣ ⌘⇣ ⇣ ⌘ ⇣ ⌘⌘
(n) (n) (n)
= lim f tk a tk+1 a tk
n!1
k=0
⇣ ⌘
(n) (n) (n)
Démonstration. Soit fn telle que fn (s) = f tk si tk < s  tk+1 . Alors, la somme s’écrit
ˆ n
X1 ⇣ ⌘⇣ ⇣ ⌘ ⇣ ⌘⌘
(n) (n) (n)
fn (s) dµ (s) = f tk a tk+1 a tk
k=0

fn (s) ! f (s) pour tout s et fn est bornée par sup |f (s)| donc on obtient le résultat par convergence dominée.
0st

33
Notation : pour toute f mesurable positive, on note
ˆ ˆ
f (s) |da (s)| := f (s) d |µ| (s)

Proposition 93. Pour tout f mesurable bornée,


ˆ t ˆ t
f (s) da (s)  |f (s)| |da (s)|
0 0

4.1.2 Processus à variation finie


Soit (Ft )t une filtration continue à droite.
⌦ ⇥ [0, t] ! R
Définition 94. Un processus (Xt )t est dit progressif si pour tout t 0, l’application est
(!, s) 7 ! Xs (!)
Ft ⌦ B ([0, t])-mesurable.
Proposition 95. Si (Xt ) est continu à droite ou continu à gauche et adapté, alors il est progressif.
n o
On note P rog = A 2 ⌦ ⇥ R+ : (1A (!, t))t 0 est un processus progressif .

Définition 96. Un processus à variation finie est un processus adapté et sont toutes les trajectoires sont à variation
finie (continues, partant de 0).
Proposition 97. Soit A un processus à variation finie et H un processus progressif. Soit H · A le processus défini
par ˆ t
(H · A)t = Hs dAs
0
bien défini si pour tout t 0, ˆ t
|HS | |dAs | < +1
0
Le processus H · A est à variation finie.
Démonstration. Chaque trajectoire est à variation finie :
ˆ t
(H · A)t (H · A)s = Hs dAs
s
ˆ t
=) |(H · A)t (H · A)s |  |Hs | |dAs |
s
Il reste à vérifier que le processus est adapté. On veut vérifier que si h : ⌦ ⇥ [0, t] ! R est Ft ⌦ B ([0, t])-mesurable
´t
bornée, alors 0 h (!, s) dAs est Ft -mesurable. Si h (!, s) = 1]u,v] (s) 1B (!) avec ]u, v] ⇢ [0, t] et B 2 Ft , alors
ˆ t
h (!, s) dAs = 1B (!) (A (v) A (u))
0

est Ft -mesurable. Par le lemme des classes monotones h = 1 est mesurable si 2 Ft ⌦ B ([0, t]). Puis, on conclue
si h est mesurable bornée en l’écrivant comme limite ponctuelle de fonctions étagées.

4.2 Martingale locale


Exemple. Brownien B en dimension 3 : f : x 7! 1
|x| est harmonique, f = 0 . On a envie de dire
ˆ t
f (Bt ) f (B0 ) = f (XS ) ds + Martingale
0 2
f (Bt ) = Martingale
C’est faux ! E [f (Bt )] ! 0
t!1 !
2
1 1 |x 3|
ˆ
3 exp dt ! 0
(2⇡) 2 |x| 2t t!1

34
Notation : Si T est un temps d’arrêt, on note X T le processus t 7! Xt^T .
Définition 98. Un processus adapté à trajectoires continues (Mt )t 0 tel que M0 = 0 est une martingale locale s’il
existe une suite croissante d temps d’arrêts (Tn ) telle que Tn ! +1 presque sûrement telle que pour tout n, M Tn
est une martingale uniformément intégrable. Si M0 6= 0 ont dit que M est une martingale locale si M M0 est une
martingale locale. Dans tous les cas, on dit qu’une telle suite de temps d’arrêts réduit la martingale locale.
Remarque. On n’a pas forcément Mt 2 L1
Proposition 99. a. Une martingale est une martingale locale
b. On pourrait changer la définition et demander simplement M Tn n martingale.
c. Si T temps d’arrêt et M martingale locale, alors M T est une martingale locale.
d. Si Sn réduit M et Tn est une suite de temps d’arrêt telle que Tn % +1 presque sûrement, alors Tn ^ Sn
réduit M .
e. L’ensemble des martingales locales et un espace vectoriel.
Démonstration. a. prendre Tn = n
b. En effet, il suffit de considérer Tn ^ n
Proposition 100. 1) Une martingale locale positive telle que M0 2 L1 est une surmartingale.
2) Si (Mt )t 0 est une martingale locale telle que |Mt |  Z pour tout t 0 où Z 2 L1 , alors M est une martingale
uniformément intégrable.
3) Si M est une martingale locale telle que M0 = 0 alors la suite Tn = inf {t 0, |Mt | n} réduit M .
Démonstration. 1) On a Mt = M0 + Nt où N est une martingale locale issue de 0. Soit (Tn ) qui réduit N . On a :

E [Nt^Tn | Fs ] = Ns^Tn

E [Mt^Tn | Fs ] = Ms^Tn
E [Mt | Fs ]  Ms (5)
par Fatou (M 0). En particulier, E [Mt ]  E [M0 ] < 1. Mt 2 L et (5) dit que M est une surmartingale.
1

2) On a de même
E [Nt^Tn | Fs ] = Ns^Tn
Par le théorème de convergence dominée,
E [Mt | Fs ] = Ms
3) M Tn
martingale locale bornée donc (vraie) martingale.
Rappel : si M est une martingale dans L2 ,
h i h i h i
2 2 2
E (Mt Ms ) = E (Mt Mu ) + E (Mu Ms )

si s  u  t.
Théorème 101. Si M est une martingale locale telle que M0 = 0 à variation finie, alors M = 0.
n ´t o
Démonstration. Soit Tn = inf t 0, 0 |sMs | n , Tn temps d’arrêt. N := M Tn martingale locale issue de 0.
ˆ Tn
N (t)  |dMs |  n
0

donc N est une martingale bornée. On a


"p 1 #
⇥ ⇤ X 2
2
E Nt = E Ntk+1 N tk
k=0
p 1
X h i
2
= E Ntk+1 N tk
k=0
" p 1
#
X
 E sup Ntk+1 N tk Ntk+1 N tk
k
k=0

35
p 1
X ˆ t ˆ Tn
Or, Ntk+1 Ntk  |dNs |  |dMs |  n
k=0 0 0


⇥ ⇤
E Nt2  n.E sup Ntk+1 N tk
k

et sup Ntk+1 Ntk est bornée car N est bornée ainsi,


k
⇥ ⇤
E Nt2 ! 0 ps
⇥ ⇤
quand le pas de la subdivision tend vers 0. Donc E Nt2 = 0. N = 0 presque sûrement par continuité.

4.3 Variation quadratique d’une martingale locale


Théorème 102. Soit M une martingale locale. Il existe un unique processus (hM, M it )t 0 croissant partant de 0
(n) (n)
tel que Mt2 hM, M it est une martingale locale. De plus, si 0 = t0 < . . . < tn = t est une suite de partitions
emboîtées de [0, t] dont le pas tend vers 0 alors

X1 ⇣
n ⌘2
hM, M it = lim Mt(n) Mt(n)
n!1 k+1 k
k=0

en probabilité. Le processus hM, M i est indépendant de la suite de partition. Il est appelé variation quadratique de
M.
Remarque. 1) Si Mt = M0 + Nt alors hM, M it = hN, N it
2) Pour le mouvement brownien B, on a hB, Bit = t. En effet,

X1 ⇣
n ⌘2 ⇣
(n) (n)
⌘ (P)
Bt(n) Bt(n) tk+1 tk !0
k+1 k
k=0

En fait, la convergence a lieu dans L2 et


! ✓⇣
X1 ⇣
n ⌘2 ⇣ ⌘ n
X1 ⌘2 ◆
(n) (n)
Var Bt(n) Bt(n) tk+1 tk = Var Bt(n) Bt(n)
k+1 k k+1 k
k=0 k=0
X1 ⇣
n
(n) (n)
⌘2
= c tk+1 tk ! 0
n!1
k=0

3) L’hypothèse “emboîtés” n’est pas nécessaire.


4) La variation quadratique est continue.
Démonstration. Unicité : Soient A et A0 des variations quadratiques

A A0 = M 2 A0 M2 A

A A0 est à variation finie et M 2 A0 M 2 A est une martingale locale donc A = A0 .


Existence :
Etape 1. On montre qu’on peut supposer M0 = 0. Posons Mt = M0 + Nt . Mt2 hN, N it est une martingale
locale :
Mt2 hN, N it = M02 + 2M0 Nt + Nt2 hN, N it
Nt2 hN, N it est une martingale locale. Il reste à vérifier que 2M0 Nt est une martingale locale.
Soit Tn qui réduit N et (
0 si |M0 | n
T̃n =
Tn sinon

T̃n est un temps d’arrêt et réduit N . ⇥ ⇤


E Nt^T̃n | Fs = Ns^T˜n

36
⇥ ⇤
M0 Nt^T˜n 2 L1 et E M0 Nt^T˜n | Fs = M0 Ns^T˜n donc (M0 Nt )t 0 est une martingale locale.
Etape 2. On montre qu’on peut supposer M bornée par une constante. Si M pas borné (mais M0 = 0), on pose

Tn = inf {t 0, |Mt | n}
(n+1)
M Tn est une martingale bornée. Sot A(n) sa variation quadratique. Par la partie unicité de la preuve, on a At^Tn =
(n) (n)
At . Tn % +1 presque sûrement donc on peut définir At = lim At est processus croissant partant de 0. Par
n!1
construction,Mt^Tn At^Tn est une martingale locale.
Etape 3. Il reste à montrer le théorème en supposant M0 = 0 et |Mt |  K pour tout t. Soit ⇡ = {0 = t0 < t1 < . . .}
partition de R+ . La pas de ⇡ est |⇡| = sup |tk+1 tk |. Pour t 2 [tk , tk+1 [,
k
X 2 2
A⇡ (t) = Mt j Mt j 1 + (Mt Mt k )
j=1

Vérifions que Mt2 A⇡ (t) est une martingale (l’appartenance à L1 est OK). Soit s < t, soit k, l tels que tk  s < tk+1 ,
tl  t < tl+1 . Alors,
l
X 2 2 2
A⇡ (t) A⇡ (s) = Mt j Mt j 1
+ (Mt Mt l ) (Ms Mt k )
j=k+1

h i
2
E [A⇡ (t) A⇡ (s) | Fs ] = E (Mt Ms ) | Fs
⇥ ⇤
= E Mt2 Ms2 | Fs
⇥ ⇤
E Mt2 A⇡ (t) | Fs = Ms2 A⇡ (s)
h i
2
Problème : A⇡ n’est pas croissant ! Prendre la limité |⇡| ! 0. L’enjeu essentiel est d’estimer E (A⇡ (t) A⇡0 (t))
quand ⇡ ⇢ ⇡ 0 avec t 2 ⇡. ⇡ 0 = {0 = s0 < s1 < s2 < . . .}. ⇠i = Msi Msi 1 est borné par 2K. Mt1 Mt 0 =
⇠1 + . . . + ⇠k1 , Mt2 Mt1 = ⇠k1 +1 + . . . + ⇠k2 . Si i1  i2  . . .  ik 1  ik alors
⇥ ⇤
E [⇠i1 . . . ⇠il ] = E ⇠i1 . . . ⇠ik 1 E [⇠il | Fsl ]

Pour t = tm = skm ,
m
X km
X
2
A⇡ (t) A (t)
⇡0 = ⇠ ki 1 +1
+ . . . + ⇠ ki ⇠j2
i=1 j=1
m
X
= 2 Ti
i=1
X
où Tl = ⇠i ⇠j . E [Tl Tl0 ] = 0 si l 6= l0 . Donc
kl 1 <i<jkl

h i m
X ⇥ ⇤
2
E (A⇡ (t) A⇡ (t)) =4 E Ti2
i=1

⇥ ⇤ X ⇥ ⇤
E Tl2 = E ⇠i ⇠i0 ⇠j2
kl 0 <jk
1 <i,i l

kl
X ⇣ ⌘2
= E Msj 1
M s kl 1
⇠j2
j=kl 1 +1

37
Posons t (") = sup |Mu Mv |
0u<vt, vu+"
2 3
m
X km
X
⇥ ⇤ 2
E Tl 2
 E 4 t (|⇡|) ⇠j2 5
l=1 j=1
20 13 12
h i 12 Xkm
4
 E t (|⇡|) E 4@ ⇠j2 A5
j=1

20 12 3
k
6 X 2A 7
m

Il reste à voir que E 4@ ⇠j 5 est bornée uniformément en ⇡, ⇡ 0


j=1

20 12 3 2 3
k km km km
6 X 2A 7 X ⇥ 4⇤ X X
m

E 4@ ⇠j 5 = E ⇠j + 2 E 4⇠i2 ⇠j2 5
j=1 j=1 i=1 j=i+1

km
X ⇥ ⇤ km
X h i
2
= E ⇠j4 + 2 E ⇠i2 Mskm Msi
j=1 i=1
km
X km
X
2 ⇥ ⇤ 2 ⇥ ⇤
 (2K) E ⇠j2 + 2 (2K) E ⇠i2
j=1 i=1
20 12 3
k
6 X A 7
m

 12K 2 E 4@ ⇠j 5  48K 4
j=1

donc h i h i 12
2 4
E (A⇡ (t) A⇡0 (t))  28K 2 E t (|⇡|)
h i 12
4 4
t (|⇡|) est bornée par 2K donc 28K 2 E t (|⇡|) ! 0 presque sûrement.
|⇡|!0
A⇡ A⇡0 est une martingale car A⇡ A⇡ 0 = M 2
A⇡ 0 M2 A⇡ . Par Doob,
 h i 12
2 4
E sup (A⇡ (s) A⇡0 (s))  112K 2 E t (|⇡|)
0st

On peut trouver une suite de parties emboîtées (⇡n ) telle que


X 
E sup A⇡n+1 (s) A⇡n (s) < +1
n 0st

Presque sûrement, on peut définir A (s) = lim A⇡n (s) s < t limite uniforme de fonctions continues donc continue.
n!1
A⇡ est croissante sur ⇡n donc A est croissante sur ⇡n pour tout n. Par continuité, A est croissante.
(P)
(Exercice pour la prochaine fois) Vérifier que pour tout (⇡n )n suite de partitions emboîtées, A⇡n ! A.

 On a montré :
Remarque.
h i1
2 4 2
1) E sup (A⇡ (s) A (s))  112K 2 E t (|⇡|)
0st
2) Si T est un temps d’arrêt, alors
hM T , M T it = hM, M it^T
En effet, Mt^T
2
hM, M it^T t 0 est une martingale locale.
3) On note hM, M i1 = limhM, M it 2 [0, +1]

38
Théorème 103. Soit M une martingale lolcale avec M0 = 0,
1) Il y a équivalence entre
a. M est une martingale bornée dans L2
b. E [hM, M i1 ] < +1
Si ces conditions sont satisfaites, alors Mt2 hM, M it t 0 est une martingale uniformément intégrable. En
particulier, ⇥ 2⇤
E M1 = E [hM, M i1 ]
2) Il y a équivalence entre
a. M est une martingale telle que pour tout t, Mt 2 L2
b. E [hM, M it ] < +1
Dans ce cas, Mt2 hM, M it t 0 est une vraie martingale.

Remarque. Dans a. l’hypothèse “vraie martingale” est nécessaire. Contre-exemple : brownien en dim 3.
Démonstration. “a =) b” Doob (pour les vraies martingales) :

2 ⇥ ⇤
E sup |Ms |  4E Mt2
0st
 C < +1

Soit (Tn )n qui réduit M 2 hM, M i. ⇥ 2 ⇤


E Mt^T n
hM, M it^Tn = 0

E [hM, M it^Tn ]  E sup Ms2  C < +1
0st

E [hM, M i1 ]  C < +1
par Fatou.
“b =) a” Soit Tn qui réduit Mt2 hM, M it . Posons Sn = Tn ^ inf {t 0, |Mt | n}. M Sn est une martingale
bornée. ⇥ 2 ⇤
E Mt^S n
= E [hM, M it^Sn ]  E [hM, M i1 ] < +1
⇥ 2⇤
Par Fatou, E Mt  E [hM, M i1 ]. (Mt^Sn )n est une martingale bornée dans L2 donc uniformément bornée et
converge presque sûrement dans L1 .
E [Mt^Sn | Fs ] = Ms^Sn
E [Mt | Fs ] = Ms
donc M est une martingale. Il reste à voir que M 2 hM, M i est une martingale uniformément bornée.
⇥ ⇤
E M 2 hM, M i  supMs2 + hM, M i1
s 0

supMs2 est intégrable par Doob. Ainsi M 2 hM, M i est une martingale uniformément bornée.
s 0
2) Il suffit d’appliquer le résultat 1) à (Mt^t0 )t 0 pour t0 fixé.
Corollaire 104. Si M est une martingale locale qui part de 0 telle que hM, M i = 0, alors M = 0.
⇥ ⇤ ⇥ ⇤
Démonstration. On a M 2 vraie martingale : E Mt2 = E M02 = 0.
Définition 105. Soient M, N deux martingales locales. On appelle covariation de M et N le processus hM, N i :=
1
2 (hM + N, M + N i hM, M i hN, N i).
Proposition 106. 1) hM, N i est l’unique processus à variation finie tel que M N hM, N i tel que M N hM, N i
est une martingale locale.
2) L’application M, N 7! hM, N i est bilinéaire.
(n) (n)
3) Si 0 = t0 < . . . < tn = t est une suite de subdivisions dont le pas tend vers 0, alors hM, N it =
Xn ⇣ ⌘⇣ ⌘
lim Mt(n) Mt(n) Nt(n) Nt(n) .
n!+1 k+1 k k+1 k
k=0
4) Si T est un temps d’arrêt, on a hM T , N T it = hM T , N it = hM, N it^T .

39
5) Si M, N sont des martingales bornées dans L2 , alors M N hM, N i est une martingale uniformément inté-
grable. De plus, hM, N it ! hM, N i1 intégrable et tel que
ps

E [M1 N1 ] E [hM, N i1 ] = E [M0 N0 ]

Démonstration. 1) découle des propriétés de la variation quadratique déjà vues. On montre l’unicité comme précé-
demment.
2) OK par définition.
3) OK par même propriété pour hM, M i
4) Conséquence de 3)⇣ ⌘
2
5) On écrit M N = 12 (M + N ) M 2 N 2 et on applique les résultats précédents.

Corollaire 107. Si B et B 0 sont deux browniens indépendants, alors hB, B 0 i = 0.


Démonstration. Soit Z = p1
2
(B + B 0 ). C’est un mouvement brownien.

1
hZ, Zit = t= hB + B 0 , B + B 0 i
2
1
= = (hB, Bit + hB 0 , B 0 it ) + hB, B 0 it
2
donc hB, B 0 i = 0.
Proposition 108. Inégalité de Kunita-Watanabe (équivalent de Cauchy-Schwarz)
Soient M, N deux martingales locales et H, K deux processus mesurables. Alors,
✓ˆ t ◆2 ✓ˆ t ◆ ✓ˆ t ◆
|Hs | |Ks | |dhM, N is |  Hs2 dhM, M is Ks2 dhN, N is
0 0 0

Démonstration. Posons hM, N its = hM, N it hM, N is pour s  t. Presque sûrement,


⇣X ⌘
2
hM, N its = lim Mtk+1 Mtk Ntk+1 Ntk
 hM, M its hN, N its

Donc
ˆ t X t
|dhM, N is | = lim hM, N itk+1
k
s
X t
1
2 t
1
2
 limsup hN, N itk+1
hM, M itk+1
k k

⇣X ⌘ 12 ⇣X ⌘1
t tk+1 2
 limsup hM, M itk+1
k
hN, N i tk
✓ˆ t ◆ 12 ✓ˆ t ◆ 12
= dhM, M is dhN, N is
s s

2
donc A |dhM, N isP dhN, N is est vraie pour tout A mesurable par un argument de classe
´ ´ ´
|  A dhM, MP is A
monotone. Si H = i 1Ai et K = µi 1Ai sont étagées positives, alors
ˆ X ˆ
Hs Ks |dhM, N is | = µ
i i |dhM, N is |
Ai
X ✓ˆ ◆ 12 ✓ˆ ◆ 12
 i µi dhM, M is dhN, N is
Ai Ai
Cauchy-Schwarz ✓ˆ ◆ 12 ✓ˆ ◆ 12
 Hs2 dhM, M is Ks2 dhN, N is

Pour conclure, on écrit H, K comme limites croissantes de fonctions étagées positives et on utilise le théorème de
convergence monotone.

40
4.4 Semi-martingales continues
Définition 109. On dit que X est une semi-martingale continue si X s’écrit X = M + A avec M martingale locale
et A à variation finie (la décomposition étant unique).
Si X = M + A et Y = N + B avec M, N martingales locales et A, B à variation finie, on pose hX, Y i = hM, N i.
(n) (n)
Proposition 110. Soit 0 = t0 < . . . < tn = t une suite de subdivisions dont le pas tend vers 0 et soit X, Y deux
semi-martingales. On a :
X1 ⇣
n ⌘⇣ ⌘
hX, Y i = lim Xt(n) Xt(n) Yt(n) Yt(n)
n!1 k+1 k k+1 k
k=0

Démonstration. Pour simplifier l’écriture, on suppose X = Y . On écrit X = M + A avec A à variation finie et


M martingale locale.
X 2 X 2 X 2 X
Xtk+1 Xtk = Mtk+1 Mtk + Atk+1 Atk + 2 Mtk+1 Mtk Atk+1 Atk
P 2 P P 2
Or, Mtk+1 Mt k ! hM, M it = hX, Xit . On veut voir Atk+1 At k ! 0.
X⇣ ⌘2 ˆ t
At(n) At(n)  sup At(n) At(n) |dAs |
k+1 k k+1 k
| {z } 0

! 0 ps

par continuité des trajectoires. Donc on a convergence en probabilité vers 0. De même,


X ˆ t
P
Mt(n) Mt(n) At(n) At(n)  supk Mt(n) Mt(n) |dAs | ! 0
k+1 k k+1 k k+1 k
0

5 Intégrale stochastique
5.1 Construction de l’intégrale stochastique
⇥ ⇤
Définition 111. Soit H l’espace des martingales M continues bornées dans L2 (pour tout M 2 H, supE Mt2 < 1)
t
telles que M0 = 0. On a vu que M, N 2 H =) E [|hM, N i1 |] < 1. On définit la forme bilinéaire symétrique

(M, N )H = E [hM, N i1 ] = E [M1 N1 ]


2
On a vu que (M, M )H 0 avec égalité si et seulement si M = 0. On note kM kH = (M, M )H .
Proposition 112. L’espace (H, (·, ·)H ) est un espace de Hilbert.
Démonstration. Il est clair que H est un espace vectoriel et que (·, ·)H est un produit scalaire.
⇣ Il faut⌘ vérifier que H
(n)
est complet pour k·kH . Soit M (n)
une suite de Cauchy dans H. C’est équivalent à dire que M1 est de Cauchy
(n)
dans L2 , donc M1 converge dans L2 vers M1 2 L2 . Par l’inégalité de Doob,
 ⇣ ⌘2
2
(m) (n) (m) (n)
E sup Mt Mt  4E M1 M1 ! 0
t 0 m,n!1

On peut extraire une sous-suite telle que


"+1 #
X (n ) (n )
E sup Mt k+1 Mt k < +1
t>0
k=0

Presque sûrement,
+1
X (nk+1 ) (nk )
sup Mt Mt < +1
t 0
k=0

41
Donc M (nk ) converge uniformément sur R+ vers une limite, notée M . M est donc continue
h comme limite
i uniforme
(nk ) (nk ) (nk )
de fonctions continues. Mt ! Mt dans L . En particulier, Mt 2 L et Mt
2 2
= E Ms | Ft pour t  s et
k!1
Mt = E [Ms | Ft ] donc M est une martingale et Mt = E [M1 | Ft ]. Par Doob,

⇥ 2⇤
E sup Mt2  4E M1
t 0

donc (Mt ) est uniformément bornée dans L2 et on a bien


⇣ ⌘2
2
(n) (n)
M M = E M1 M1 ! 0
H n!1

Définition 113. Pour M 2 H, on pose

L2 (M ) := L2 (⌦ ⇥ R+ , P rog, dP ⌦ dhM, M i)
h´ i
+1
L2 (M ) est l’espace des processus progressifs tels que E 0 Hs2 dhM, M is < +1. C’est un espace de Hilbert pour
le produit scalaire ˆ +1
(H, K)L2 (M ) = E Hs Ks dhM, M is
0

p 1
X
Définition 114. On note E le sous-espace de L2 (M ) formée des processus de la forme Hs (!) = H (k) (!)1]tk ,tk+1 ] (s)
k=0
où 0 < t0 < . . . < tp et H (k) est Ftk -mesurable et borné pour tout k.
Proposition 115. Pour tout M 2 H, l’espace E est dense dans L2 (M ).
Démonstration. Il suffit de montrer que E ? = {0}. Soit K 2 E ? . On pose
ˆ t
Xt := Ku dhM, M iu
0

On vérifie que (Xt )t ⇢ L1 .


ˆ 1 ˆ 1
CS t 2 t 2

E [|Xt |]  E Ku2 dhM, M iu ⇥E dhM, M iu < +1


0 0

Donc Xt 2 L1 . Soit 0  s <ht et soit F une variable


i aléatoire Fs -mesurable bornée et soit Hs (!) := F (!) 1]s,t] (u).
´t
On a (H, K)L2 (M ) = 0 ie E F s Ku dhM, M iu = 0 d’où E [F (Xt Xs )] = 0 pour tout F Fs -mesurable bornée et
´t
E [F (Xt Xs )] = 0 et E [Xt | Fs ] = XS : (Xt )t est une martingale à variation finie car 0 |Ku | dhM, M iu < +1.
Donc X = 0 ie pour tout t, ˆ t
Ku dhM, M iu = 0
0

d’où K = 0 dans L2 (M ).
Théorème 116. Soit M 2 H. Pour tout H 2 E de la forme
p 1
X
Hs (!) = H (k) (!) 1]tk ,tk+1 ] (s)
k=0

(comme précédemment), on définit le processus H · M par


p 1
X
(H · M )t = H (k) Mtk+1 ^t Mtk ^t
k=0

42
1) L’application H 7! H · M s’étend en une isométrie de L2 (M ) dans H.
2) Le processus H · M est caractérisé par :
ˆ
8N 2 H, hH · M, N i = H · hM, N i = Hs dhM, N is

T
3) Si T est un temps d’arrêt, alors 1[0,T ] H · M = (H · M ) = H · M T .
´t
Définition 117. On note (H · M )t = 0 Hs dMs l’intégrale stochastique.
Démonstration. 1) H · M est bien une martingale, bornée dans L2 , continue : H · M 2 H. H 7! H · M est linéaire.
Il reste à voir la propriété d’isométrie, ie
kH · M kH = kHkL2 (M )
p 1⇣
X ⌘2
hH · M, H · M it = H (k) hM, M it^tk+1 hM, M it^tk .
k=0

2
kH · M kH = E [hH · M, H · M i1 ]
"p 1 #
X⇣ ⌘2
= E H (k) hM, M itk+1 hM, M itk
k=0
ˆ
= E Hs2 dhM, M is

car s 7! hM, M is est continue. Donc


2 2
kH · M kH = kHkL2 (M )2

L’espace d’arrivée H est complet et E est dense dans L2 (M ) donc on peut étendre l’isométrie H 7! H · M à tout
L2 (M ).
2) On vérifie que c’est vrai pour les processus élémentaires. On prend H de la forme habituelle. On a :
p 1
X
hH · M, N it = H (k) hM, N it^tk+1 hM, N it^tk
k=0
ˆ t
= Hs dhM, N is
0

et s 7! hM, N is continue donc hH · M, M it = (H · hM, N i)t . Pour voir que le propriété reste vraie pour tout
H 2 L2 (M ), on observe que X 7! hX, N it est continue de H dans L1 . En effet, par l’inégalité de Kunita-Watanabe
108,
1 1
E [|hX, N it |]  E [hX, Xit ] 2 E [hN, N it ] 2
 kXkH kN kH

Si H (n) 2 E est tel que H (n) ! H dans L2 (M ) alors H (n) ·M ! H ·M dans H et donc hH (n) ·M, N it ! hH ·M, N it
dans L1 .

hH · M, N i = lim hH (n) · M, N i
n!+1

= lim H (n) · hM, N i


n!+1
= H · hM, N i

Il reste à vérifier H · hM, N i = limH (n) hM, N i.


 ˆ t⇣ ⌘ ˆ t ⇣ ⌘2 1
2
1
(n) (n)
E H H dhM, N is  E H H dhM, M is E [hN, N it ] 2
0 0
(n)
 H H kN kH
L2 (M )

43
Voyons que si X 2 H est tel que pour tout N 2 H, hX, N i = H · hM, N i alors X = H · M . Dans ce cas, on a

hX H · M, N i, 8N 2 H

On peut prendre N = X H · M et on obtient kX H · M kH = 0 d’où X = H · M .


3) Soit T un temps d’arrêt. Pour tout N 2 H,
T
h(H · M ) , N it = hH · M, N it^T
= (H · hM, N i)t^T
= H1[0,T ] · hM, N i t

T
Donc (H · M ) = H1[0,T ] · M . De la même façon,

hH · M T , N i = H · hM T , N i t
= H · hM, N iT
= H1[0,T ] · hM, N i

Donc H · (M t ) = H1[0,T ] · M .
Remarque. On peut utiliser la propriété 116 2) pour définir l’intégrale stochastique en utilisant le théorème de Riesz.
On peut réécrire cette propriété sous la forme
⌧ˆ · ˆ t
Hs dMs , N = Hs dhM, N is
0 t 0

Proposition 118. Associativité. Soit M 2 H. Si K 2 L2 (M ) et H 2 L2 (K · M ). Alors, HK 2 L2 (M ) et


HK · M = H · (K · M ).
Démonstration. D’après la propriété caractéristique 116 2), on a

hK · M, K · M i = K · hM, K · M i
= K · (K · hM, M i)
= K 2 · hM, M i
ˆ +1 ˆ +1
Donc Hs2 Ks2 dhM, M is = Hs2 dhK · M, K · M is . Comme H 2 L2 (K · M ), on a bien HK 2 L2 (M ). Soit
0 0
N 2 H. On a

h(HK) · M, N i = (HK) · hM, N i


= H · (K · hM, N i)

par associativité de l’intégrale contre les processus à variation finie).

h(HK) · M, N i = H · hK · M, N i

ce qui montre (HK) · M = H · (K · M ).


De manière informelle, ✓ˆ ◆
ˆ t · ˆ t
Hs d Ku dMu = Hs Ks dMs
0 0 s 0

On a aussi
⌧ˆ · ˆ · ˆ t ✓⌧ ˆ · ◆
Hs dMs , Ks dNs = Hs d M, Ku dNu
0 0 t 0 0 s
ˆ t ✓ˆ · ◆
= Hs d Ku dhM, N iu
0 0 s
ˆ t
= Hs Ks dhM, N is
0

44
Pour tout M, N 2 H et H 2 L2 (M ) , N 2 L2 (N ),
⌧ˆ · ˆ · ˆ t
Hs dMs , Ks dNs = Hs Ks dhM, N is
0 0 t 0
h´ i
t
Comme H · M est une martingale bornée dans L2 : E 0
Hs dMs = 0. Si s  t,
ˆ t ˆ s
E Hu dMu | Fs = Hu dMu
0 0
"✓ˆ ◆2 # ˆ
t t
E Hu dMu =E Hs2 dhM, M is
0 0

et plus généralement, ✓ˆ ◆ ✓ˆ ◆ ˆ


t t t
E Hs dMs Ks dNs =E Hs Ks dhM, N is
0 0 0

Extension de l’intégrale stochastique


Soit M une martingale locale issue de 0. On note L2loc (M ) l’espace des processus progressifs
h´ H tels que, presque
i
´t 2 +1
sûrement, 8t 0, 0 Hs dhM, M is < +1. On note L (M ) l’espace des processus tels que E 0 Hs2 dhM, M is <
2

+1.
Théorème 119. Soit M martingale locale issue de 0. pour tout H 2 L2loc (M ), il existe une unique martingale
locale H · M tel que, pour tout N martingale locale,

hH · M, N i = H · hM, N i

Si T est un temps d’arrêt, on a :


T
1[0,T ] H · M = (H · M ) = H · M T
Si K 2 L2loc (M ) et L 2 L2loc (K · M ) , alors HK 2 L2loc (M ) et

(HK) · M = H · (K · M )

Si M 2 H, alors H · M coïncide avec la définition précédente.


⇢ ˆ t n o
´t
Démonstration. Soit Tn = inf t 0, 1 + Hs2 dhM, M is n  inf t 0, 0
Hs2 dhM, M is n ou hM, M it n .
0
Presque sûrement, Tn ! +1 , temps d’arrêt.
n!+1

hM Tn , M Tn i = hM, M it^Tn  n

donc M Tn 2 H. ˆ +1 ˆ Tn
Hs2 dhM Tn , M Tn is = Hs2 hM, M is  n
0 0

donc H 2 L2 M Tn . L’intégrale stochastique H · M Tn est bien définie. Si m > n,


Tn
H · M Tm = H · M Tm ^Tn = H · M Tn
T T
Donc il existe un unique processus H · M tel que (H · M ) n = H · M Tn . On sait que (H · M ) n est une martingale
uniformément intégrable et Tn % +1 donc H · M est une martingale locale. Soit N une martingale locale, qu’on
suppose issue de 0 sans perte de généralité. Soit Tn0 = inf {t 0 | |Nt | n} et on définit Sn = Tn ^ Tn0 .
Tn
hH · M, N iSn = h(H · M ) , N Sn i
= hH · M Tn , N Sn i
2H 2H
= H · hM Tn , N Sn i

45
par la propriété caractéristique 116 2), d’où

hH · M, N iSn = H · hM Tn , N Sn i
= H · hM, N iSn
Sn
= (H · hM, N i)

On a bien vérifié hH · M, N i = H · hM, N i car Sn ! +1 presque sûrement. De même on montre que si n 2 H,


T T
h(H · M ) n , N i = H · hM Tn , N i caractérise (H · M ) n pour tout n.
Les autres propriétés se démontrent de même par localisation.
Remarque. Par la propriété caractéristique 116 2),

hH · M, H · M i = H · hM, H · M i = H 2 · hM, M i
h´ i ⇣ ⌘2
t t t
Si E 0
Hs2 dhM, M is < +1 alors (H · M ) est une martingale uniformément intégrable et (H · M ) hH ·
M, H · M i aussi. En particulier, on a alors bien
ˆ t
E Hs dMs = 0
0

et "✓ˆ ◆2 # ˆ
t t
E Hs dMs =E Hs2 dhM, M is
0 0

L’égalité n’est pas vraie en générale mais on a toujours :


"✓ˆ ◆2 # ˆ t
t
E Hs dMs E Hs2 dhM, M is
0 0

On peut finalement définir l’intégrale par rapport à une semi-martingale. On dit qu’un processus progressif H
est localement borné si, presque sûrement, pour tout t 0, sup |Hs | < +1. En particulier, tout processus adapté
0st
ˆ t
et continu est localement borné. Si H est localement borné et A est à variation finie, alors Hs |dAs | < +1 et si
0
M est une martingale locale, on a aussi ˆ t
Hs2 dhM, M is < +1
0

ie H 2 L2loc (M ).
Définition 120. Soit X = M + A une semi-martingale où M est une martingale locale et A à variation finie. Pour
tout processus H localement borné, on pose :

H ·X =H ·M +H ·A
ˆ t
(H · X)t = Hs dXs
0

Proposition 121. 1) (HK) · X = H (K · X)


T
2) Pour tout T temps d’arrêt, 1[0,T ] H · X = H · X T = (H · X)
3) Si X est une martingale locale (resp. à variation finie) alors H · X est une martingale locale (resp. à variation
finie).
p 1
X
4) Si Hs = H (k) 1{tk <stk+1 } avec H (k) Ftk -mesurable (pas nécessairement borné) alors
k=0

p 1
X
(H · X)t = H (k) Xt^tk+1 Xt^tk
k=0

46
Démonstration. 1),2),3) découlent des propriétés vues précédemment.
4) n’est pas immédiat car on a enlevé l’hypothèse H (k) bornés. on peut supposer X = M martingale locale issue
de 0, on peut supposer que M est bornée par localisation.
Soit Tn = inf {t 0, |Ht | n} = inf tk , H (k) n . Presque sûrement, Tn ! +1 et
n!1

p 1
X
Hs 1[0,Tn ] = H (k,n) 1{tk <stk+1 }
k=0

et
H (k,n) = H (k) 1{Tn <tk }  n
donc H1[0,Tn ] est un processus élémentaire. On a

(H · M )t^Tn = H1[0,Tn ] · M t
p 1
X
= H (k,n) 1{tk <stk+1 }
k=0

et on conclut en faisant tendre n vers +1.


(n) (n)
Proposition 122. Soit X une semi-martingale et H adapté continu. Soit 0 = t0 < . . . tn = t subdivision dont
le pas tend vers 0. On a
ˆ t n
X1 ⇣ ⌘
Hs dXs = lim Ht(n) Xt(n) Xt(n)
0 n!1 k k+1 k
k=0

au sens de la convergence en probabilité.


Démonstration. X = M + A. La partie faisant intervenir A est OK. Soit
( (n) (n)
(n)
Ht(n) si tk < s  tk+1
Hs = k

0 si s = 0 ou s t

Soit Tp = inf {s p}. H, H (n) et hM, M i sont bornés sur [0, Tp ]. On a :


0, |Hs | + hM, M is
⇣⇣ "ˆ #
⌘ ⌘2 t^Tp ⇣ ⌘2
(n) Tp Tp (n)
E H ·M H ·M t
E Hs Hs dhM, M is
t 0


(n) ´ t^Tp ⇣ (n)
⌘2
Or, Hs Hs ! 0 presque sûrement donc E 0
Hs Hs dhM, M is ! 0 par le théorème de convergence
dominée. Donc lim H (n)
· M Tp
t
= H ·M Tp
t
dans L . 2
n!1
⇣ ⌘
L2
H (n) · M ! (H · M )t^Tp
t^Tp

(P)
De plus, P (Tp > t) ! 1. Donc H (n) · M t
! (H · M )t .
p!1

Remarque. Le résultat n’est pas vrai si on remplace Htk par Htk+1 . Pour le voir, on peut prendre H = X :
X X X 2
Xtk+1 Xtk+1 X tk = Xtk Xtk+1 Xtk + Xtk+1 X tk

donc
X (P)
ˆ t
lim Xtk+1 Xtk+1 X tk = Xs dXs + hX, Xit
0
ˆ t
Xt2 X02 =2 Xs dXs + hX, Xit
0

(cas particulier de la formule d’Itô).

47
5.2 Formule d’Itô
La formule d’Itô est un équivalent du théorème fondamental de l’analyse pour l’intégrale stochastique. On peut
aussi l’interpréter comme une sorte de formule de Taylor pour le calcul stochastique.
Théorème 123. Formule d’Itô.
1) Soit X une semi-martingale et f : R ! R de classe C 2 . Alors,
t t
1
ˆ ˆ
f (Xt ) = f (X0 ) + f 0 (Xs ) dXs + f ” (Xs ) dhX, Xis
0 2 0

2) Plus généralement, si X (1) , . . . , X (p) sont des semi-martingales et F : Rp ! R est C 2 , alors


⇣ ⌘ ⇣ ⌘ @F ⇣ (1)
p ˆ
X t ⌘
(1) (p) (1) (p)
F Xt , . . . , X t = F X0 , . . . , X t + Xs , . . . , Xs(p) dXs(i)
i=1 0
@xi
1 X ˆ t
@ 2 F ⇣ (1) ⌘
+ Xs , . . . , Xs(p) dhX (i) , X (j) is
2 0 @xi @xj
1i,jp

Remarque. En particulier, f (Xt ) est une semi-martingale et la formule d’Itô donne la décomposition.
(n) (n)
Démonstration. On traite d’abord 1). Soit 0 = t0 < . . . < tn = t une suite de subdivision dont le pas tend vers
0.
n
X1 ⇣ ⌘ ⇣ ⌘
f (Xt ) f (X0 ) = f Xt(n) f Xt(n)
k+1 k
k=0

Par la formule de Taylor-Lagrange,


⇣ ⌘ ⇣ ⌘ ⇣ ⌘⇣ ⌘ 1 ⇣ ⌘2
f Xt(n) f Xt(n) = f 0 Xt(n) Xt(n) Xt(n) + f ”n,k Xt(n) Xt(n)
k+1 k k k+1 k 2 k+1 k

où f ”n,k = f ” (zn,k ) pour un zn,k entre Xt(n) et Xt(n) . On a bien :


k k+1

n
X1 ⇣ ⌘⇣ ⌘ (P)
ˆ t
0
f Xt(n) Xt(n) Xt(n) ! f 0 (Xs ) dXs
k k+1 k
k=0 0

Il reste à voir :
n
X1 ⇣ ⌘2 (P)
ˆ t
f ”n,k Xt(n) Xt(n) ! f ” (Xs ) dhX, Xis
k+1 k
k=0 0

Définissons pour m  n,
m
X1 X ⇣ ⌘2
Im,n := f ”m,k Xt(n) Xt(n)
l+1 l
k=0 l:tk
(m)
tl
(n) (m)
<tk+1

On a : ˆ t ˆ t
(P) (P)
Im,n ! hm (s) dhX, Xis ! f ” (Xs ) dhX, Xis
n!1 0 m!1 0
(m) (m)
où hm (s) = f ”m,k si tk  s < tk+1 . En effet, presque sûrement, on a hm (s) ! f ” (Xs ) uniformément sur [0, t]
car presque sûrement, sup |Xs | < +1. On souhaite justifier que

8" > 0, 9n0 2 N : n0  m  n =) P (|Im,n In,n | ")  " (6)

Voyons déjà que (6) suffit⇣pour conclure. ⌘


´t ´t
Pour tout m m1 , P h (s) dhX, Xix
0 m 0
f ” (Xs ) dhX, Xis "  " et on a
ˆ t ˆ t ˆ t ˆ t
In,n f ” (Xs ) dXs  |In,n Im,n |+ Im,n hm (s) dhX, Xis + hm (s) dhX, Xis f ” (Xs ) dhX, Xis
0 0 0 0

48
Reste à montrer (6) :
n
X1 ⇣ ⌘2 m
X1 X ⇣ ⌘2
f ”n,k Xt(n) Xt(n) f ”m,k Xt(n) Xt(n)
l+1 l l+1 l
l=0 k=0 l:tk
(m) (n)
tl <tk+1
(m)

X1 ⇣
n ⌘2
 sup sup |f ”m,k f ”n,k | · Xt(n) Xt(n)
k<ml:t(m) t(n) <t(m) l+1 l
l=0
} | {z }
k l k+1
| {z
ps (P)
!0 ! hX, Xit
n!1

2) On procède de même en utilisant une version de Taylor-Lagrange en multidimensionnel.


Remarque 124. Si on sait par exemple que, presque sûrement, Xt 2 U pour tout t où U est un ouvert de R fixé,
alors il suffit dans la formule [
d’Itô de supposer que F est C 2 sur U . Pour le voir, on prend (Kn )n une suite de
compacts croissante telle que Kn = U , on construit Fn qui est C 2 sur l’espace complet et qui coïncide avec F
n
sur Kn . Par exemple, si Xt > 0 pour tout t 0, alors :
ˆ t t
1 1 1
ˆ
log (Xt ) = log (X0 ) + dXs dhX, Xis
0 X s 2 0 Xs2

5.3 Quelques applications de la formule d’Itô


Exemple 125. F (x, y) = xy on a l’intégration par parties stochastique :
ˆ t ˆ t ˆ t
1
Xt Yt X0 Y0 = Xs dYs + Ys dXs + · 2 dhX, Y is
0 0 2 0
ˆ t ˆ t
= Xs dYs + Ys dXs + hX, Y it
0 0

Si X = M est une martingale locale,


ˆ t
Mt2 hM, M it = M02 + 2 Ms dMs
0
´t ´t ´t ´t
2) tBt = 0 Bs ds + 0 sdBs . 0 Bs ds est à variation finie, 0 sdBs est une martingale.
´t 0 t
3) f (Bt ) = f (B0 ) + 0 f (Bs ) dBS + 12 0 f ” (Bs ) ds
´

4) Soit F : Rt ⇥ Rx ! R est C , 2

ˆ t ˆ t✓ ◆
@F @F 1 @2F
F (t, Bt ) = F (0, B0 ) + (s, Bs ) dBs + + (s, Bs ) ds
0 @x 0 @t 2 @x2
Si B est un brownien multidimensionnel :
d ˆ
X t ˆ t✓ ◆
@F @F 1
F (t, Bt ) = F (0, B0 ) + (s, Bs ) dBs(i) + + F (s, Bs ) ds
i=1 0 @xi 0 @t 2

En particulier, si F est de classe C 2 et @F


@t + 1
2 F vaut 0 sur R+ ⇥ Rd , alors F (t, Bt ) est une martingale locale.
Proposition 126. Martingale exponentielle. Soit M une martingale locale. On pose :
✓ 2

E ( M )t = exp Mt hM, M it
2

où 2 C. Le processus E ( M ) est une martingale locale et de plus,


ˆ t
E ( M ) t = e M0 + E ( M )s dMs
0

49
Remarque. Cela signifie “E ( M ) est solution de dXt = Xt dMt ”
Démonstration. Soit F (x, r) de classe C 2 ,
t ˆ t✓ ◆
@F @F 1 @2F
ˆ
F (Mt , hM, M it ) = F (M0 , 0) + (Ms , hM, M is ) dMs + + (Ms , hM, M is ) dhM, M is
0 @x 0 @f 2 @x2
1 @2F
donc⇣ (F (Mt , hM,
⌘ M it ))t est une martingale locale dès que
@F
@r + 2 @x2 = 0. Cela est bien vérifié pour F (x, r) =
2
exp x 2 r et on a bien la formule annoncée.

Théorème 127. Caractérisation de Paul Lévy du mouvement Brownien.


Soit X = X (1) , . . . , X (d) un processus adapté et continu. Il y a équivalence entre :
1) (Xt )t 0 est une Ft -mouvement brownien standard.
2) X (1) , . . . , X (d) sont des martingales locales issues de 0 et hX (i) , X (j) it = t ij .
Démonstration. “1) =) 2)” OK
“2) =) 1)” Soit ⇠ 2 Rd : ⇠.Xt est une martingale locale et
X 2
h⇠.X, X.⇠it = ⇠i ⇠j hX (i) , X (j) it = |⇠| t
i,j
⇣ ⌘
|⇠|2
exp i⇠.Xt + 2 t est une martingale locale bornée sur [0, t] pour tout t donc c’est une martingale :
" ! # !
2 2
|⇠| |⇠|
E exp i⇠.Xt + t | Fs = exp i⇠.Xs + s
2 2

Autrement dit : !
2
|⇠|
E [exp (i⇠. (Xt Xs )) | Fs ] = exp (t s)
2

On a que (Xt Xs ) ⇠ N (0, s) et est indépendant de Fs . En effet, soit A 2 Fs tel que P (A) > 0 :
!
2
|⇠|
E [exp (i⇠ (Xt Xs )) | A] = exp (t s)
2

Sous P (· | A), (Xt Xs ) ⇠ N (0, t s) donc E [f (Xt Xs ) | A] = E [f (Xt Xs )]. E [1A f (Xt Xs )] = P (A) E [f (Xt Xs )].
On a bien (Xt Xs ) indépendant de Fs ie c’est un processus continu.
Remarque. Dans la preuve précédente x.y représente le produit scalaire usuel de x et y dans Rd .
Théorème 128. Inégalité de Burkholder-Davis-Gundy.
Soit M une martingale locale issue de 0 et soit Mt⇤ := sup |Ms |. Soit p > 0. Il existe cp et Cp indépendantes de
st
M telles que h p i h p i
p
cp E hM, M i1
2
 E [|Mt⇤ | ]  Cp E hM, M i1
2

Remarque. On peut remplacer “1” par n’importe quel temps d’arrêt T .

Démonstration. (partielle) On montre d’abord la 1ère inégalité pour p 2. on peut supposer M bornée. Sinon, on
pose Tn = inf {t 0, |Mt | n} appliquer le résultat à M Tn et passer à la limite grâce au théorème de convergence
monotone. On applique la formule d’Itô :
ˆ t
1
ˆ
p p 1 p 2
|Mt | = p |Ms | dMs signe (Ms ) dMs + p (p 1) |Ms | dhM, M is
2 0

50
ˆ ·
p 1
M est bornée donc M 2 H et p |Ms | signe (Ms ) dMs est une martingale. Donc
0
ˆ t
p p (p 1) p 2
E [|Mt | ] = 0+ E |Ms | dhM, M is
2 0
p (p 1) h ⇤ p 2
i
 E (Mt ) hM, M it
2
Hölder p (p 1) p h p ip
2
p 1
 E [|Mt⇤ | ] 2
E hM, M it2
2
Par Doob :
p p
E [|Mt⇤ | ]  Cp E [|Mt | ]
p h p ip
2
p 1
 Cp0 E [|Mt⇤ | ] 2
E hM, M it2

On a bien le résultat annoncé.


Montrons l’inégalité inverse pour p 4. Par la formule d’It^p,
ˆ t
Mt2 = 2 Ms dMs + hM, M it
0

0 1
"ˆ p #
h pi t 2
B p C
E hM, M it2  Cp @E [|Mt | ] + E Ms dMs A
0
| {z }
"ˆ ˜ p #
t 4

 Cp E Ms2 dhM, M is
0
⇣ p
hp i⌘
p
 Cp E [|Mt⇤ | ] + E |Mt⇤ | 2 hM, M it4
✓ h 1◆
CS 1 p i2
⇤ p ⇤ p 2
 Cp E [|Mt | ] + E [|Mt | ] E hM, M it 2

Or x2  Cp y 2 + xy =) 9C, x  C.y.
Théorème 129. Girsanov. Soit L une martingale locale issue de 0 et
✓ ◆
1
E (L) = exp L hL, Li
2

On suppose que E (L) est une martingale uniformément intégrable ( =) E [E (L)1 ] = 1). On pose,

dQ = E (L)1 dP

Si M est une P-martingale locale alors M hM, Li est une Q- martingale locale.
Démonstration. On note E = E (L) et F l’espérance par rapport à Q.
T
Première étape : si X est un processus adapté continu et T un temps d’arrêt tel que (XE ) est une P-martingale,
alors X est une Q-martingale.
T

a.

F [|Xt^T |] = E [|Xt^T | E1 ]
= E [|Xt^T | Et^T ]
= E [|(XE )t^T |] < +1

b. Soit A 2 Fs et s < t, On a
⇥ ⇤ ⇥ ⇤
F 1A\{T s} Xt^T = F 1A\{T s} Xs^T

51
De plus,
⇥ ⇤ ⇥ ⇤
F 1A\{T >s} Xt^T = E 1A\{T >s} Xt^T E1
⇥ ⇤
= E 1A\{T >s} Xt^T Et^T
⇥ ⇤
= E 1A\{T >s} Xs^T Et^T
⇥ ⇤
= E 1A\{T >s} Xs^T E1
⇥ ⇤
= F 1A\{T >s} Xs^T

En résumé, F [1A Xt^T ] = F [1A Xs^T ] pour tout A 2 FS donc on a bien

F [Xt^T | Fs ] = Xs^T

Etape 2 : Soit M une P-martingale locale et soit M̃ = M hM, Li. On veut vérifier que M̃ E est une P-martingale
locale (cf étape 1). Par la formule d’Itô,
ˆ ˆ t ˆ t
M̃t Et = M̃0 E0 + M̃s dEs + Es dMs Es dhM, Lis + hM, E it
0 0
´t
On veut que 0 Es dhM, Lis hM, E it = 0 ! On va vérifier que hM, N i = E 1 · hM, E i.
´t
Etape 3 : Lt = 0 Es 1 dE s . En effet, Et > 0pour tout t et continu donc on peut appliquer la formule d’Itô
“généralisée” évoquée dans la remarque 124 :
ˆ t
dEs 1 t dhE , E is
ˆ
log (Et ) = log (E0 ) +
0 Es 2 0 Es2
1
= 0 + Lt hL, Lit
2
Par égalité des parties “martingales locales”, on a bien
t
dEs
ˆ
Lt =
0 Es

donc L = E 1
· E et hM, E 1
·Ei = E 1
· hM, E i.
Remarque. Pour utiliser le théorème, il faut pouvoir vérifier que E (L) est une martingale uniformément intégrable.
E (L) martingale locale 0 donc surmartingale 0 sont converge vers E (L)1 . Par le lemme de Fatou

E [E (L)1 | Ft ]  E (L)t

Si E [E (L)1 ] = 1 = E [E (L)0 ] = E [E (L)t ]. Alors, on a E [E (L)1 | Ft ] = E (L)t et donc (E (L)t ) est une martingale
uniformément intégrable. En résumé, il suffit de vérifier que E [E (L)1 ] = 1 pour assurer que E (L) est une martingale
uniformément intégrable.
Proposition
⇥ 130. Soit ⇤L une martingale locale issue de 0. Considérons les propriétés :
i) E exp 12 hL, Li1 < +1 ⇥ ⇤
ii) L est une martingale uniformément intégrable et E exp 12 L1 < +1
iii) E (L) est une martingale uniformément intégrable.
On a 1) =) 2) =) 3)
Démonstration. “1) =) 2)” On a E [hL, Li1 ] < 1 donc L est une martingale bornée dans L2 donc uniformément
1 1
intégrable. exp 1
2 L1 = E (L)1
2
exp 12 hL, Li1 2 par Cauchy-Schwarz.
 ✓ ◆  ✓ ◆
1 1 1
E exp L1  E [E (L)1 ] 2 E exp hL, Li1
2 2
 ✓ ◆
1
 E exp hL, Li1
2
< +1

52
“2) =) 3)” On suppose que L est une martingale uniformément intégrable donc pour tout temps d’arrêt,
LT = E [L1 | FT ]. Par Jensen,
✓ ◆  ✓ ◆
1 1
exp LT  E exp L1 | FT
2 2
⇥ ⇤ (a)
E exp ⌘ < +1 donc exp , T temps d’arrêt est uniformément intégrable. Soit 0 < a < 1 et Zt
1 1
⇣ 2 L1 2 LT =
a
exp 1+a Lt .

a2
E (aL)t = E (L)t exp a a2 Lt
⇣ ⌘1 a 2
a2 (a)
= E (L)t Zt

On veut montrer que E (aL) est une


⇥ martingale uniformément
⇤ intégrable. il suffit de voir que {E (aL)T , T temps d’arrêt}
est uniformément intégrable (E E (aL)Tn ^t | Fs = E (aL)Tn ^s ). Soit A un ensemble mesurable. Par Hölder,
h i1 a2
a2 (a)
E [1A E (aL)T ]  E [E (L)T ] E 1A Zt
h i1 a 2
(a)
 E 1A Z t
n o
(a)
Pour justifier {E (aL)T , T temps d’arrêt} est uniformément intégrable, il suffit de voir que ZT , T temps d’arrêt
est uniformément intégrable. C’est vrai car 1+a
1
 12 et exp 12 LT , T temps d’arrêt est uniformément intégrable.
Donc on a bien que E (aL) est une martingale uniformément intégrable. On a :

1 = E [E (aL)1 ]
 ✓ ◆ 1 a2
Hölder a2 a
 E [E (L)1 ] · E exp L1
| {z } 1+a
| {z }
! E [E (L)1 ] !1
a!1 a!1

On a bien E [E (L)1 ] = 1.
2
Corollaire 131. Soit b : R+ ⇥ R ! R et telle que sup |b (t, x)| dt < +1. Soit B un mouvement brownien et
´
x
´t
Lt = 0 b (s, Bs ) dBs .
✓ˆ t ◆
1 t 2
ˆ
E (L)t = exp b (s, Bs ) dBs b (s, Bs ) ds
0 2 0
(E (L)t )t est une martingale uniformément intégrable. Soit dQ = E (L)1 dP. Alors,

t = Bt hB, Lit
ˆ t
= Bt b (s, Bs ) ds
0

est une Q-martingale locale. De plus,

h , it hB, Bit = t

donc est un Q-mouvement brownien.

Démonstration. Provient de la Proposition 130 et du Théorème de Girsanov 129.


On peut reformuler ce résultat en disant que sous Q, il existe un brownien tel que le processus X = B (X
´t
n’est pas un brownien sous Q) satisfait Xt = t + 0 b (s, Xs ) ds, soit “dXt = d t + b (t, Xt ) dt”. On a donc résolu
une équation différentielle stochastique.

53
´ +1 ´t
Si b ne dépend pas de x : b (t, x) = g (t) avec 0 g 2 (t) dt < 1. Posons h (t) = 0 g (s) ds. h 2 H 1 . Sous
´1 1
dQ = exp 0 g (s) dBs 12 0 g 2 (s) ds dP, le processus t = Bt h (t) est un mouvement brownien sous Q.
´

Autrement, dit, si est une fonction mesurable positive sur C (R+ , R), alors
⇣ ⇣ ⌘⌘
F (Bt )t 0 = F [ ( + h)]
✓ˆ +1 ˆ +1 ◆
1
, E [ (B)] exp g (s) dBS g 2 (s) ds = E [ (B + h)]
0 2 0

Pour h de la forme choisie, on a donc que la loi de B + h est absolument continue par rapport à la loi de B avec
une densité explicite. En fait, cette propriété d’absolue continuité implique aussi que h est de la forme donnée (cf.
Théorème de Cameron-Martin).
Conséquence : Loi du temps d’atteinte d’une droite par le brownien.
Soit B un brownien, a >⇣ 0 et ⌘Ta = inf {t 0, Bt = a}. Soit c 2 R et Sa = inf {t 0, Bt = a ct}. La loi de
a2
´s ´s
Ta a pour densité p2⇡s
a
3
exp 2s 1{s 0} . Soit (w) 1⇢ et h (s) = 0 c1{ut} du =: 0 g (u) du. On a bien
maxw a
[0,t]
´ +1 2
0
g (u) du < 1.
P (Sa  t) = E [ (B + h)]
 ✓ˆ +1 ◆
1 +1 2
ˆ
= E (B) exp g (s) dBs g (s) ds
0 2
2 3 0
✓ ◆
1 2 5
= E 41{Ta t} exp cBt c t
| {z } 2
| {z }
FTa -mesurable martingale
 ✓ ◆
c2
= E 1{Ta t} exp cBTa ^t (Ta ^ t)
2
 ✓ 2

c
= E 1{Ta t} exp ac Ta
2
ˆ t ✓ 2 ◆
a a c2
= p exp + ac s ds
0 2⇡s3 2s 2
ˆ t ✓ ◆
a 1 2
= p exp (a cs) ds
0 2⇡s 3 2s
| {z }
densité de la loi de Sa

6 Equations différentielles stochastiques


On cherche à donner un sens à l’équation différentielle y 0 = f (y) + bruit où le “bruit” est induit par une mécon-
naissance de certains phénomènes microscopiques ou l’absence de données microscopiques qui rend la modélisation
“simplifiée” y 0 = f (y) d’un système physique insatisfaisante.
Définition 132. Soient , b = R+ ⇥ R ! R continue et B un mouvement brownien. On dit que le processus continu
adapté X est solution de l’équation différentielle stochastique
(
dXt = (t, Xt ) dBt + b (t, Xt ) dt
X0 = x
ˆ t ˆ t
si, pour tout t 0, Xt = x + (s, Xs ) dBs + b (s, Xs ) ds.
0 0

On appelle “dérive” de l’EDS la b (t, Xt ).


Exemple 133. Un processus dont la fluctuations et la dérive est proportionnelle à la taille : soit 0 , b0 2 R,
(
dXt = 0 Xt dBt + b0 Xt dt
X0 = x > 0

54
Si 0 = 0, Xt = x.exp⇣(b0 t). ⌘ 2
Si b0 = 0, Xt = x.exp 2 t 0 Bt
0

⇣ ⇣ 2
⌘⌘
On peut espérer que Xt = x.exp 0 Bt + b0 2
0
t . Dans ce cas, la formule d’Itô donne :

t ˆ t✓ 2
◆ t
1
ˆ ˆ
0 2
Xt = x+ 0 Xs dBs + b0 Xs ds + 0 Xs ds
0 0 2 2 0
ˆ t ˆ t
= x+ 0 Xs dBs + b0 Xs ds
0 0
⇣ ⇣ ⇣ 2
⌘⌘⌘
donc x.exp 0 Bt + b0 2
0
t est bien une solution de l’EDS.
t
Xt e b0 t
est une vraie martingale donc E [Xt e
t
t0 t
] = x soit E [Xt ] = xeb0 t .
ps ps
Si 2
0 > b0 , comme Btt ! 0, on a Xt ! 0.
t!1 t!1

Exemple 134. Processus de Ornstein-Uhlenbeck. On étudie l’EDS


(
dXt = dBt Xt dt
X0 = x

On sait que la solution de L’EDO dYt = Yt dt est Yt = Y0 e t . On veut faire une sorte de méthode de variation de
la constante : on pose Zt = et Xt . Alors, par la formule d’Itô :

dZt = et dXt + et Xt dt
= et (dBt Xt dt) + et Xt dt
= et dBt
ˆ t
Zt = x+ es dBs
0
ˆ t
Xt = et x + e (t s) dBs
0
| {z }
✓ ◆
1 2t
⇠ N 0, 1 e
2
ˆ ⇣ q ⌘ y2
donc E [f (Xt )] = f e t x + 12 (1 e 2t )y · ep 2
2⇡
. (Xt )t est appelé le processus de Ornstein-Uhlenbeck.

Lemme 135. Lemme de Gronwall. Soit T > 0 et soit g positive mesurable, bornée sur [0, T ] telle qu’il existe a 0
et b 0 tels que pour tout t  T ,
ˆ t
g (t)  a + b g (s) ds
0

Alors, pour tout t  T ,

g (t)  a.exp (bt)

55
Démonstration. On a
ˆ t
g (t)  a+b g (s) ds
0
ˆ t✓ ˆ s1 ◆
 a+b a+b g (s2 ) ds2 ds1
0 0
ˆ t ˆ s1 ✓ ˆ s2 ◆
 a + abt + b2 ds1 ds2 a + b g (s3 ) ds3
0 0 0
..
.
2 n t sn
(bt) (bt)
ˆ ˆ
 a + a (bt) + a + ... + a + bn ds1 . . . dsn+1 g (sn+1 )
2 n! 0 0
2 n n+1
(bt) (bt) t
 a + a (bt) + a + ... + a + kgk1 bn
2 n! (n + 1)!

On passe à la limite :

g (t)  a.exp (bt) + 0

Remarque. 1) kgk1 n’apparaît pas dans la conclusion.


´t
2) g (t)  0 g (s) ds =) g = 0.
´t
3) Par contre, g (t)  0 g ↵ (s) ds pour ↵ < 1 n’implique pas g = 0. Le lemme est donc, en un certain sens,
optimal.
Théorème 136. Soit B un mouvement brownien. Soient , b : R+ ⇥ R ! R continues et lipschitziennes en la
seconde variable, i.e. il existe K tel que pour tout 8t, x, y,

| (t, y) (t, x)|  K |x y|

|b (t, x) b (t, y)|  K |x y|

Alors, il existe un et un seul processus continu adapté solution de l’EDS


(
dXt = (t, Xt ) dBt + b (t, Xt ) dt
.
X0 = x

Démonstration. Unicité. Soient X, X 0 deux solutions de l’EDS. Soit ⌧ = min {inf {t 0, |Xt | n} , inf {t 0, |Xt0 | n}}.
Alors,
ˆ t^⌧ ˆ t^⌧
Xt^⌧ = x + (s, Xs ) dBs + b (s, Xs ) ds
0 0

ˆ t^⌧ ˆ t^⌧
0
Xt^⌧ Xt^⌧ = ( (s, Xs ) (s, Xs0 )) dBs + (b (s, Xs ) b (s, Xs0 )) ds
0 0

56
"✓ˆ ◆2 # "✓ˆ ◆2 #
h i t^⌧ t^⌧
0 2
E |Xt^⌧ Xt^⌧ |  2E ( (s, Xs ) (s, Xs0 )) dBs + 2E (b (s, Xs ) b (s, Xs0 )) ds
0 0
ˆ "✓ˆ ◆2 #
Itô t^⌧
2
t^⌧
 2E ( (s, Xs ) (s, Xs0 )) dhB, Bis + 2E (b (s, Xs ) b (s, Xs0 )) ds
0 0
ˆ "
✓ˆ t^⌧ ◆
t^⌧
2 1
 2E ( (s, Xs ) (s, Xs0 )) dhB, Bis + 2 (t ^ ⌧ ) E 0
(b (s, Xs ) b (s, Xs )) ds
0 t^⌧ 0
ˆ " ✓ˆ t^⌧ ◆2 #
t^⌧
2 1
 2E ( (s, Xs ) (s, Xs0 )) dhB, Bis + 2t.E 0
(b (s, Xs ) b (s, Xs )) ds
0 t^⌧ 0
ˆ ˆ t^⌧
Jensen t^⌧
2 2
 2E ( (s, Xs ) (s, Xs0 )) dhB, Bis + 2t.E (b (s, Xs ) b (s, Xs0 )) ds
0 0
Lipschitz ˆ t^⌧ ˆ t^⌧
2 2
 2K 2 .E |Xs Xs0 | ds + 2tK 2 .E |Xs Xs0 | ds
0 0
ˆ t ˆ t
0 2 0 2
 2K 2 .E |Xs^⌧ Xs^⌧ | ds + 2tK .E 2
|Xs^⌧ Xs^⌧ | ds
0 0
ˆ t
0 2
 2K 2 (1 + t) |Xs^⌧ Xs^⌧ | ds
0

2
donc |Xt^⌧ Xt^⌧0
| = 0 pour tout t. On fait tendre n ! +1 et on obtient Xt = Xt0 pour tout t.
Existence : On utilise la méthode d’itérations de Picard. On construit par récurrence la suite (X n )n : Xt0 = x
´t ´t
et Xtn+1 = x + 0 (s, Xsn ) dBs + 0 b (s, Xsn ) ds. Par récurrence on montre que pour tout n, X n est continu est
adapté. On construit une solution sur [0, T ]. Voyons d’abord qu’il existe Cn tel que
h i
2
supE (Xtn )  Cn
tT

Pour n = 0, c’est clair. Il existe C tel que pour tout t  T et pour tout x,
2
⇣ ⌘
2
(t, x)  C 1 + |x|
2
⇣ ⌘
2
b (t, x)  C 1 + |x|

car t 7! (t, 0) est continue donc bornée sur [0, T ] blabla...


"✓ˆ ◆2 # "✓ˆ ◆2 #
h i t t
n+1 2 2 n n
E Xt  3 |x| + 3E (s, Xs ) dBs + 3E b (s, Xs ) ds
0 0
ˆ t ˆ t
2 2
 3 |x| + 3E (s, Xsn ) ds + 3T E b2 (s, Xsn ) ds
0 0
2
 3 |x| + 3T C (1 + Cn ) + 3T 2 C (1 + Cn ) =: Cn+1
ˆ t 
1 2
Donc pour tout n, (s, Xsn ) dBs est une martingale. Posons gn (t) = E sup Xsn Xsn . Alors,
0 st

ˆ t ˆ t
Xtn+1 Xtn = (s, Xsn ) s, Xsn 1 dBs + b (s, Xsn ) b s, Xsn 1
ds
0 0

57
donc
2 !2 3 2 !2 3
ˆ ˆ
gn+1 (t)  2E 4sup (s, Xsn ) s, Xsn 1
dBs 5 + 2E 4sup b (s, Xsn ) b s, Xsn 1
ds 5
t 0 t 0
"✓ˆ 2 !2 3
◆2 #
Doob t ˆ
 8E (s, Xsn ) s, Xsn 1
dBs + 2E 4sup b (s, Xsn ) b s, Xsn 1
ds 5
0 t 0
"✓ˆ 2 !2 3
t ◆2 #
1
ˆ
 8E (s, Xsn ) s, Xsn 1
dBs + 2E 4sup b (s, Xsn ) b s, Xsn 1
ds 5
0 t 0
"✓ˆ 2 !2 3
t ◆2 #
1
ˆ
 8E (s, Xsn ) s, Xsn 1
dBs + 2tE 4sup b (s, Xsn ) b s, Xsn 1
ds 5
0 t 0
"✓ˆ ◆2 # " !#
Jensen t ˆ
2
 8E (s, Xsn ) s, Xsn 1 dBs + 2tE sup b (s, Xsn ) b s, Xsn 1 ds
0 t 0
" #
Lipschitz ˆ t ˆ
2
2 2
 8K gn (s) ds + 2tK E sup Xsn Xsn 1 ds
0 t 0
ˆ t ˆ t
1 2
 8K 2 gn (s) ds + 2tK 2 E Xsn Xsn ds
0 0
Fubini
ˆ t ˆ t h i
2 2 1 2
 8K gn (s) ds + 2tK E Xsn Xsn ds
0 0
ˆ t ˆ t
 8K 2 gn (s) ds + 2tK 2 gn (s) ds
0 0
ˆ t
 2K 2 (4 + t) gn (s) ds
0
ˆ t
 CT gn (s) ds
0
+1
X
n 1
On vérifie que supg1 (t)  C̃. On peut alors montrer par récurrence que gn (t)  C̃ (C T t)
(n 1)! . En particulier, gn (T ) 2 < +1,
tT n=0
+1
X
soit sup Xsn Xsn 1
< +1 presque sûrement. Donc, presque sûrement, la suite (Xsn , s 2 [0, T ])n converge uni-
n=1 sT
formément. Notons X la limite. X est continu et adapté.
 1
2
+1
X 1
n 2
E sup |Xs Xs |  gk (T ) 2 ! 0
sT n!1
k=n
On a
ˆ t ˆ t
Xtn+1 = x+ (s, Xsn ) dBs + b (s, Xsn ) ds
0 0
´t L2 ´t ´t L2 ´t
Or, 0
(s, Xsn ) dBs ! 0
(s, Xs ) dBs , 0 b (s, Xsn ) dBs ! 0 b (s, Xs ) dBs . Ainsi, pour tout t, on a bien
n!1 n!1
(
dXt = (t, Xt ) dBt + b (t, Xt ) dt
presque sûrement.
X0 = x

Si B et B 0 sont deux browniens (éventuellement sur des espaces de probabilité différents) et si X et X 0 sont
solutions des EDS respectives
( (
dXt = (t, Xt ) dBt + b (t, Xt ) dt dXt0 = (t, Xt0 ) dBt0 + b (t, Xt0 ) dt
et
X0 = x X00 =x

58
Sous les hypothèses du théorème précédent, le couple (X, B) a la même loi que le couple (X 0 , B 0 ). X est une fonction
mesurable de B ! De même X n et X 0n (construits comme dans la preuve précédente) ont la même loi pour tout n.
Si on note (Xtx )t 0 la solution partant de x, il n’est pas évident que x 7! (Xtx )t est continue.
Théorème 137. Soient , b continues, lipschitziennes par rapport à la seconde variable. Alors, il existe Fx :
C (R+ , R) ! C (R+ , R) mesurable telle que
i) w 7! (Fx (w))t est Ft -mesurable
ii) Pour tout w 2 C (R+ , R), l’application x 7! Fx (w) est continue.
iii) Si B est un brownien, la solution de l’EDS
(
dXt = (t, Xt ) dBt + b (t, Xt ) dt
X0 = x

est donnée par X = Fx (B).


De plus, si U est une variable aléatoire F0 -mesurable alors la solution avec condition initiale X0 = U est donnée
par X = FU (B).
Proposition 138. Soient , b continues, lipschitziennes par rapport à la seconde variable et (Xtx )t solution de
l’EDS (
dXt = (t, Xt ) dBt + b (t, Xt ) dt
X0 = x
Alors, pour tout T > 0, pour tout p 1, il existe C tel que

p p
E sup |Xtx Xty |  C |x y|
tT

p p
E sup |Xtx |  C |x|
tT

Démonstration. Soit Tn = min (inf {t 0, |Xtx | n} , inf {t 0, |Xty | n}). Soit p 2.


 " p#
ˆ s^Tn
x y p p
E sup Xs^T n
Xs^T n
 Cp |x y| + E sup ( (u, Xux ) (u, Xuy )) dBu
sT st 0
" p #!
ˆ s^Tn
+E sup (b (u, Xux ) b (u, Xuy )) du
st 0
0 2 p 3
BDG t^Tn 2
ˆ
p 2
 C˜p @|x y| + E 4sup ( (u, Xux ) (u, Xuy )) du 5
st 0
" p #!
ˆ s^Tn
+E sup (b (u, Xux ) b (u, Xuy )) du
st 0
0 2 p 3
Jensen t^Tn 2
ˆ
p 2
 Cp @|x y| + E 4sup ( (u, Xux ) (u, Xuy )) du 5
st 0
"ˆ #!
t^Tn
p
+E |(b (u, Xux ) b (u, Xuy ))| du
0
"ˆ #!
t^Tn
p p
 Cˆp |x y| + E |Xux Xuy | du
0
✓ ˆ t ◆
p y p
 Cˆp |x y| + E x
Xu^T n
Xu^T n
du
0
✓ ◆
Fubini ⇥ x t ⇤
ˆ
p y p
 Cˆp |x y| + E Xu^T n
X u^Tn du
0
✓ ˆ t  ◆
p y p
 ˆ
Cp |x y| + x
E sup Xs^Tn Xs^Tn du
0 sT

59

y p p
Ainsi, d’après le lemme de Gronwall, il existe C (T, p, K)telle que E sup Xs^T
x
n
Xs^T n
 C |x y| . On
sT

p p
obtient le résultat annoncé en passant à la limite n ! 1. Pour montrer E sup |Xtx |  C |x| , on procède de la
tT
même manière.
Attention ! Le dernier résultat n’est pas une conséquence du premier avec y = 0 !
⇣ ⌘
Définition 139. On dit que X̃ est une modification de X si pour tout t, P Xt = X̃t = 1.

Définition 140. On dit qu’une fonction est ↵-Hölder si et seulement si il existe C telle que pour tout x, y ,

|f (x) f (y)|  C |x y| .

Théorème 141. Critère de continuité de Kolmogorov. Soit I ⇢ R intervalle borné et X = (Xt )t2I une famille de
de variable aléatoire à valeurs dans un espace métrique (E, d) complet. S’il existe q, ", C > 0 telles que, pour tout
q 1+"
s, t 2 I, E [d (Xs , Xt ) ]  C |t s| , alors il existe une modification X̃ de X telle que X̃ est presque sûrement
↵-Hölder pour tout ↵ < q . En particulier, X̃ est continu.
"

Démonstration. Mettons que I = [0, 1] pour simplifier la notation et D = {dyadiques}.

Tchebytchev C 1+"
P (d (Xs , Xt ) a)  |t s|
aq
Si on prend ↵ < q" ,
⇣ ⇣ ⌘ ⌘
n↵
P d X 2in , X i+1
n
2  C2n↵q 2 n(1+")
2

2n
!
[1 n ⇣ ⌘ o
n↵ n(" ↵q)
P d X 2in , X i+1
n
2  C
2
i=0

On a bien " ↵q > 0. Par le lemme de Borel-Cantelli, presque sûrement, ✓ il existe


◆ n0 tel que pour tout n n0 , on a
⇣ ⌘ d X i ,X i+1
d X 2in , X i+1  2 n↵ pour tout i < 2n . Si on pose K := sup sup 2n
2 n↵
2n
. On a K < +1 presque sûrement
2n n
⇣ ⌘ n i<2

et pour tout n, pour tout i < 2n , d X 2in , X i+1


n
 K2 n↵ . Par le lemme 142, on a pour tout s, t 2 D,
2


d (Xs , Xt )  K̃ |t s|

avec K̃ < +1 presque sûrement. En particulier, X est uniformément continu sur d. E est complet donc on peut
étendre X par continuité de manière unique. On pose X̃ cette extension. Alors,
X̃ est ↵-Hölder
q
X̃ est une modification de X. En effet, pour tout t 2 D, X̃t = Xt et on a E [d (Xs , Xt ) ] ! 0. X̃s =
s!t, s2D
(P) ps
Xs ! Xt et X̃s est continu donc X̃s ! X̃t donc Xt = X̃t presque sûrement.
s!t, s2D s!t, s2D

Lemme 142. Si f est telle que pour tout n et pour tout i < 2n ,
✓ ✓ ◆ ✓ ◆◆
i i+1 n↵
d f , f  K2
2n 2n

Alors, pour tout s, t 2 D = {dyadiques}, d (f (s) , f (t))  CK |t s| .
Remarque. On a montré

p p
E sup |Xsx Xsy |  C |x y|
st

60
On veut utiliser le critère de continuité de Kolomogorov. On munit C (R+ , R) de la topologie de la convergence
uniforme sur tout compact :
X ✓ ◆
0 0
d (w, w ) = ↵k sup |w (s) w (s)| ^ 1
sk
P
avec ↵k > 0 et ↵k < +1.
⇣X ⌘p 
x y p
Jensen 1 X p
E [d (X , X ) ]  ↵k ↵k E sup |Xsx Xsy |
sk
p
 C |x y|

pourvu
⇣ ⌘ qu’on choisisse ↵k & 0 assez vite. Le théorème d’extension de Kolmogorov assure qu’il existe X̃ =
X̃tx modification de X pour tout x et tel que x 7! X̃ x est ↵-Hölder pour tout ↵ < 1 p1 .
x2R,t 0

Théorème 143. Supposons (t, x) = (x) et b (t, x) = b (x) lipschitziennes et (Xtx )t solution de l’EDS
(
dXt = (t, Xt ) dBt + b (t, Xt ) dt
X0 = x

Alors, (Xtx )t est un processus de Markov dont le semi-groupe d’évolution est donné par Pt f (x) = E [f (Xtx )].
Démonstration. Soit f mesurable bornée sur Rd . On veut voir que E [f (Xt+s ) | Fs ] = P f (Xs ).
ˆ t+s ˆ t+s
Xt+s = Xs + (Xu ) dBu + b (Xu ) du
s s

On pose Xu0 = Xs+u , Fu0 = Fs+u et Bu0 = Bs+u Bs (mouvement brownien). X 0 et B 0 sont (Fu0 )u 0 -adaptés et
ˆ t ˆ t
Xt0 = Xs + (Xu0 ) dBu0 + b (Xu0 ) du
0 0

X 0 est donc solution de l’EDS (


dXt0 = (Xt0 ) dBt0 + b (Xt0 ) dt
X00 = Xs (F0 -mesurable)
Donc X 0 = FXs (B 0 ).

E [f (Xt+s ) | Fs ] = E [f (Xt ) | Fs ]
= E [f (FXs (B 0 )t ) | Fs ]
ˆ
= f (FXs (w)t ) dWiener (w)

= Pt f (Xs )

donc
⇥ x

Pt+s f (x) = E f Xt+s
⇥ ⇥ x
⇤ ⇤
= E E f Xt+s | Fs
= E [Pt f (Xsx )] = Ps Pt f (x)

Théorème 144. Sous le mêmes conditions, le processus est de Feller. De plus, son générateur infinitésimal L
satisfait : Cc2 (R) ⇢ D (L ) et pour f 2 Cc2 (R),
1
L f (x) = 2
(x) f ” (x) + b (x) f 0 (x)
2

61
Démonstration. On suppose , b bornés pour simplifier. Si f 2 C0 (R), on doit voir Pt f 2 C0 (R). La continuité est
OK car x 7! Fx (w) est continue. Il faut aussi voir que |Pt f (x)| ! 0
|x|!+1

ˆ t ˆ t
Xtx = x+ (Xsx ) dBs + b (Xsx ) ds
0 0

h i
2
E (Xtx x)  C t + t2

⇥ ⇤
Pt f (x) = E f Xt2

On combine cette estimée avec f ! 0 et c’est bon.


1
A-t-on Pt f (x) ! f (x) ? Oui car X x continu en t = 0. X est don un processus de Feller.
t!
Reste à identifier le générateur : Par la formule d’Itô, pour f 2 Cc2 (R),
ˆ t
1 t
ˆ
f (Xtx ) = f (X0x ) + f 0 (Xs ) dXs + f ” (Xs ) dhX, Xis
0 2 0
ˆ t ˆ t✓ ◆
1 2
= f (x) + f 0 (Xs ) (Xs ) dBs + f ” + f 0 b (Xs ) ds
0 0 2
´t
Rappel : si f (Xt ) 0
g (Xs ) ds est une martingale avec f, g 2 C0 (R) alors f 2 D (L ) et L f = g.
Conséquences :
Propriété de Markov forte
Pour u (t, x) = E [f (Xtx )] on a vu que @t u = L u pour tout f 2 D (L ).

Pour finir, un exemple où on a unicité en loi de la solution d’une EDS mais pas unicité presque sûrement :
( ˆ t
1 si x 0
Exemple 145. Soit (x) = et W un brownien. Alors Bt = (Ws ) dWs définit un mouvement
1 si x < 0 0
´t ´t
brownien car hB, Bit = t. Alors Wt = 0 (Ws ) dBs et Wt = 0 ( Ws ) dBs .

Références
[1] Durrett. Probability theory and examples.
[2] Revuz, Yor. Continuous martingales and brownian motions.
[3] Kanatsaz, Shieve. Brownian motions and stochastic calculus.
[4] Le Gall. Mouvements browniens, martingales et calcul stochastiques.

62

S-ar putea să vă placă și