Documente Academic
Documente Profesional
Documente Cultură
Djalil Chafaï
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚2.
Table des matières
Bibliographie 55
3
4 TABLE DES MATIÈRES
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚4.
Quelques aspects des chaînes de
Markov
Ce chapitre est consacré aux chaînes de Markov homogènes à espace d’état au plus dénom-
brable. Leurs trajectoires peuvent se concevoir comme celles de suites récurrentes aléatoires
(Xn ) de la forme Xn+1 = g(Xn , Un ) où les (Un ) sont indépendantes et équidistribuées. Tout
comme les martingales, les chaînes de Markov sont des suites de variables aléatoires caracté-
risées par une forme particulière de dépendance, qui leur confère des propriétés remarquables,
et un rôle important en modélisation. Les chaînes de Markov ont été introduites par Andrei
Andreyevich Markov vers 1906, à l’âge de cinquante ans, dans son article [23].
Dans toute la suite, un ensemble au plus dénombrable E est toujours muni de la topologie (et
continue (et mesurable) toute fonction f : E → R. Une me-
tribu) de toutes ses parties, qui rend P
sure de Borel µ sur E vérifie µ(A) = x∈A µ(x) pour tout A ⊂ E, où µ(x) := µ({x}) P ∈ R+ . Une
fonction f : E → R est µ-intégrable
R P la somme au plus dénombrable x∈E |f (x)|µ(x)
lorsque
converge, et dans ce cas, E f (x) dµ(x) = x∈E f (x)µ(x). On dit qu’une mesure µ sur E charge
l’état x ∈ E lorsque µ(x) > 0. Les mesures sont toujours supposées non identiquement nulles :
elles chargent donc au moins un état.
La seconde partie du chapitre est consacrée au cas particulier des chaînes de Markov à
espace d’état fini. Leur étude bénéficie de la théorie des matrices.
5
6 TABLE DES MATIÈRES
Noyaux de transition
Soit (Xn ) une chaîne de Markov d’espace d’état E. On appelle noyau de transition de la
chaîne l’application P : E × E → [0, 1] définie pour tout x et y dans E par
P(x, y) := P(X1 = y | X0 = x).
On a également P(Xn+1 = y | Xn = x) = P(x, y) pour tout n ∈ N et tout x et y dans E. En
notant ν := L(X0 ), la définition 0.1.1 entraîne que pour tout n ∈ N et tout x0 , . . . , xn dans E,
n−1
Y
P(Xn = xn , . . . , X0 = x0 ) = ν(x0 ) P(xk , xk+1 ).
k=0
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚6.
0.1. SUITES OU CHAÎNES ? 7
1−p 1−p
n n+1
p p p
Fig. 2 – Zoom sur le graphe des transitions du processus de Bernoulli de l’exemple 0.1.5.
Ainsi, la loi de la suite (Xn ) est entièrement caractérisée par la loi initiale ν := L(X0 ) et le
noyau de transition P. Dans toute la suite, la notation CM(E,ν,P) signifie « chaîne de Markov
d’espace d’état E, de loi initiale ν, et de noyau de transition P ». Chaque couple ν, P définit
de manière unique une loi de probabilité sur E N . Si (Yn ) est une suite de variables aléatoires
sur E de même loi que (Xn ), alors (Yn ) est également une CM(E,ν,P).
Exemple 0.1.3 (Suites récurrentes aléatoires). Le noyau de transition de la chaîne de Markov
(Xn ) de l’exemple 0.1.2 est donné par P(x, y) = P(g(x, U ) = y), pour tout x et y dans E, où
U est une variable aléatoire sur F , de même loi que les (Un )n>1 .
Exemple 0.1.4 (Marche aléatoire simple sur le cercle). Soit d > 0 un entier, et (Yn )n>1 une
suite de variables aléatoires i.i.d. à valeurs dans E := Z/dZ, de loi commune 21 (δ−1 + δ+1 ). Soit
X0 une variable aléatoire de loi ν sur E. La suite (Xn ) définie par la relation de récurrence
Xn+1 := Xn + Yn+1 = X0 + Y1 + · · · + Yn+1 est une CM(E,ν,P) de noyau
(
1
2
si |x − y| = 1 dans Z/dZ
P(x, y) := .
0 sinon
Exemple 0.1.5 (Le processus de Bernoulli du jeu de pile ou face). Soit (Yn )n>1 une suite de
variables aléatoires indépendantes et équidistribuées de loi de Bernoulli pδ1 + (1 − p)δ0 où
p ∈ [0, 1]. Soit B0 une variable aléatoire à valeurs dans N. La suite (Bn )n>0 définie pour tout
n > 1 par Bn := B0 + Y1 + · · · + Yn est une chaîne de Markov d’espace d’état E = N, de loi
initiale L(B0 ), et de noyau de transition P donné pour tout x, y dans N par
p
si y = x + 1
P(x, y) = 1 − p si y = x .
0 sinon
Cette chaîne est appelée processus de Bernoulli. Elle correspond au graphe des transitions de
la figure 2. La variable aléatoire Bn représente le nombre de gains après n lancers à un jeu de
pile ou face avec probabilité de gagner p et fortune initiale B0 . Lorsque p = 1 (resp. p = 0), la
chaîne a une évolution déterministe puisque dans ce cas Bn+1 = Bn + 1 (resp. Bn+1 = Bn ).
La notion de noyau peut être isolée du concept de chaîne.
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚7.
8 TABLE DES MATIÈRES
p1
1 − p0 0 1 1 − p1
p0
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚8.
0.1. SUITES OU CHAÎNES ? 9
Noyaux itérés
Soit (Xn ) une CM(E,ν, P). L’application Pn : E × E → [0, 1] donnée par
Pn (x, y) := P(Xn = y | X0 = x)
est un noyau de transition sur E, vérifiant L(Xn | X0 = x) = y∈E Pn (x, y)δy . D’autre part,
P
Ces formules sont exactement celles du produit matriciel. Ainsi, Pn = PPn−1 = Pn−1 P.
Exemple 0.1.8 (Processus de Bernoulli). Si (Bn ) est la CM(N,ν,P) de l’exemple 0.1.5, alors
L(Bn | B0 = x) est la loi binomiale de paramètre p sur {x, x + 1, . . . , x + n}. Par conséquent,
(
n Cny−x py−x (1 − p)n−(y−x) si 0 6 y − x 6 n
P (x, y) = .
0 sinon
Écritures matricielles
On assimile toute loi ν sur E à un vecteur ligne, et toute fonction f : E → R à un vecteur
colonne. Ainsi, la moyenne de f pour la mesure ν s’écrit
X
νf = f (x)ν(x).
x∈E
On assimile également tout noyau de transition à une matrice. Ainsi, si (Xn ) est une CM(E,ν, P),
alors L(Xn ) = νPn et E(f (Xn )) = νPn f . En effet,
X X
E(f (Xn )) = P(Xn = y)f (y) = ν(x)Pn (x, y)f (y) = νPn f.
y∈E x,y∈E
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚9.
10 TABLE DES MATIÈRES
Notation conditionnelle
Si (Xn ) est une chaîne de Markov sur E, alors pour tout x ∈ E, tout événement A et toute
variable aléatoire Z, on note
Px (A) := P(A | X0 = x) et Ex (Z) := E(Z | X0 = x).
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚10.
0.3. LES CHAÎNES DANS TOUS LEURS ÉTATS 11
Px (Nx = ∞) = Px (Nx = ∞)Px (Tx < ∞) et G(x, y) = H(y, y)Px (Ty < ∞).
Gλ (x, y)
Ex (e−λTy ) = .
1 + Gλ (y, y)
À présent, limλ→0 Gλ (x, y) = G(x, y) par le théorème de convergence dominée, tandis que
limλ→0 Ex (e−λTy ) = Px (Ty < ∞) par le théorème de convergence monotone. Il en découle que
G(x, y)
Px (Ty < ∞) = .
1 + G(y, y)
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚11.
12 TABLE DES MATIÈRES
propriétés utiles. Pour un état récurrent x, la propriété de Markov forte appliquée récursivement
permet de définir une infinité de temps de retours successifs en x, qui délimitent des excursions
de même loi enracinées en x (cela correspond à un système de renouvellement sur N∗ ).
On note ER l’ensemble des états récurrents et ET = E \ ER celui des états transitoires. On
dit que F ⊂ E est clos lorsque Px (TF c < ∞) = 0 pour tout x ∈ F . La chaîne ne s’échappe
jamais d’un ensemble clos. Un état x est dit absorbant (ou point cimetière) lorsque les conditions
équivalentes suivantes sont réalisées : {x} est clos, P(x, x) = 1.
Exemple 0.3.1 (Processus de Bernoulli). Considérons le processus de Bernoulli de l’exemple
0.1.5. Si p > 0, alors tous les états sont transitoires car Px (Tx = ∞) = 1. Si p = 0, tous les
états sont absorbants (la chaîne est constante).
Exemple 0.3.2 (Marches aléatoires sur Z). Une marche aléatoire sur Z est une suite (Xn ) qui
s’écrit Xn+1 = Xn +Yn = X0 +Y1 +· · ·+Yn où (Yn ) est une suite i.i.d. de loi η sur Z. La suite (Xn )
est une chaîne de Markov sur Z de noyau de transition P donné par P(x, y) = η(y − x). Notons
que Pn (x, y) = P(x+Y1 +· · ·+Y
P∞
n
n = y). En particulier, P (x, x) = P(Y1 +· · ·+Yn = 0) = P(0, 0).
Ainsi, H(x, x) = H(0, 0) = n=0 Pn (0, 0). Les états sont donc soit tous récurrents soit tous
transitoires. Lorsque X0 prend ses valeurs dans N et η = (1 − p)δ0 + pδ1 avec p ∈ [0, 1], on
retrouve le processus de Bernoulli de l’exemple 0.1.5. Considérons le cas où η = 12 (δ−1 + δ+1 ).
On dit alors que la marche aléatoire est simple. Comme (Y1 + 1 + · · · + Yn + 1)/2 suit la loi
binomiale B(n, 1/2), on a P2k+1 (0, 0) = 0 et P2k (0, 0) = 2−2k (2k)!/(k!)2 . La formule de Stirling1
conduit à H(0, 0) = ∞, et ainsi tous les états sont récurrents.
Pour tout x et y dans E, on note x → y lorsqu’il existe n ∈ N tel que Pn (x, y) > 0. Cela
signifie que x et y sont reliés par un chemin qui suit les flèches dans le graphe des transitions
de P. On note x ↔ y lorsqu’à la fois x → y et y → x. Avec cette définition, on a toujours
x ↔ x, même lorsque P(x, x) = 0. Si x 6= y, on dit que x mène à y lorsque x → y et que x et
y communiquent lorsque x ↔ y. Si x 6= y, alors x → y si et seulement si H(x, y) > 0. Si x → y
et y 6→ x alors x est transitoire.
Théorème 0.3.3 (Décomposition de l’espace d’état). Pour tout noyau de transition P sur E, la
relation binaire ↔ est une relation d’équivalence qui partitionne l’espace d’état E en une union
disjointe de classes appelées classes irréductibles. La propriété de récurrence est constante sur
√
1
Formule de Stirling : n! ∼ nn e−n 2πn.
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚12.
0.3. LES CHAÎNES DANS TOUS LEURS ÉTATS 13
(y, x)
(x, x) x y (y, y)
(x, y)
Fig. 4 – Transitions possibles entre x et y pour le noyau P. On omet en général les flèches qui
correspondent à des probabilités de transition nulles.
ces classes. Les classes constituées d’états récurrents sont closes et sont appelées classes de
récurrence. Les classes constituées d’état transitoires sont appelées classes transitoires.
En quelque sorte, les ensembles clos, comme par exemple les classes de récurrence, sont
absorbants. Presque sûrement, une chaîne partant d’un état récurrent repasse une infinité de
fois par son état initial, ne s’échappe jamais de sa classe de récurrence, et visite une infinité
de fois tous les états qui constituent cette classe de récurrence. Le cas des états absorbants
est singulier puisque leur classe de récurrence est réduite à eux-même. Presque sûrement, une
chaîne partant d’un état transitoire ne peut repasser qu’un nombre fini de fois par son état
initial, et peut être capturée par une classe de récurrence ou visiter d’autres états transitoires
(un nombre fini de fois pour chacun).
L’ensemble des état transitoires peut être infini, et la chaîne peut ne jamais être capturée
par une classe de récurrence. C’est toujours le cas lorsqu’il n’y a pas d’états récurrents, comme
par exemple pour le processus de Bernoulli avec p > 0. Contrairement aux classes de récurrence,
les classes transitoires peuvent ne pas être closes. Des passages (à sens unique) peuvent exister
entre elles, ainsi que vers les classes de récurrence. Sur le graphe des transitions, les flèches qui
pénètrent dans une classe close proviennent toujours d’états transitoires.
On dit que P est irréductible lorsque E est constitué d’une unique classe, c’est-à-dire lorsque
tous les états communiquent : pour tout x et y, il existe n tel que Pn (x, y) > 0. On dit que P
est récurrent lorsque ET est vide, et transitoire lorsque ER est vide. Ces termes sont également
utilisés, au féminin, pour toute chaîne de Markov de noyau P.
(
(1) une seule classe de récurrence (noyau récurrent)
noyau irréductible
(2) une seule classe transitoire (noyau transitoire)
(3) plusieurs classes de récurrence et aucun état transitoire
noyau réductible (4) au moins une classe de récurrence et des états transitoires
(5) plusieurs classes transitoires
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚13.
14 TABLE DES MATIÈRES
L’étude des classes de récurrence des cas (3-4) se ramène au cas (1). L’étude des classes
transitoires closes des cas (4-5) se ramène au cas (2).
Exemple 0.3.4. Considérons le noyau de transition P sur E = {a, b, c, d} donné par
4 0 0 0
1 0 2 1 1
P := .
4 0 0 1 3
0 0 2 2
L’état a est absorbant et donc récurrent. L’état b est transitoire car b → c mais aucun état de
mène à b. Les états c, d sont récurrents car le temps d’atteinte de c partant de d et de c partant
de d sont tous deux finis presque sûrement (lois géométriques). Ainsi, les classes irréductibles
de P sont {a}, {c, d}, {b}, et seules les deux premières sont closes (et récurrentes).
Remarque 0.3.5 (Le cas i.i.d.). Soit (Xn ) une suite de variables aléatoires i.i.d. de loi µ sur E.
Quitte à remplacer E par {x ∈ E; µ(x) > 0}, on peut supposer que µ(x) > 0 pour tout x ∈ E.
La suite (Xn ) est une chaîne de Markov de loi initiale µ et de noyau de transition P donné par
P(x, y) := µ(y) pour tout x et y. Ce noyau est irréductible car P(x, y) > 0 pour tout x et y.
De plus, Px (Tx = n) = (1 − µ(x))n−1 µ(x) pour tout n > 0, et donc Tx suit une loi géométrique
sur N∗ . En particulier, Px (Tx < ∞) = 1 et Ex (Tx ) = 1/µ(x). Ainsi, P estPrécurrent irréductible.
Notons que Pn (x, y) = µ(y), de sorte que H(x, x) = ∞ n ∞
P
n=0 P (x, x) = n=0 µ(x) = ∞.
Dans le cas i.i.d. de la remarque 0.3.5, la loi initiale se confond avec le noyau. Il important
de comprendre qu’en général, le comportement d’une chaîne de Markov dépend à la fois de la
loi initiale et de la classification des états associée au noyau. Cependant, nous allons voir que
pour certains noyaux, le comportement asymptotique des chaînes associées ne dépend que du
noyau et plus de la loi initiale.
Démonstration. Après avoir identifié E à N, on pose f (u) := min{m ∈ N; ν(0)+· · ·+ν(m) > u}
et g(n, u) := min{m ∈ N; P(n, 0) + · · · + P(n, m) > u} pour tout n ∈ N et u ∈ [0, 1]. Ce sont les
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚14.
0.4. SIMULATION D’UNE CHAÎNE DE MARKOV 15
fonctions de répartition inverses des lois ν et P(n, ·), conformément à la méthode de simulation
par inversion.
Pour simuler récursivement une trajectoire (xn ) d’une CM(E,ν,P), on simule une réalisation
x0 = f (u0 ) de la loi initiale ν, puis le reste de la trajectoire par la formule de récurrence
xn+1 = g(xn , un+1 ). Cela fait envisager les chaînes de Markov comme des suites récurrentes
aléatoires. Le théorème 0.4.1 réduit également la construction effective des CM(E,ν,P) à celle
des suites i.i.d. de loi uniforme sur [0, 1].
On adopte la convention inf ∅ = ∞, de sorte que ces variables aléatoires sont bien définies et
prennent leurs valeurs dans N ∪ {∞}. La suite (Xn ) est constante et égale à XSn sur l’intervalle
de temps aléatoire {m ∈ N; Sn 6 m < Sn+1 }. En vertu de la propriété de Markov forte, la
probabilité P(Sn+1 − Sn = m; XSn+1 = y | XSn = x) vaut P(x, x)m−1 P(x, y) si m > 0 et y 6= x,
et vaut 0 sinon. Il en découle que pour tout état x et tout temps n,
– soit P(x, x) = 1, alors P(Sn+1 = ∞ | XSn = x) = 1 et on dit que x est absorbant;
– soit P(x, x) < 1, alors P(Sn+1 < ∞ | XSn = x) = 1, les variables aléatoires Sn+1 − Sn et
XSn+1 sont indépendantes conditionnellement à {XSn = x}, et de plus
et
P(x, y)
∀y 6= x, P(XSn+1 = y | XSn = x) = .
1 − P(x, x)
On appelle générateur de la chaîne l’application L : E × E → R définie par L := P − I. Il vérifie
L(x, x) = P(x, x)−1 et L(x, y) = P(x, y) si x 6= y. La décomposition en sauts fournit un nouvel
algorithme
P de simulation des trajectoires, basé sur la simulation des deux lois G(−L(x, x)) et
y6=x (−L(x, y)/L(x, x))δy , qui correspondent aux temps des sauts et aux positions des sauts.
Ici, G(p) := p ∞ n−1
δn désigne la loi géométrique sur N∗ de moyenne 1/p. Comparé
P
n=1 (1 − p)
à la méthode de simulation récursive directe, ce nouvel algorithme par sauts est d’autant plus
préférable que les coefficients diagonaux de P sont proches de 1.
Approche matricielle
Dans certains cas, comme par exemple pour le jeu de pile ou face, le noyau itéré Pn possède
une formulation explicite simple. Pour simuler Xn sur l’événement {X0 = x0 } sans passer par
la trajectoire x0 , . . . , xn , il suffit d’utiliser la loi Pn (x0 , ·) sur E. Lorsque E est de cardinal d, le
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚15.
16 TABLE DES MATIÈRES
coût peut être réduit en calculant par récurrence la loi discrète L(Xn ) = νPn par multiplication
du vecteur ligne νPk par la matrice P, pour k = 0, . . . , n. Cela nécessite de l’ordre de nd2
opérations élémentaires.
Les valeurs prises sont respectivement dans [0, 1] et R+ ∪ {∞}. Notons que mF (x) = Ex (TF )
si x 6∈ F . On a toujours uF = 0 et vF = ∞ sur tout ensemble clos G disjoint de F . C’est par
exemple le cas avec avec G = ER \ F lorsque F est une classe de récurrence.
Théorème 0.5.1 (Atteinte et absorption). Soit (Xn ) une CM(E,ν,P), et F ⊂ E.
1. Le vecteur (aF (x))x∈E est solution positive ou nulle minimale2 du système linéaire
(
1 si x ∈ F
aF (x) = P .
y∈E P(x, y)aF (y) si x 6∈ F
Si F est clos, le système s’écrit PaF = aF où aF est pris comme vecteur colonne.
2. Le vecteur (mF (x))x∈E est solution positive ou nulle minimale du système linéaire
(
0 si x ∈ F
mF (x) = P .
1 + y∈E P(x, y)mF (y) si x 6∈ F
Démonstration. L’écriture pour F clos est immédiate. Les deux assertions principales s’éta-
blissent deP la même manière. Il est clair que aF = 1 sur F . Pour tout x 6∈ F , on écrit
x
aF (x) = y∈E P (τ F < ∞ | X1 = y)P(x, y). Or τF > 1 sur {X0 = x} car x 6∈ F , et donc
par la propriété de Markov faible Px (τF < ∞ | X1 = y) = Py (τF < ∞) = aF (y) pour tout y.
Ainsi, aF est bien solution. Si a est une autre solution positive,
P alors a =PaF = 1 sur F . Si
x 6∈ F , alors par par substitutions successives dans a(x) = y∈F P(x, y) + y6∈F P(x, y)a(y),
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚16.
0.5. ATTEINTE, ABSORPTION, HARMONICITÉ, MARTINGALES 17
Seule la somme sur F c intervient dans l’équation vérifiée par vF car vF (x) = 0 si x ∈ F .
Exemple 0.5.2 (Marche aléatoire sur N et ruine du joueur). Soit 0 < p < 1. Considérons un
joueur qui, à chaque étape, peut gagner un Euro avec probabilité p ou perdre un Euro avec
probabilité 1 − p. Le joueur commence le jeu avec une fortune initiale X0 , et cesse de jouer dès
que sa fortune est nulle. La suite (Xn ) est une chaîne de Markov sur N de noyau de transition
P vérifiant P(0, 0) = 1, P(x, x + 1) = p et P(x, x − 1) = 1 − p pour tout x > 0. Une telle
chaîne constitue également une marche aléatoire sur N, tuée en 0. L’ensemble F := {0} est clos
car l’état 0 est absorbant. En vertu du théorème 0.5.1, le vecteur des probabilités d’absorption
u := uF est solution minimale des équations u(0) = 1 et u(x) = pu(x + 1) + (1 − p)u(x − 1)
pour tout x > 0. Supposons que le jeu est équitable, c’est-à-dire que p = 1/2. Les solution de
la récurrence linéaire sont de la forme u(x) = α + βx. Les conditions u(0) = 0 et 0 6 u 6 1
entraînent α = 1 et β = 0. Ainsi, u(x) = 1 pour tout x, ce qui signifie que quelque soit sa fortune
initiale x, le joueur finira ruiné presque sûrement ! Ce modèle tolère des fortunes arbitrairement
grandes au cours du jeu, ce qui n’est pas réaliste.
Théorème 0.5.3 (Martingales). Soit (Xn ) une CM(E,ν,P) et L := P − I son générateur. Si
f : E → R est intégrable pour toutes les lois νPn , alors la suite (Yn ) définie par
n−1
X
Y0 := 0 et Yn := f (Xn ) − f (X0 ) − (Lf )(Xk ) pour tout n > 0
k=0
n
X n
X
Yn = [f (Xk ) − (Pf )(Xk−1 )] = [f (Xk ) − E(f (Xk )|Xk−1 )].
k=1 k=1
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚17.
18 TABLE DES MATIÈRES
La linéarité de l’équation µP = µ entraîne que l’ensemble des mesures invariantes est un cône
convexe : si µ1 et µ2 sont invariantes et si α1 et α2 sont deux réels positifs avec α1 +α2 > 0, alors
la mesure α1 µ1 + α2 µ2 est également invariante. L’ensemble des lois de probabilité invariantes,
lorsqu’il est non-vide, est également convexe (prendre α1 + α2 = 1). Si µ est une mesure
invariante, alors tout multiple de µ est également invariante. En particulier, si µ est invariante
et vérifie µ(E) < ∞ (toujours vrai si E est fini), alors µ(E)−1 µ est une loi invariante.
Un état x est absorbant si et seulement si la masse de Dirac δx est invariante. Plus géné-
ralement, pour tout état récurrent x, on introduit le nombre moyen de passages en y avant le
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚18.
0.6. INVARIANCE ET RÉCURRENCE POSITIVE 19
x −1
TX
!
µx (y) := Ex I{Xn =y} .
n=0
Notons que µx (y) = δx (y) si x est absorbant. De plus, µx (y) > 0 si et seulement si x → y.
Théorème 0.6.5. Si P un noyau de transition récurrent irréductible sur E, alors,
P
1. µx (y) = z∈E µx (z)P(z, x) pour tout x, y ∈ E ;
2. 0 < µx (y) < ∞ pour tout x, y ∈ E.
Cela définit pour tout x ∈ E une mesure µx sur E, invariante pour P, qui vérifie µx (x) = 1.
Théorème 0.6.6 (Mesures invariantes des noyaux irréductibles). Soit (Xn ) une CM(E,ν,P) ir-
réductible. Alors toute mesure invariante µ charge tous les états, et vérifie µ(y) > µ(x)µx (y)
pour tout x et y. De plus, il y a trois cas distincts.
1. P est transitoire. Dans ce cas, µ(E) = ∞ pour toute mesure invariante µ. En particulier,
E est nécessairement infini et il n’y a pas de loi invariante ;
2. P est récurrent. Dans ce cas, pour tout x, la mesure µx est invariante. De plus, les mesures
invariantes sont toutes proportionnelles. Si µ en fait partie, alors µ(y) = µ(x)µx (y) pour
tout x et y. En particulier, µx (y)µy (x) = 1 pour tout x et y.
(a) P est récurrent positif. Dans ce cas, il existe une unique loi de probabilité invariante
µ donnée par µ(x)Ex (Tx ) = 1 pour tout x ;
(b) P est récurrent nul. Dans ce cas, µ(E) = ∞ pour toute mesure invariante µ. En
particulier, E est nécessairement infini, et il n’y a pas de loi invariante.
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚19.
20 TABLE DES MATIÈRES
Démonstration. Soit µ une mesure invariante. Il existe au moins un état z tel que µ(z) > 0.
P y, il existe
Pour tout un entier n tel que Pn (z, y) > 0 car P est irréductible. Il en découle que
µ(y) = x µ(x)Pn (x, y) > µ(z)Pn (z, y) > 0. Ainsi, µ charge tous les états.
P
Soit µ invariante avec µ(x) = 1. La formule µ(y) = µ(x)P(x, x) + z6=x µ(z)P(z, y) utilisée
récursivement conduit pour y 6= x à µ(y) > Px (X1 = y; Tx > 1) + · · · + Px (Xn = y; Tx > n).
Lorsque n → ∞, cela donne µ(y) > µx (y).
Cas où P est récurrent. Si µ est invariante avec µ(x) = 1, alors nous savons que µ > µx ,
et donc µ − µx est une mesure sur E. Or µx est invariante en vertu du théorème 0.6.5, et par
conséquent, (µ − µx )P = (µ − µx ). De plus, µ(x) − µx (x) = 0, ce qui entraîne que µ = µx .
Cas où P est transitoire. Dans ce cas, on a H(x, y) < ∞ pour tout x et y, et donc
limn Pn (x, y) = P0. Supposons que µ(E) < ∞. Le théorème de convergence dominée entraîne
que µ(y) = limn y µ(x)Pn (x, y) = 0 pour tout y, ce qui est impossible. Ainsi, µ(E) = ∞.
Remarque 0.6.7 (Classes closes des noyaux réductibles). Il découle du théorème 0.6.6 que pour
tout noyau de transition, les classes de récurrence positives sont les seules classes irréductibles
closes qui peuvent être finies (elles ne le sont pas toujours). Ce sont les seules classes irréductibles
closes qui portent une loi invariante.
Le théorème 0.6.6 montre que les mesures invariantes liées aux classes de récurrence s’ex-
priment au moyen des quantités trajectorielles moyennes µx (y) et 1/Ex (Tx ). Réciproquement,
la résolution du système linéaire µP = µ fournit les quantités µx (y) et 1/Ex (Tx ). La section sui-
vante renforce ce lien entre trajectoires et mesures invariantes. Pour certains noyaux, le calcul
de Ex (Tx ) est plus simple que la résolution de l’équation µP = µ.
1 n p.s 1
Nx −→ x .
n n→+∞ E (Tx )
Si la chaîne est récurrente irréductible, alors pour tout x, y ∈ E, et quelque soit la loi initiale,
Nxn p.s 1
n
−→ P .
Ny n→+∞ Ex Tx −1
I
n=0 {Xn =y}
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚20.
0.7. LOI FORTE DES GRANDS NOMBRES 21
Démonstration. Fixons x dans E. Si la chaîne est transitoire, alors presque sûrement, le nombre
de passages en x est fini, et donc (Nxn /n) converge vers 0. Si la chaîne est récurrente irréductible,
alors le temps d’atteinte de x est fini presque sûrement, et on peut donc supposer que la chaîne
part de x pour établir les propriétés. De plus, presque sûrement, la suite strictement croissante
(Txn ) des temps de retour successifs en x est bien définie et converge vers ∞. On convient que
n−1 n
Tx0 := 0 et que Tx1 = Tx . Les définitions de (Nxx ) et (Txn ) donnent TxNx 6 n − 1 et n 6 T Nx ,
et par conséquent,
n−1 Nn
TxNx n Tx x
6 n 6 n.
Nxn Nx Nx
La propriété de Markov forte entraîne que la suite (Txn+1 − Txn ) est constituée de variables
aléatoires indépendantes et de même loi que Tx . En vertu de la loi forte des grands nombres, la
suite (Txn /n) converge presque sûrement vers Ex (Tx ). D’autre part, la récurrence et l’irréducti-
bilité entraînent que (Nxn ) converge presque sûrement vers ∞. Ces deux convergences utilisées
conjointement dans l’encadrement précédent entraînent que (n/Nxn ) converge presque sûrement
vers Ex (Tx ). La seconde propriété s’établit de manière similaire en considérant le nombre de
passages en y avant le temps n, partant de x.
La loi forte des grands nombres, qui concerne les suites i.i.d., reste valable pour les chaînes
de Markov récurrentes irréductibles positives, en dépit de la structure de dépendance liée au
mécanisme de transition. La loi invariante de la chaîne remplace la loi commune du cas i.i.d.
Théorème 0.7.2 (Loi forte des grands nombres). Soit (Xn ) une chaîne de Markov sur E ré-
currente irréductible, de loi initiale quelconque. Alors pour toute mesure invariante µ et pour
toutes fonctions f, g : E → R µ-intégrables avec g > 0, on a
P
f (X1 ) + · · · + f (Xn ) p.s f (z)µ(z)
−→ Pz∈E .
g(X1 ) + · · · + g(Xn ) n→+∞ z∈E g(z)µ(z)
Si la chaîne est récurrente nulle, alors pour toute fonction f : E → R µ-intégrable,
f (X1 ) + · · · + f (Xn ) p.s
−→ 0.
n n→+∞
Si la chaîne est récurrente positive, et si µ désigne son unique loi invariante donnée par µ(x) :=
1/Ex (Tx ) pour tout x ∈ E, alors pour toute fonction f : E → R µ-intégrable,
f (X1 ) + · · · + f (Xn ) p.s X
−→ f (z)µ(z).
n n→+∞
z∈E
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚21.
22 TABLE DES MATIÈRES
En vertu de la remarque 0.3.5, une suite (Xn ) de variables aléatoires i.i.d. de loi µ chargeant
tous les états est une chaîne de Markov récurrente irréductible positive, de loi invariante µ. De
plus, µ(x) = 1/Ex (Tx ) pour tout x. Dans ce cas, le théorème 0.7.2 coïncide avec la loi forte des
grands nombres pour la suite i.i.d. (f (Xn )).
Le théorème 0.7.2 exprime que le fait Pque qu’une moyenne en temps (f (X1 )+· · ·+f (Xn ))/n
converge vers une moyenne en espace z∈E f (z)µ(z). Le long de presque toute trajectoire, la
fraction de temps passée sur un état (fréquence de passage), converge vers la masse qu’affecte
la loi invariante à cet état, qui est exactement l’inverse du temps de retour moyen à cet état.
L’expression (f (X1 ) + · · · + f (Xn ))/n est la moyenne de f pour la mesure empirique Pn , qui
est la loi aléatoire définie par Pn := n1 (δX1 + · · · + δXn ). Une autre façon d’exprimer le résultat
de convergence consiste à dire que presque-sûrement, la suite (Pn ) converge en tant que suite
de lois sur E vers la loi invariante µ lorsque n → ∞.
Le théorème 0.7.2 est une conséquence d’un travail de Chacon et Ornstein publié dans [6],
prouvant une conjecture de Hopf en théorie ergodique. Les liens avec la théorie des martingales
sont présentés dans [25] par exemple.
Théorème 0.7.3 (Théorème limite central). Soit (Xn ) une CM(E,ν,P) récurrente irréductible
positive, µ sa loi invariante, L := P − I son générateur. Si g : E → R est de carré intégrable
pour toutes les lois νPn et si [P(g 2 ) − (Pg)2 ] est intégrable pour µ, alors
n
1 X L
[g(Xk ) − (Pg)(Xk−1 )] −→ N 0, µ P(g 2 ) − (Pg)2 .
√
n k=1 n→+∞
f (X1 ) + · · · + f (Xn ) L
−→ N 0, µ P(g 2 ) − (Pg)2 .
√
n n→+∞
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚22.
0.8. PÉRIODICITÉ 23
0.8 Périodicité
Soit (Xn ) une CM(E,ν,P) récurrente irréductible positive et µ son unique loi invariante
donnée par µ(x) := 1/Ex (Tx ). La quantité Nxn /n du théorème 0.7.1 est une variable aléatoire
bornée par 1, dont l’espérance est
1 1
(νP0 )(x) + · · · + (νPn−1 )(x) .
E(I{X0 =x} ) + · · · + E(I{Xn−1 =x} ) =
n n
En vertu du théorème 0.7.1 et du théorème de convergence dominée, cette espérance converge
vers µ(x) lorsque n → ∞. Ainsi, la suite de lois de probabilité (νPn ) converge vers µ au sens
de Césaro.
Considérons une chaîne de Markov (Xn ) sur Z/dZ de noyau de transition P défini par
P(x, y) := 1 si y = x + 1 dans Z/dZ et P(x, y) = 0 sinon. Il s’agit du processus de Bernoulli
modulo d avec p = 1. Le noyau P est récurrent irréductible positif, et la loi uniforme sur Z/dZ
est invariante. Cependant, L(Xdk+i | X0 ) = δX0 +i pour tout k ∈ N et tout 0 6 i < d. Cela
s’écrit également Pnk+i = Pi . Ainsi, bien que (νPn ) converge au sens de Césaro vers µ, des
phénomènes périodiques peuvent empêcher sa convergence au sens usuel.
Théorème 0.8.1 (Période). Pour tout noyau de transition irréductible P sur E, il existe un
entier d > 0 appelé période et une partition E := C0 ∪ · · · ∪ Cd−1 tels que, avec la convention
Cnd+i = Ci ,
1. si Pn (x, y) > 0 alors (x, y) ∈ Ci × Ci+n pour un certain i;
2. pour tout x, y ∈ Ci , et tout i, il existe un entier r tel que Pnd (x, y) > 0 pour tout n > r;
3. pour tout z, l’entier d est le PGCD de l’ensemble Sz := {n > 0; Pn (z, z) > 0}.
En particulier, le noyau Pd possède d classes irréductibles, qui sont C0 , . . . , Cd−1 .
Démonstration. Nous reprenons la preuve de [26, Théorème 1.8.4]. Fixons z, et considérons
n2 > n1 dans Sz tels que la différence d := n2 − n1 soit la plus petite possible. On définit alors
l’ensemble Ci pour 0 6 i 6 d − 1 par
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚23.
24 TABLE DES MATIÈRES
Ainsi, une chaîne irréductible de noyau P traverse les ensembles C0 , . . . , Cd−1 successivement
et de façon cyclique. Si le support de L(X0 ) est inclus dans Ci , alors le support de L(X1 ) est
inclus dans Ci+1 , etc. Ce phénomène rend la convergence en loi de la chaîne impossible si d > 1.
La période de la chaîne sur Z/dZ considérée précédemment vaut d.
On dit qu’un noyau de transition irréductible est apériodique lorsque sa période est égale à
1. Le théorème 0.9.3 exprime, pour les chaînes à noyau apérodique, un phénomène d’oubli de
la loi initiale au profit de la loi invariante, qui représente un équilibre, et qui ne dépend que du
noyau de transition.
1
kµ − νkVT = sup |µf − νf |.
2 f :E→[−1,+1]
La borne supérieure est atteinte pour la fonction f (x) := signe(µ(x) − ν(x)), qui donne
1X
kµ − νkVT = |µ(x) − ν(x)|.
2 x∈E
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚24.
0.9. CONVERGENCE EN LOI ET COUPLAGE 25
Si (Xn ) est une suite de variables aléatoires sur E vérifiant limn→∞ kL(Xn ) − µkVT = 0 pour
une loi µ, alors (Xn ) converge en loi vers µ. Autrement dit, la convergence en variation totale
entraîne la convergence en loi. La distance en variation totale est reliée aux couples de variables
par la formule suivante :
kµ − νkVT = inf P(X 6= Y ).
X∼µ,Y ∼ν
L’infimum porte sur les couples de variables aléatoires (X, Y ) de lois marginales µ et ν. Obser-
vons que lorsque X et Y sont indépendantes, alors L((X, Y )) = µ ⊗ ν.
Si P est un noyau de transition sur E, un couplage de P est une suite (Zn ) := ((Xn , Yn ))
sur E × E telle que ses deux composantes (Xn ) et (Yn ) sont toutes deux des chaînes de Markov
de noyau P. Les suites marginales (Xn ) et (Yn ) ne sont pas forcément indépendantes, n’ont
pas forcément la même loi initiale, et la suite couplée (Zn ) n’est pas forcément une chaîne de
Markov sur E × E. On appelle temps de couplage de (Xn ) et (Yn ) la variable aléatoire à valeurs
dans N ∪ {∞} définie par
TC := inf{n > 0; Xn = Yn }.
Pour tout n, {TC > n} ⊂ {Xn 6= Yn }, avec égalité si le couplage (Zn ) est coalescent (cela signifie
que Xn = Yn pour tout n > TC ). Le temps de couplage TC s’interprète également comme le
temps d’atteinte TC = inf{n > 0; Zn ∈ C} de la diagonale C := {(x, x); x ∈ E} de E × E. Le
théorème suivant montre que le temps de couplage permet de contrôler la variation totale.
Théorème 0.9.1 (Couplage). Soit P un noyau de transition sur E et (Zn ) := ((Xn , Yn )) une
suite de variables aléatoires à valeurs dans E × E. Soit TC le temps de couplage des suites
marginales (Xn ) et (Yn ). Supposons que
1. les suites marginales (Xn ) et (Yn ) sont des chaînes de Markov sur E de noyau P;
2. pour tout 0 6 k 6 n, et sur l’événement {TC = k},
L(Xn | Z0 , . . . , Zk ) = L(Xn | Xk ) et L(Yn | Z0 , . . . , Zk ) = L(Yn | Yk ).
Alors, pour tout entier n,
kL(Xn ) − L(Yn )kVT = kL(X0 )Pn − L(Y0 )Pn kVT 6 P(TC > n).
Démonstration. Soit f : E → R une fonction bornée. Nous avons
n
X
νPn f = E(f (Xn )) = E(f (Xn )I{TC >n} ) + E(f (Xn )I{TC =k} ).
k=0
Or E(f (Xn )I{TC =k} ) = E(I{TC =k} E(f (Xn ) | Z0 , . . . , Zk )), et par hypothèse sur (Xn ) et (Yn ),
E(f (Xn ) | Z0 , . . . , Zk ) = (Pn−k f )(Xk ).
Ainsi, E(f (Xn )I{TC =k} ) = E(f (Yn )I{TC =k} ) car Xk = Yk sur {TC = k}. Par conséquent,
n n
|L(X0 )P f − L(Y0 )P f | 6 E(|f (Xn ) − f (Yn )|) 6 2 sup |f (x)| P(TC > n).
x∈E
Notons que P(TC > n) dépend des lois initiales L(X0 ) et L(Y0 ) via la loi de (Zn ).
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚25.
26 TABLE DES MATIÈRES
Proposition 0.9.2 (Contraction markovienne). Pour tout noyau de transition P sur E et toutes
lois ν1 et ν2 , sur E, la contraction suivante à lieu :
kν1 P − ν2 PkVT 6 kν1 − ν2 kVT .
Démonstration. Si f : E → [−1, +1], alors Pf : E → [−1, +1], et donc en posant g := Pf :
|ν1 Pf − ν2 Pf | = |ν1 Pf − ν2 Pf | = |ν1 g − ν2 g| 6 kν1 − ν2 kVT .
En particulier, si µ est une loi invariante pour un noyau de transition P, alors pour toute
loi ν et tout entier n, la contraction suivante a lieu :
kνPn − µkVT 6 kν − µkVT .
Ainsi, la loi d’une chaîne de Markov ne peut pas s’éloigner d’une loi invariante en variation
totale. Le théorème ci-dessous renforce cette propriété.
Théorème 0.9.3 (Convergence en loi vers l’équilibre). Soit P un noyau de transition, récurrent
irréductible positif et apériodique sur E. Soit µ son unique loi invariante donnée par µ(z) =
1/Ez (Tz ) pour tout z ∈ E. Alors pour toute loi de probabilité ν sur E,
lim kνPn − µkVT = 0.
n→∞
En d’autres termes, toute chaîne de Markov (Xn ) de noyau P converge en loi vers µ, quelque
soit L(X0 ). Autrement dit, limn→∞ Pn (x, y) = µ(y) pour tout x et y dans E.
Démonstration. Soient (Xn ) et (Yn ) deux chaînes indépendantes de même noyau P sur E, et
de lois initiales ν1 et ν2 . Alors (Zn ) := ((Xn , Yn )) est une CM(E × E,ν1 ⊗ ν2 ,P ⊗ P) avec
(ν1 ⊗ ν2 )(x, y) = ν1 (x)ν2 (y) et (P ⊗ P)((x, y), (x0 , y 0 )) = P(x, y)P(x0 , y 0 ).
De plus, les hypothèses du théorème 0.9.1 sont satisfaites. Soit TC le temps de couplage de (Xn )
et (Yn ). Le noyau P est irréductible et apériodique, par conséquent, en vertu du théorème 0.8.1,
pour tout (x, y) et (x0 , y 0 ) dans E × E, il existe des entiers r1 et r2 tels que Pn (x, x0 ) > 0 pour
tout n > r1 et Pn (y, y 0 ) > 0 pour tout n > r2 . Il en découle que (P⊗P)n ((x, x0 ), (y, y 0 )) > 0 pour
tout n > max(r1 , r2 ). Par conséquent, P ⊗ P est irréductible. Or µ ⊗ µ est une loi de probabilité
invariante pour P ⊗ P, et par suite, P ⊗ P est récurrent positif en vertu du théorème 0.6.6. En
particulier, P(TC < ∞) = 1, et donc limn→∞ P(TC > n) = P(TC = ∞) = 0. Le théorème 0.9.1
entraîne alors que pour toutes lois ν1 et ν2 sur E,
lim kν1 Pn − ν2 Pn kVT = 0.
n→∞
Le résultat voulu s’obtient pour ν1 = ν et ν2 = µ. Il est possible deP lever l’hypothèse de positivité
sur P, en la remplaçant par l’existence d’un état x ∈ E tel que ∞ 2
n=0 (P(x, x)) = ∞. Dans ce
cas, (x, x) est récurrent pour P ⊗ P, et donc P ⊗ P est récurrent irréductible. Cependant, P
n’admet pas de loi invariante s’il n’est pas positif, et seule la propriété avec ν1 et ν2 subsiste.
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚26.
0.10. RÉVERSIBILITÉ ET NOYAU DE METROPOLIS-HASTINGS 27
Nous avons vu que le théorème 0.7.1 entraîne que (νPn ) converge vers µ au sens de Césaro,
dès que P est récurrent irréductible positif. Le théorème 0.9.3 précise que (νPn ) converge vers µ
au sens usuel lorsque P est de plus apériodique. Ainsi, bien que les théorèmes 0.7.1 et 0.9.3 soient
de natures différentes, une conséquence du premier est renforcée par le second. Il important de
retenir que le résultat du théorème 0.9.3 énonce une convergence en loi. Cela ne dit rien pour
une trajectoire donnée, contrairement au résultat du théorème 0.7.1.
Remarque 0.9.4 (Fonctions de chaînes). Si (Xn ) et (Yn ) sont deux chaînes de Markov indé-
pendantes sur E et F , de lois initiales ν1 et ν2 et de noyaux de transition P1 et P2 , alors
le couple ((Xn , Yn )) est une chaîne de Markov sur l’espace produit E × F , de loi initiale
(ν1 ⊗ν2 )(x1 , x2 ) := ν1 (x1 )ν2 (x2 ) et de noyau (P1 ⊗P2 )((x1 , x2 ), (x01 , x02 )) := P1 (x1 , x01 )P2 (x2 , x02 ).
Cela n’a pas lieu en général sans l’hypothèse d’indépendance. De plus, si ((Xn , Yn )) est une
chaîne de Markov sur E × F , ses composantes (Xn ) et (Yn ) ne sont pas forcément des chaînes
de Markov sur E et F . Plus généralement, si (Zn ) est une chaîne de Markov sur E et si
f : E → F est une fonction, alors (f (Zn )) n’est pas toujours une chaîne de Markov sur F .
Remarque 0.9.5 (Apériodicité par perturbation). Soit P un noyau de transition, et soit 0 < p < 1.
Le graphe des transitions du noyau Pp := (1 − p)P + pI s’obtient à partir de celui de P en
ajoutant une boucle de poids p pour chaque état qui n’en possède pas et en corrigeant les autres
poids. Cela autorise la chaîne de noyau Pp à rester sur place à chaque transition avec probabilité
p. La loi Pp (x, ·) est le mélange des lois P(x, ·) et δx au moyen de la loi de Bernoulli de paramètre
p. Comme Pp (x, x) > 0 pour tout x, il en découle que Pp est irréductible et apériodique dès
que P est irréductible. Les noyaux Pp et P possèdent les mêmes mesures invariantes. Enfin,
limp→0 Pp (x, y) = P0 (x, y) = P(x, y), pour tout x, y.
La technique du couplage pour les chaînes de Markov a été introduite par Doeblin en 1938
dans [12]. Le livre [22] contient une reproduction de la preuve originelle.
On dit que la mesure µ sur E est symétrique pour le noyau de transition P lorsque
µ(x)P(x, y) = µ(y)P(y, x) pour tout x et y dans E. De manière équivalente, cela revient à
dire que pour tout n et toute suite x0 , . . . , xn dans E :
Il en découle qu’une loi µ est symétrique pour P si et seulement si elle est réversible pour P :
pour toute chaîne (Xn ) de noyau P et de loi initiale µ et tout entier r,
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚27.
28 TABLE DES MATIÈRES
Si une mesure µ est symétrique et vérifie µ(E) < ∞, alors la loi de probabilité µ(E)−1 µ est
réversible. D’autre part, si une mesure µ est symétrique, alors elle est invariante car
X X
µ(x)P(x, y) = µ(y) P(y, x) = µ(y).
x∈E x∈E
Cela signifie que le poids d’un cycle triangulaire ne dépend pas du sens de son parcours. Récipro-
quement, partant d’une mesure µ, la construction de Metropolis-Hastings présentée ci-dessous
fournit un noyau qui admet µ comme mesure symétrique.
Noyau de Metropolis-Hastings
Soit µ une mesure sur E qui charge tous les états, et Q un noyau de transition auxiliaire
sur E vérifiant Q(x, y) = 0 si et seulement si Q(y, x) = 0. Pour tout x 6= y, on pose
µ(y)Q(y, x)
α(x, y) := min 1, si Q(x, y) > 0 et α(x, y) = 0 sinon.
µ(x)Q(x, y)
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚28.
0.10. RÉVERSIBILITÉ ET NOYAU DE METROPOLIS-HASTINGS 29
Il s’agit bien d’un noyau de transition sur E car 0 6 P(x, y) 6 Q(x, y) pour tout x 6= y. Il
s’avère que la mesure µ est symétrique (et donc invariante) pour le noyau P. En particulier,
lorsque µ(E) < ∞, la loi µ(E)−1 µ est réversible pour P. Tout l’intérêt du noyau P réside dans
le fait que sa construction dépend des rapports µ(x)/µ(y) mais pas de µ(E).
En général, le choix du noyau Q dépend de la nature de l’espace E. Lorsque E est muni
d’une distance d vérifiant nx := card{y ∈ E; d(x, y) = 1} < ∞ pour tout x, il est commode de
prendre par exemple Q(x, y) = 1/nx si d(x, y) = 1 et Q(x, y) = 0 sinon.
Remarque 0.10.2 (Noyau de Barker). Il s’obtient de la même manière que le noyau de Metropolis-
Hasting, avec la fonction d’acceptation α définie ci-dessous. Il jouit des mêmes propriétés.
µ(y)Q(y, x)
α(x, y) = si Q(x, y) > 0 et α(x, y) = 0 sinon.
µ(y)Q(y, x) + µ(x)Q(x, y)
La simulation des trajectoires d’une chaîne de Markov de noyau P par la méthode récursive
revient à simuler la loi P(x, ·). Cela peut être fait très simplement via Q et α. En effet, soit Y
une variable aléatoire qui suit la loi Q(x, ·) sur E, et U une variable aléatoire de loi uniforme
sur [0, 1], indépendante de Y . Soit Z la variable aléatoire définie par Z = Y si U < α(x, Y ) et
Z = x sinon. Alors pour tout y 6= x,
Par conséquent, Z suit la loi P(x, ·). Il est remarquable que l’évaluation de P(x, x) soit inutile
dans la simulation. La fonction α est parfois appelée fonction d’acceptation-rejet tandis que le
noyau Q est parfois appelé noyau d’exploration.
Si gQ : E × [0, 1] → E est une fonction récursive associée à Q par le théorème 0.4.1, alors
la fonction gP : E × [0, 1]2 → E définie ci-dessous est une fonction récursive associée à P. Elle
doit être utilisée sous la forme xn+1 = gP (xn , Wn+1 ) où (Wn ) est une suite i.i.d. de variables
aléatoires uniformes sur [0, 1]2 . Les deux composantes de Wn sont donc indépendantes et de loi
uniforme sur [0, 1].
(
gQ (x, v) si u < α(x, gQ (x, v))
gP (x, (u, v)) := .
x sinon
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚29.
30 TABLE DES MATIÈRES
Algorithme de Metropolis-Hastings
Cet algorithme, introduit par Metropolis dans [24] puis généralisé par Hastings dans [17],
fait aujourd’hui partie des méthodes MCMC (Monte Carlo Markov Chains), qui consistent à
utiliser des chaînes de Markov pour simuler des lois de probabilité.
Soit µ une mesure sur E qui charge tous les états, et qui vérifie µ(E) < ∞. Soit Q un
noyau récurrent irréductible apériodique et positif sur E. Le noyau de Metropolis-Hastings P
associé à la mesure µ et au noyau Q est irréductible apériodique et admet µ comme mesure
symétrique. Comme µ(E) < ∞, le noyau P est récurrent irréductible positif apériodique. La
loi µ(E)−1 µ est symétrique et donc invariante et réversible pour P.
En vertu du théorème 0.9.3, si (Xn ) est une CM(E,ν,P), alors (Xn ) converge en loi vers
µ(E)−1 µ. L’algorithme de Metropolis-Hastings pour la simulation de µ(E)−1 µ consiste à simuler
une longue trajectoire x0 , x1 , . . . , xn de la chaîne (Xn ), puis à considérer son dernier pas xn
comme une réalisation approchée de la loi de probabilité invariante µ(E)−1 µ. Cet algorithme
ne nécessite pas le calcul de µ(E), mais fait appel aux rapports µ(x)/µ(y) et à la simulation
des lignes de Q. Typiquement, µ est une mesure de Boltzmann-Gibbs, ce qui signifie qu’elle
s’écrit µ(x) = exp(−H(x)) où la fonction H : E → R est connue.
Échantillonneur de Gibbs
Soit F un ensemble au plus dénombrable et µ une loi sur E := F k chargeant tous les états.
Pour tout 1 6 i 6 k et tout v ∈ E, on note v−i := (v1 , . . . , vi−1 , vi+1 , . . . , vk ). On note également
µi,v−i la loi conditionnelle de Vi sachant {V−i = v−i } lorsque V suit la loi µ. Il s’agit d’une loi
sur F . Introduisons enfin le noyau de transition Q sur E défini pour tout x et y par
k
X
Q(x, y) = q(i)µi,x−i (yi )I{xi =yi } ,
i=1
où q est une loi sur {1, . . . , k} chargeant tous les états (par exemple la loi uniforme sur
F ). L’algorithme de Metropolis-Hastings associé à la loi de probabilité µ et au noyau Q ci-
dessus est appelé échantillonneur de Gibbs. Il permet de simuler approximativement µ. Cela
nécessite la simulation de la loi Q(x, ·). Pour cela, on procède de la manière suivante. Soit
i une réalisation de la loi q sur {1, . . . , k}. Soit yi une réalisation de la loi µi,x(−i) sur F .
Alors (x1 , . . . , xi−1 , yi , xi+1 , . . . , xk ) est une réalisation de la loi Q(x, ·). L’échantillonneur de
Gibbs nécessite donc la simulation des lois conditionnelles µi,x(−i) . D’autre part, si α désigne
la fonction d’acceptation de l’algorithme de Metropolis-Hastings, alors α(x, y) = 1 dès que
card{1 6 i 6 k; xi 6= yi } 6 1.
L’exemple le plus célèbre est fourni par le modèle de magnétisme du physicien Ising. Dans
ce modèle, µ est une mesure sur {−1, +1}Λ où Λ est une partie de Zd . L’ensemble Λ représente
un morceau de cristal, et chaque élément i de Λ représente un site, qui porte un spin (une
orientation magnétique) valant soit −1 soit +1. Un élément x de {−1, +1}Λ représente une
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚30.
0.11. ESTIMATION DU NOYAU ET DE LA MESURE INVARIANTE 31
où ε et m sont également des constantes réelles connues. Dans ce modèle, 1/β représente
une température, ε une constante d’interaction entre sites voisins dans le cristal, m la valeur
d’un champ magnétique externe, et H(x) l’énergie de la configuration x. La mesure µ favorise
les configurations de basse énergie. En identifiant {−1, +1}Λ à E := {−1, +1}card(Λ) , l’échan-
tillonneur de Gibbs présenté précédemment permet de simuler approximativement la loi de
probabilité µ(E)−1 µ sans avoir à calculer la quantité µ(E), appelée fonction de partition en
physique. Un problème statistique intéressant consiste à estimer les réels β, m et ε à partir
de l’observation de réalisations i.i.d. de µ(E)−1 µ, ou d’une trajectoire d’une chaîne de mesure
invariante µ.
Cela fournit un estimateur de P(x, y). Il se trouve qu’il s’agit de l’estimateur de maximum de
vraisemblance qui maximise la log-vraisemblance
n
! n
Y X
P 7→ log ν(X0 ) P(Xk−1 , Xk ) = log(ν(X0 )) + log(P(Xk−1 , Xk ))
k=1 k=1
sur l’ensemble convexe des noyaux de transition sur E. Lorsque le noyau à estimer est défini de
manière paramétrique, le maximum de vraisemblance reste un estimateur tout à fait intéressant.
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚31.
32 TABLE DES MATIÈRES
Le vecteur (1, . . . , 1)> est toujours harmonique pour P. Autrement dit, le réel 1 est toujours
valeur propre de P, associée au vecteur propre (1, . . . , 1)> . Il en découle que 1 est également
valeur propre de P> , mais les espaces propres ne sont pas ceux de P en général. Cependant, soit
x un vecteur propre (complexe) de P> associé à la valeur propre P 1, alors il en est de même du
vecteur (|x1 |, . . . , |xm |)> où m := card(E), et le vecteur ligne ( m
i=1 |x| )
i
−1
x i constitue
donc une
> >
loi invariante pour P. En effet, si yi := |xi | et z := P y − y, alors zi > (P x)i − |xi | = 0 pour
tout i en vertu de l’inégalité triangulaire car P est à coefficients réels positifs. Or z1 +· · ·+zm = 0
car P est un noyau de transition, d’où z = 0.
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚32.
0.12. CAS DES ESPACES D’ÉTATS FINIS 33
Caractérisations de l’apériodicité
Lorsque E est fini, la période d d’un noyau est toujours inférieure ou égale au cardinal de
E. Pour un noyau P irréductible sur E fini, il y a équivalence entre
1. P est apériodique ;
2. 1 est la seule valeur propre (complexe) de P de module supérieur ou égal à 1 ;
3. il existe un entier r tel que Pr (x, y) > 0 pour tout x et y et tout n > r.
Une preuve de cette équivalence se trouve par exemple dans [3, théorème 6.6]. Elle fait appel à
des arguments simples concernant l’algèbre des entiers et l’algèbre linéaire.
Récurrence et invariance
Le théorème suivant complète l’étude du cas fini.
Théorème 0.12.1 (Récurrence et invariance). Si (Xn ) est une CM(E,ν,P) sur E fini, alors
1. ER est non vide et il n’y a pas d’état récurrents nuls. Toutes les classes de récurrence sont
positives. Si P est irréductible, alors il est récurrent irréductible positif;
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚33.
34 TABLE DES MATIÈRES
2. P(TER < ∞) = 1. La chaîne est presque sûrement capturée par une classe de récurrence.
Quand tous les états récurrents sont absorbants, la chaîne finit p.s. par être constante;
3. si (Pn (x, ·)) converge, sa limite est une loi de probabilité invariante;
4. les mesures invariantes ne chargent pas ET , et si R1 , . . . , Rr sont les classes de récurrence
de P, alors chaque Ri porte une unique loi invariante µi . Les mesures invariantes pour P
sont les combinaisons convexes de la forme α1 µ1 + · · · + αr µr où α1 , . . . , αr sont des réels
positifs ou nuls. Les lois de probabilité invariantes correspondent aux cas où α1 +· · ·+αr =
1;
5. l’espace propre de (PRi ×Ri )> associé à la valeur propre 1 est de dimension 1, et contient
un unique vecteur à composantes positives dont la somme vaut 1, qui est précisément µi ;
6. P est irréductible si et seulement si P admet une unique loi invariante;
7. une classe irréductible est close si et seulement si elle est récurrente. Les classes irréduc-
tibles dont aucune flèche ne sort sont récurrentes, tandis que les autres sont transitoires.
Un état x est transitoire si et seulement s’il existe un état y tel que x → y et y 6→ x. La dé-
composition de l’espace d’état ne dépend que de la connectivité du graphe des transitions,
c’est-à-dire des flèches mais pas de leur poids.
alors ∞ n n
P
Démonstration. Si y ∈ ET , P n=0 P (x, y) = H(x, y) < ∞ donc limn→∞ P (x, y) = 0.
n x
L’usage de la somme finie y∈E P (x, y) = 1 donne alors limn→∞ P (Xn ∈ ER ) = 1. En
particulier, ER ne peut pas être vide. De plus Px (TER = ∞) = Px (NER = 0) 6 Px (Xn 6∈ ER )
pour tout n > 1. Il en découle que Px (TER = ∞) = 0 pour tout x ∈ E. Enfin, comme les
classes de récurrence sont finies, elles sont récurrentes positives en vertu du théorème 0.6.6.
La troisième assertion est immédiate en écrivant Pn+1 (x, ·)P= Pn (x, ·)P. Pour montrer que les
mesures invariantes ne chargent pas ET , on constate que ∞ n
n=0 P (x, y) = H(x, y) < ∞ pour
tout y ∈ ET et tout x. P En particulier, (Pn (x, y)) converge vers 0 quand n → ∞, et si µ est
invariante, alors µ(y) = x∈E µ(x)Pn (x, y), qui converge vers 0 quand n → ∞. Le reste découle
des remarques précédentes.
née. Comme P est irréductible sur E fini, les fonction harmoniques sont les fonctions constantes
(propriété de Liouville), et par conséquent l’équation de Poisson Lg = f a une solution g si et
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚34.
0.12. CAS DES ESPACES D’ÉTATS FINIS 35
seulement si f est de moyenne nulle. Cette solution n’est pas constante car f est non identi-
quement nulle.
Cela entraîne kPrk+i (x, ·) − µkVT 6 ρk . Le résultat final s’obtient en écrivant n = kr + i avec
k = bn/rc où bn/rc désigne la partie entière du réel n/r. La méthode est valide pour tout
ρ > 1 − minx,y∈E (Pr (x, y)/µ(y)). Elle est tirée de [21, Chapitre 3].
Remarque 0.12.3 (Spectre). L’étude des noyaux de transition sur un espace d’état fini bénéficie
de la théorie spectrale des matrices à coefficients réels positifs, élaborée au tout début du
vingtième siècle par Perron et Frobenius, et esquissée par exemple dans [16, section 6.8], [18,
Chapitre 8], ou encore [2]. D’autre part, il est possible de relier la constante ρ du théorème
0.12.2 à la seconde plus grande valeur propre du noyau PP∗ , où P∗ désigne le noyau défini
par P∗ (x, y) := µ(x)P(x, y)/µ(y). Certains aspects sont développés par exemple dans [29], en
liaison avec des inégalités fonctionnelles de type Poincaré et Sobolev logarithmique.
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚35.
36 TABLE DES MATIÈRES
6 (1 − ε2 )k .
Comme L(Yk ) = µPkr = µ et L(Xk ) = δx Pkr = Pkr (x, ·), le théorème 0.9.1 conduit à
kPn (x, ·) − µkVT = kPkr (x, ·)Pi − µkVT 6 kPkr (x, ·) − µkVT 6 (1 − ε2 )bn/rc .
T P 4
2
−→ ,
(d log(d)) d→+∞ π
prouvant ainsi une conjecture formulée par Aldous vers 1989. La preuve repose sur un résultat
similaire pour le mouvement brownien sur le tore continu. L’étude des temps de recouvrement
est délicate. Certaines techniques sont présentées dans le cours [7] par exemple. L’écriture d’un
programme illustrant le résultat précédent constitue un excellent exercice.
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚36.
0.13. COALESCENCES ET ALGORITHME DE LETAC-PROPP-WILSON 37
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚37.
38 TABLE DES MATIÈRES
Théorème 0.13.1. Si G est contractante, alors P(TB < ∞) = 1 et il existe une variable aléatoire
xB à valeurs dans E telle que Bn (x) = xB pour tout x ∈ E et tout n > TB . De plus, si µB
désigne la loi de xB , alors limn→∞ Pn (x, y) = µB (y) pour tout x et y. En particulier, µB est
l’unique loi invariante de P.
lim E(f (Bn (x)) = lim E(f (Bn (x))I{TB >n} ) = E(f (xB )) = µB f.
n→∞ n→∞
Comme E(f (Bn (x))) = Pn (x, ·)f , on obtient limn→∞ Pn (x, y) = µB (y) pour tout x et y.
Alors Bn (x) = Bσ−1 (x∗ ) pour tout x ∈ E et tout n > σ. Si µ désigne la loi de Bσ−1 (x∗ ), alors
limn→∞ Pn (x, y) = µ(y) pour tout x et y dans E. En particulier, µ est l’unique loi invariante
de P.
Démonstration. L’application aléatoire G est contractante car P(G(E) = {x∗ }) > ε > 0 par
définition de ε. La mesure de Lebesgue du premier morceau de la fonction g(x, ·) vaut P(x, x∗ ).
Par conséquent, g(x, u) = x∗ pour u < ε et tout x ∈ E. Notons que P(σ < ∞) = 1. La définition
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚38.
0.14. QUELQUES EXEMPLES CLASSIQUES 39
de σ assure alors que Gσ (x) = g(x, Uσ ) = x∗ pour tout x ∈ E. Ainsi, Gσ (E) = {x∗ } et par
conséquent Bσ (E) = {Bσ−1 (x∗ )} est un singleton. Ainsi, Bn (x) = Bσ−1 (x∗ ) pour tout x ∈ E et
tout n > σ. Il suffit alors de procéder comme dans la preuve du théorème 0.13.1.
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚39.
40 TABLE DES MATIÈRES
r(x)
−1 +1
x
q(x) p(x)
En vertu de la propriété de Markov forte, P0 (T0 < ∞) = P(0, 0) + P(0, 1)P1 (T0 < ∞). Or
P(0, 0) + P(0, 1) = 1 avec P(0, 1) = p(1) > 0, et P1 (T0 < ∞) = P1 (τ0 < ∞) = a{0} (1). Par
conséquent, P est récurrent si et seulement si a{0} (1) = 1, c’est-à-dire si et seulement si
∞
X
γ(x) = ∞.
x=0
Il en découle en particulier que le noyau P est récurrent si lim supx→∞ (q(x)/p(x)) > 1, et
transitoire si lim inf x→∞ (q(x)/p(x)) < 1. Un calcul direct montre qu’une mesure µ sur N est
invariante pour P si et seulement si pour tout x > 0,
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚40.
0.14. QUELQUES EXEMPLES CLASSIQUES 41
Processus de mort
Correspond au cas où la fonction p est identiquement nulle et où q est strictement positive
(sur N∗ ). L’état 0 est absorbant, et tous les autres états sont transitoires. Les classes irréduc-
tibles sont des singletons. Les trajectoires sont décroissantes, et la chaîne est presque-sûrement
absorbée par 0.
Processus de vie
Correspond au cas où la fonction q est identiquement nulle et où p est strictement positive.
Les trajectoires sont presque-sûrement croissantes. Tous états sont transitoires, et les classes
irréductibles sont des singletons. Lorsque p est constante, on retrouve le processus de Bernoulli
de l’exemple 0.1.5.
Xn+1 = Xn + Yn = X0 + Y1 + · · · + Yn .
La suite (Xn ) est une martingale pour sa filtration naturelle. La suite (Xn ) est également une
chaîne de Markov sur Zd , de noyau de transition P donné pour tout x et y dans Zd par
(
1
si kx − yk1 := |x1 − y1 | + · · · + |xd − yd | = 1
P(x, y) = 2d .
0 sinon
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚41.
42 TABLE DES MATIÈRES
+e2
b
1
4
1
4
−e1 b b b +e1
1
4
1
4
b
−e2
La condition kx − yk1 = 1 signifie que x et y sont voisins sur le réseau Zd . Tous les états
communiquent, et la chaîne est irréductible. Les seules mesures invariantes sont les multiples
de la mesure de comptage sur Zd . Elles sont de plus symétriques. Il n’y a pas de loi invariante.
Il en découle que les états sont soit tous transitoires, soit tous récurrents nuls. La période
vaut 2. Lorsque d = 1, les entiers relatifs Xn − X0 et n sont de même parité, et la suite
( 12 (Xn − X0 + n)) est un processus de Bernoulli de paramètre 12 . Plus généralement, pour tout
d > 1, la loi L(Xn − X0 ) = L(Xn | X0 = 0) = Pn (0, ·) est la loi image par l’application
Il faut penser à n jets indépendants d’un dé à 2d faces étiquetées {+e1 , −e1 , . . . , +ed , −ed }.
Cette formulation multinomiale fournit immédiatement pour tout d et tout n,
X n!
Pn (0, 0) = .
2r1 +···+2rd =n
r1 !2 · · · r d !2
En particulier, P2n+1 (0, 0) = 0 pour tout n et d, ce qui n’est pas surprenant car la période vaut
2. Nous avons déjà
P∞obtenu dans l’exemple 0.3.2 la récurrence de P lorsque d = 1, en démontrant
n
que H(0, 0) := n=0 P (0, 0) = ∞ grâce à la formule de Stirling. Lorsque d = 2, nous avons
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚42.
0.14. QUELQUES EXEMPLES CLASSIQUES 43
La suite (Yn ) des accroissements de (Xn ) sur Zd peut s’écrire Yn = Vn Dn pour tout n > 0 où
(Dn ) est une suite i.i.d. de loi uniforme sur {e1 , . . . , ed } et (Vn ) une suite i.i.d. de loi uniforme
sur {−1, +1}, indépendante de (Dn ). Supposons à présent que d > 1. Écrivons Xn sous la forme
Xn = (Xn,1 , . . . , Xn,d ) = Xn,1 e1 + · · · + Xn,d ed . Les composantes (Xn,1 ), . . . , (Xn,d ) ne sont pas
indépendantes, et ne sont pas des marches aléatoires simples unidimensionnelles. Ce sont en
revanche des chaînes de Markov de même loi, de noyau commun Q sur Z donné par
1
2d
si |x − y| = 1
d−1
Q(x, y) = d
si x = y .
0 sinon
Le noyau P impose une évolution parallèle aux axes, tandis que R impose une évolution « diago-
nale ». De plus, z ↔ z 0 pour R si et seulement si les d composantes de z −z 0 sont toutes de même
parité. Lorsque d = 2, le noyau R possède deux classes irréductibles (celles de 0 et e1 ), tandis
√
que P n’en possède
√ qu’un seule. Cependant, les projections orthogonales (Xn,1 + Xn,2 )/ 2 et
(Xn,1 − Xn,2 )/ 2 de la marche aléatoire simple bidimensionnelle sur les deux diagonales √ prin-
cipales de Z2 sont indépendantes et constituent des marches aléatoires simples sur Z/ 2. Il est
possible d’utiliser cette propriété pour montrer que (0, 0) est récurrent pour P lorsque d = 2.
function masunidim ( x , r , n )
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚43.
44 TABLE DES MATIÈRES
% MASUNIDIM (x,r,n)
% Simule r trajectoires de n pas issues de x pour la MAS simple sur Z.
c l f ; hold on ; xlabel ( ’ Temps ’ ) ; ylabel ( ’ Valeur s p a t i a l e dans Z ’ ) ;
t=s p r i n t f ( ’%i t r a j e c t o i r e s de l a marche a l é a t o i r e s i m p l e ’ , r ) ;
t i t l e ( t ) ; plot (cumsum( [ ones ( 1 , r ) ∗ x ; 2 ∗ ( 2 ∗ rand ( n , r ) > 1 ) − 1 ] ) ) ;
50
Valeur spatiale dans Z
−50
0 200 400 600 800 1000 1200
Temps
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚44.
0.14. QUELQUES EXEMPLES CLASSIQUES 45
0 1 2 3 4 5 6
suite (Xn ) est une chaîne de Markov sur {0, . . . , d} de matrice de transition
0 1 0 0
1 d−1
d
0 d
0 d2 0 d−2
d
P=
.. .. .. .
. . .
d−2 2
d
0 d
0
d−1
0 d1
d
0 0 1 0
n
d 2 d
E(Xn | X0 ) = + 1 − X0 − .
2 d 2
Par conséquent, (Ex (Xn )) converge vers d/2 pour tout x. En moyenne, la chaîne oublie l’état
initial. Cependant, la période vaut 2, et la chaîne ne converge pas en loi. En vertu de la
remarque 0.9.5, le modèle peut être rendu apériodique en introduisant un mélange : une fois la
boule choisie, on tire à pile ou face pour décider de l’urne qui va l’accueillir. Ainsi, la boule ne
change d’urne qu’avec probabilité p ∈ [0, 1]. La nouvelle matrice de transition est pP + (1 − p)I.
Le nombre d’Avogadro a vaut environ 6.02 × 1023 . Par définition, une mole contient a molécules. Une mole
3
d’un gaz parfait occupe un volume d’environ 22.4 litres aux conditions normales de température et de pression.
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚45.
46 TABLE DES MATIÈRES
l o i n v = b i n c o e f ( [ 0 : d ] , d∗ones ( 1 , d+1))/2^d ;
l o i n i = zeros ( 1 , d +1); l o i n i ( x ) = 1 ;
VT=zeros ( 1 , n ) ; VT( 1 ) = sum( abs ( l o i n i −l o i n v ) ) / 2 ;
loi = loini ;
fo r i =1:n , l o i = l o i ∗ P ; VT( i ) = sum( abs ( l o i −l o i n v ) ) / 2 ; end
La figure 9 page 47 illustre la convergence en variation totale vers l’équilibre pour d = 150,
p = d/(d + 1) et X0 = 1. Le graphe possède trois phases distinctes : un plateau, puis une chute
abrupte, suivie enfin d’une décroissance exponentielle vers 0. Le théorème 0.12.2 ne décrit pas ce
phénomène de convergence abrupte (cutoff en anglais). Une telle convergence abrupte se produit
pour un grand nombre de modèles, et serait due à une multiplicité élevée de certaines valeurs
propres. Cependant, l’étude mathématique de ce phénomène n’est pas très avancée, et aucune
théorie générale n’a été dégagée à l’heure actuelle, malgré les efforts de plusieurs mathématiciens
talentueux. La convergence abrupte de la chaîne d’Ehrenfest a été mathématiquement établie
par Aldous et Diaconis. D’autres exemples sont proposés dans [9] et [33].
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚46.
0.14. QUELQUES EXEMPLES CLASSIQUES 47
0.9
0.8
0.7
Variation totale
0.6
0.5
0.4
0.3
0.2
0.1
0
0 50 100 150 200 250 300 350 400 450 500
Temps
En génétique, ces types sont par exemple les deux allèles possibles d’un gène particulier dans
une population à reproduction haploïde.
Soit Xn le nombre d’individus de la nième génération qui possèdent l’allèle A. Idéalement, le
passage de la génération n à la génération n + 1 s’effectue en tirant au sort avec remise les d
individus de la génération n + 1 parmi ceux de la génération n (qui donc meurent tous). Pour
simplifier ce procédé, on ne retient de la génération n que la fréquence Xn /d de l’allèle A. Pour
obtenir la génération n+1, on effectue alors d tirages indépendants de loi de Bernoulli B(Xn /d).
Ainsi, le nombre de A obtenus à la génération n + 1 suit la loi binomiale B(d, Xn /d). Cette
simplification consiste en quelque sorte, pour définir les d individus de la génération n + 1, à
effectuer un échantillonnage de taille d dans une population de taille infinie dont la fréquence
de l’allèle A est Xn /d. La suite (Xn ) est à valeurs dans {0, 1, . . . , d} et vérifie
Xn
L(Xn+1 | Xn ) = B d, ,
d
La suite (Xn ) est une chaîne de Markov sur E := {0, 1, . . . , d} de noyau P donné par
x y x d−y
P(x, y) := Cdy 1− .
d d
Les états 0 et d sont absorbants donc récurrents, tandis que les états 1, . . . , d − 1 communiquent
et sont tous transitoires. Les lois δ0 = B(d, 0) et δd = B(d, 1) sont donc les seules mesures
invariantes. L’absorption par 0 (respectivement d) correspond à l’extinction de l’allèle A (res-
pectivement B). La suite (Xn /d) est une chaîne de Markov sur {0/d, 1/d, . . . , d/d} ⊂ [0, 1].
Cette chaîne décrit l’évolution du paramètre pn = Xn /d d’une loi binomiale de taille d. Plus
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚47.
48 TABLE DES MATIÈRES
0.9
0.8
0.7
0.6
Valeur Xn/d
0.5
0.4
0.3
0.2
0.1
0
0 10 20 30 40 50 60 70 80 90 100
Temps n
Probabilité d’extinction
Le théorème 0.12.1 entraîne que le temps d’extinction τ := inf{n ∈ N; Xn ∈ {0, d}} est (un
temps d’arrêt) presque sûrement fini. En vertu du théorème 0.5.1, la probabilité uA (x) que la
chaîne partant de x soit absorbée par d (extinction de B) est donnée par uA (x) = x/d. Par
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚48.
0.14. QUELQUES EXEMPLES CLASSIQUES 49
0 1···d − 1 d
symétrie, la probabilité que la chaîne partant de x soit absorbée par 0 (extinction de A) est
(d − x)/d.
Martingale
Pour tout n ∈ N, on a E(Xn+1 | Xn ) = dXn /d = Xn . La suite (Xn ) est donc une martingale
bornée. Elle converge alors presque sûrement (et dans tout Lp avec p > 1) vers une variable
aléatoire intégrable X∞ . On a L(X∞ | X0 = x) = uA (x)δd +(1−uA (x))δ0 , et donc x = Ex (X0 ) =
Ex (X∞ ) = uA (x)d. On retrouve bien uA (x) = x/d.
Mutations
Afin de rendre la chaîne de Wright-Fisher plus réaliste, on introduit la possibilité de mu-
tations. Le passage de la génération n à la génération n + 1 se fait d’abord en provoquant de
façon indépendante pour chacun des d individus de la génération n une mutation de A à B avec
probabilité pAB et une mutation de B à A avec probabilité pBA . Ensuite, on procède comme
pour le cas sans mutation pour obtenir les d individus de la génération n + 1. La nouvelle chaîne
(Xn0 ) est donnée par
Xn0 Xn0 Xn0
0 0
L(Xn+1 | Xn ) = B d, qAB + pBA 1 − = B d, pBA + (qAB − pBA ) ,
d d d
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚49.
50 TABLE DES MATIÈRES
où qAB := 1 − pAB et qBA := 1 − pBA . L’état 0 (resp. 1) n’est plus absorbant dès que pBA > 0
(resp. pAB > 0). Lorsque qAB = pBA , la suite (Xn0 ) est i.i.d. de loi B(d, p). La chaîne est
récurrente irréductible positive apériodique si 0 < pAB pBA < 1. Dans ce cas, la suite (Xn0 )
converge en loi vers la loi invariante. Cependant, elle n’est pas une sous-martingale ni une sur-
0
martingale puisque E(Xn+1 | Xn0 ) = dpBA + (qAB − pBA )Xn0 . On peut alternativement effectuer
les mutations après coup, ce qui conduit à la chaîne de Markov (Xn00 ) définie par
Xn00 Xn00
00 00
L(Xn+1 | Xn ) = qAB B d, + pBA B d, 1 − .
d d
function w r i g h t f i s h e r t i n v ( d , p , x , n )
%[P,N,loi] = WRIGHTFISHERINV (d,p,x,n)
% Estime la loi invariante d’une chaîne de Wright - Fisher
% pour une population de taille d+1 et proba de mutation p.
% P = noyau de transition de la chaîne
% N = estimation par fréquences de passages (LGN)
% le long d’une seule trajectoire partant de x
% et de longeur inférieure à n.
% loi = loi au temps n partant de x ( calcul récursif ).
c l f ; hold on ;
xlabel ( ’ E t a t s x ’ ) ; ylabel ( ’ E s t i m a t i o n de l a p r o b a b i l i t e en x ’ ) ;
t 1= ’ E s t i m a t i o n de l a l o i i n v a r i a n t e de Wright−F i s h e r . ’ ;
t 2=s p r i n t f ( ’ \ n P o p u l a t i o n de t a i l l e d+1=%i , ’ , d +1);
t 3=s p r i n t f ( ’ p r o b a b i l i t e de mutation p=%f , ’ , p ) ;
t 4=s p r i n t f ( ’ e t a t i n i t i a l x=%i . ’ , x ) ;
t i t l e ( [ t1 , t2 , t3 , t 4 ] ) ;
% Utilisation de la LGN sur une trajectoire de longueur n
N = zeros ( n , d +1); N( : , 1 + x ) = 1 ; m = f i x ( n / 1 0 ) ;
fo r i = 1 : n−1,
N( i + 1 , : ) = N( i , : ) ;
x = sum( rand ( 1 , d ) < p+(1−2∗p ) ∗ x/d ) ;
N( i +1,1+x ) = N( i +1,1+x ) + 1 ;
end
plot ( [ 0 : d ] ,N( n , : ) / n , ’ r+ ’ ) ; plot ( [ 0 : d ] ,N(m, : ) / m, ’ go ’ ) ;
% Calcul récursif de la loi à l’ instant n
P = zeros ( d+1,d +1); l o i n i = zeros ( 1 , d +1); l o i n i ( x ) = 1 ;
fo r x = 0 : d , P( x + 1 , : ) = dbinom ( [ 0 : d ] , d , p+(1−2∗p ) ∗ x/d ) ; end
l o i = l o i n i ; f o r i = 1 : n−1, l o i = l o i ∗ P ; end
% Tracés
plot ( [ 0 : d ] , l o i , ’ b ’ ) ;
l 1 = s p r i n t f ( ’LGN s u r une s e u l e t r a j . de l o n g u e u r %i ’ , n ) ;
l 2 = s p r i n t f ( ’LGN s u r une s e u l e t r a j . de l o n g u e u r %i ’ ,m) ;
l 3 = s p r i n t f ( ’ C a l c u l r e c u r s i f de l a l o i au temps %i ’ , n ) ;
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚50.
0.14. QUELQUES EXEMPLES CLASSIQUES 51
legend ( l 1 , l 2 , l 3 , 3 ) ;
Remarque 0.14.1. Cette étude du modèle de Wright-Fisher illustre une démarche générale.
Lorsque tous les états récurrents sont absorbants, l’étude porte en général sur le temps d’ab-
sorption. En revanche, lorsque tous les états sont récurrents, l’étude porte tout naturellement
sur les lois invariantes.
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚51.
52 TABLE DES MATIÈRES
0.09
0.08
0.07
Estimation de la probabilite en x
0.06
0.05
0.04
0.03
0.02
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚52.
0.14. QUELQUES EXEMPLES CLASSIQUES 53
A(x, y) 1
A(x,
e y) := P et C(x, y) :=
y∈E A(x, y) n
pour tout x et y dans E. Lorsque 0 < p < 1, le noyau de transition P est irréductible et
apériodique car tous ses coefficients sont strictement positifs. Comme l’espace d’état E est fini,
le noyau P possède une unique loi invariante µ. Pour tout x ∈ E, la quantité µ(x) représente la
probabilité que le surfeur se trouve sur la page x à l’équilibre. Il modélise la « popularité » de la
page x, en quelque sorte. Le nombre total de pages web d = card(E) est supérieur à plusieurs
milliards depuis les années 2000. Il augmente régulièrement.
Du point de vue de l’utilisateur, le moteur de recherche Google renvoie, à partir de mots clés
constituant une requête, une liste totalement ordonnée de pages web constituant la réponse à la
requête. Soit F ⊂ E l’ensemble des pages web correspondant à une requête particulière. Google
met à profit un modèle markovien pour opérer le tri de F . Google trie les éléments de F par ordre
décroissant sur µ. Ainsi, pour Google, une page web x ∈ F est d’autant plus « importante »
qu’elle possède un poids µ(x) important. Le tri nécessite seulement la connaissance des rapports
µ(x)/µ(y). La valeur de p utilisée par Google est voisine de 0, 85. Cet algorithme est connu sous
le nom de PageRank. Le PageRank d’une page web x ∈ E n’est rien d’autre que µ(x). Bien
entendu, le PageRank réellement utilisé par Google n’est pas exactement celui décrit ici. Le
moteur de recherche Google et son algorithme PageRank ont été mis au point par Page et Brin
à la fin des année 1990. Ils en présentent les principes dans [5]. Une étude markovienne de
PageRank se trouve dans [1].
Du point de vue de Google, le problème est d’évaluer efficacement A, p, et µ. Du point de vue
des auteurs de pages web, le problème est de trouver des stratégies permettant d’améliorer les
PageRank de leurs pages, en créant des liens, c’est-à-dire en modifiant la matrice A localement.
Cela permet à ces pages d’être mieux référencées par Google. Cela revient en quelque sorte à
concevoir la loi invariante µ comme une fonction de la matrice d’adjacence A du graphe.
La détermination de l’ensemble F associé à une requête particulière est possible grâce à
d’immenses bases de données. Ces bases de données détenues par Google sont mises à jour
régulièrement par une horde de robots surfeurs – les googlebots – qui parcourent de façon
automatisée le graphe des pages web et extraient des mots clés. Ce parcours régulier du World
Wide Web permet également de mettre à jour la matrice A qui représente la géométrie du
graphe des pages web, ainsi que l’estimation de µ.
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚53.
54 TABLE DES MATIÈRES
La chaîne de Markov (Xn ) est un cas très particulier de chaîne de Markov sur un graphe.
La marche aléatoire simple sur Zd abordée précédemment est une chaîne de Markov sur le
graphe infini et non orienté Zd , pour lequel la matrice d’adjacence est définie par A(x, y) = 1
si kx − yk1 = 1 et A(x, y) = 0 sinon. La géométrie du graphe Zd est régulière, contrairement à
celle du graphe du World Wide Web.
Le modèle du surfeur que nous avons introduit ne tient pas compte du fait que le graphe lui
même est aléatoire, et fluctue au cours du temps. On peut par exemple considérer que la matrice
d’adjacence est aléatoire. La taille de l’espace d’état peut également varier au cours du temps.
L’étude mathématique des graphes aléatoires constitue un champ important de recherche à
l’heure actuelle. De nombreux modèles issus de la physique, de l’informatique, et de la biologie
font intervenir des structures de graphes aléatoires. En physique, le phénomène de la percolation
peut être modélisé par des graphes aléatoires. En informatique, les réseaux pair-à-pair (Peer-to-
Peer ou P2P) constituent des graphes aléatoires. Le lecteur pourra consulter le livre accessible
[4] consacré aux graphes aléatoires.
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚54.
Bibliographie
[1] Konstantin Avrachenkov and Nelly Litvak, Decomposition of the Google PageRank and Optimal
Linking Strategies, Rapport de recherches INRIA 501 - projet Maestro, Janvier 2004. 53
[2] R. B. Bapat and T. E. S. Raghavan, Nonnegative matrices and applications, Encyclopedia of
Mathematics and its Applications, vol. 64, Cambridge University Press, Cambridge, 1997. MR
MR1449393 (98h:15038) 35
[3] Philippe Barbe and Michel Ledoux, Probabilités, De la licence à l’agrégation, Belin, 1998. 33
[4] Béla Bollobás, Random graphs, second ed., Cambridge Studies in Advanced Mathematics, vol. 73,
Cambridge University Press, Cambridge, 2001. MR MR1864966 (2002j:05132) 54
[5] S. Brin and L. Page, The Anatomy of a Large-Scale Hypertextual Web Search Engine,
WWW7/Computer Networks 30 (1998), no. 1-7, 107–117, disponible gratuitement : http:
//dbpubs.stanford.edu:8090/pub/1998-8. 53
[6] R. V. Chacon and D. S. Ornstein, A general ergodic theorem, Illinois J. Math. 4 (1960), 153–160.
MR MR0110954 (22 #1822) 22
[7] Amir Dembo, Favorite points, cover times and fractals, Lectures on probability theory and sta-
tistics, Lecture Notes in Math., vol. 1869, Springer, Berlin, 2005, pp. 1–101. MR MR2228383
36
[8] Amir Dembo, Yuval Peres, Jay Rosen, and Ofer Zeitouni, Cover times for Brownian motion and
random walks in two dimensions, Ann. of Math. (2) 160 (2004), no. 2, 433–464. MR MR2123929
(2005k:60261) 36
[9] Persi Diaconis, The cutoff phenomenon in finite Markov chains, Proc. Nat. Acad. Sci. U.S.A. 93
(1996), no. 4, 1659–1664. MR MR1374011 (97b:60112) 46
[10] Persi Diaconis and David Freedman, Graphical illustration of some examples related to the ar-
ticle: “Iterated random functions” [SIAM Rev. 41 (1999), no. 1, 45–76 (electronic); MR1669737
(2000c:60102)] by P. Diaconis and D. Freedman, SIAM Rev. 41 (1999), no. 1, 77–82 (electronic).
MR MR1669733 (2000c:60103) 39
[11] , Iterated random functions, SIAM Rev. 41 (1999), no. 1, 45–76 (electronic). MR
MR1669737 (2000c:60102) 39
[12] W. Doeblin, Exposé de la théorie des chaînes simples constantes de Markov à un nombre fini
d’états, Rev. Math. Union Interbalkanique 2 (1938), 77–105. 27
[13] Rick Durrett, Probability models for DNA sequence evolution, Probability and its Applications
(New York), Springer-Verlag, New York, 2002. MR MR1903526 (2003b:60003) 51
55
56 BIBLIOGRAPHIE
[14] William Feller, An introduction to probability theory and its applications. Vol. II., John Wiley &
Sons Inc., New York, 1971. 43
[15] R. A. Fisher, On the dominance ratio, Proc. Roy. Soc. Edin. (1922), no. 42, 321–431. 46
[16] Dominique Foata and Aimé Fuchs, Processus stochastiques - processus de poisson, chaînes de
markov et martingales, Dunod, 2002. 35
[17] W. K. Hastings, Monte Carlo sampling methods using Markov chains and their applications,
Biometrika (1970), no. 57, 97–109. 30
[18] R.A Horn and C.R. Johnson, Matrix Analysis, Cambridge University Press, 1990. 35
[19] Gregory F. Lawler, Intersections of random walks, Probability and its Applications, Birkhäuser
Boston Inc., Boston, MA, 1991. MR MR1117680 (92f:60122) 43
[20] Gérard Letac, A contraction principle for certain Markov chains and its applications, Random
matrices and their applications (Brunswick, Maine, 1984), Contemp. Math., vol. 50, Amer. Math.
Soc., Providence, RI, 1986, pp. 263–273. MR MR841098 (88a:60121) 39
[21] David Levin, Yuval Peres, and Elisabeth Wilmer, Markov Chains and Mixing Times, disponible
gratuitement : http://www.oberlin.edu/markov/book/, Juin 2006. 35
[22] Torgny Lindvall, Lectures on the coupling method, Dover Publications Inc., Mineola, NY, 2002,
Corrected reprint of the 1992 original. MR MR1924231 27
[23] A.A. Markov, Extension de la loi des grands nombres à des quantités dépendantes, Izvestiia Fiz.-
Matem. Obsch. Kazan Univ. (seconde série) 15 (1906), 135–156, (en russe). 5
[24] N. Metropolis, A. Rosenbluth, M. Rosenbluth, A. Teller, and E. Teller, Equations of State Cal-
culations by Fast Computing Machines, Journal of Chemical Physics (1953), no. 21, 1087–1092.
30
[25] Jacques Neveu, Relations entre la théorie des martingales et la théorie ergodique, Ann. Inst.
Fourier (Grenoble) 15 (1965), no. fasc. 1, 31–42, disponible gratuitement : http://www.numdam.
org/. MR MR0219699 (36 #2778) 22
[26] J. R. Norris, Markov chains, Cambridge University Press, Cambridge, 1998, Reprint of 1997
original. 23
[27] James David Propp and David Bruce Wilson, Exact sampling with coupled Markov chains and
applications to statistical mechanics, Proceedings of the Seventh International Conference on Ran-
dom Structures and Algorithms (Atlanta, GA, 1995), vol. 9, 1996, pp. 223–252. MR MR1611693
(99k:60176) 39
[28] Georg Pólya, Über eine Aufgabe der Wahrscheinlichkeitsrechung betreffend die Irrfahrt im
Straßennetz, Mathematische Annalen (1921), no. 84, 149–160. 41
[29] Laurent Saloff-Coste, Lectures on finite Markov chains, Lectures on probability theory and statis-
tics (Saint-Flour, 1996), Lecture Notes in Math., vol. 1665, Springer, Berlin, 1997, pp. 301–413.
MR MR1490046 (99b:60119) 35
[30] F. Spitzer, Principes des cheminements aléatoires, Dunod, Paris, 1970. 43
[31] Simon Tavaré, Ancestral inference in population genetics, Lectures on probability theory and
statistics, Lecture Notes in Math., vol. 1837, Springer, Berlin, 2004, pp. 1–188. MR MR2071630
51
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚56.
BIBLIOGRAPHIE 57
[32] Sewal Wright, Evolution in Mendelian populations, Genetics (1931), no. 16, 97–159. 46
[33] Bernard Ycart, Cutoff for Markov chains: some examples and applications, Complex systems
(Santiago, 1998), Nonlinear Phenom. Complex Systems, vol. 6, Kluwer Acad. Publ., Dordrecht,
2001, pp. 261–300. MR MR1886358 (2004a:60126) 46
Copyright
c 2006, B. Bercu & D. Chafaï. 2.0 du 2006-12-01. Document électronique créé le 18 janvier 2007, 22:39. Page n˚57.