Sunteți pe pagina 1din 155

Modlisation des rendements financiers

laide de la distribution de Laplace


asymtrique gnralise

Mmoire

Franois Pelletier

Matrise en actuariat
Matre s sciences (M.Sc.)

Qubec, Canada
Franois Pelletier, 2014

Rsum
Les modles classiques en finance sont bass sur des hypothses qui ne sont pas toujours vrifiables empiriquement. Lobjectif de ce mmoire est de prsenter lutilisation de la distribution
de Laplace asymtrique gnralise comme une alternative intressante ces derniers. Pour
ce faire, on utilise ses diffrentes proprits afin de dvelopper des mthodes destimation paramtrique, dapproximation et de test, en plus dlaborer quelques principes dvaluation de
produits drivs. On prsente enfin un exemple dapplication numrique afin dillustrer ces
diffrents concepts.

iii

Abstract
Classical models in finance are based on a set of hypotheses that are not always empirically
verifiable. The main objective behind this masters thesis is to show that the generalized
asymmetric Laplace distribution is an interesting alternative to those models. To support this
idea, we focus on some of its properties to develop parametric estimation, approximation and
testing methods, then we work out some principles of derivatives pricing. Finally, we have a
numerical example to illustrate these concepts.

Table des matires


Rsum

iii

Abstract

Table des matires

vii

Liste des tableaux

xi

Liste des figures

xiii

Remerciements

xvii

Introduction
1 Les modles de rendements financiers
1.1 Lutilisation de modles en finance . . . . .
1.1.1 Diffrents types de modles . . . . .
1.1.2 Le risque de modlisation . . . . . .
1.2 Les rendements financiers . . . . . . . . . .
1.2.1 Dfinitions et notations . . . . . . .
1.2.2 Rendements cumuls . . . . . . . . .
1.2.3 Donnes disponibles . . . . . . . . .
1.3 Les premiers modles . . . . . . . . . . . . .
1.3.1 Le modle de Bachelier . . . . . . .
1.3.2 Proposition de Mandelbrot . . . . .
1.3.3 Le modle de Press . . . . . . . . . .
1.3.4 Le modle de Praetz . . . . . . . . .
1.4 Conditions essentielles de Madan et Seneta

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

3
3
3
4
5
5
7
8
8
8
11
12
15
16

2 La distribution de Laplace asymtrique gnralise


2.1 Le processus de Laplace . . . . . . . . . . . . . . . . . . . .
2.1.1 Le processus gamma . . . . . . . . . . . . . . . . . .
2.1.2 Le processus de Wiener . . . . . . . . . . . . . . . .
2.1.3 Le processus de Laplace est un processus subordonn
2.2 Distribution de Laplace asymtrique gnralise . . . . . . .
2.2.1 Fonction caractristique . . . . . . . . . . . . . . . .
2.2.2 Invariance dchelle . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

19
19
20
21
22
25
25
26

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

vii

2.3
2.4

2.2.3 Fonctions gnratrices . . . . . . . . . . . .


2.2.4 Moments et rle des paramtres . . . . . . .
2.2.5 Changement dchelle et de localisation . .
2.2.6 Reprsentation alternative et simulation . .
2.2.7 Fonction de Bessel et densit . . . . . . . .
Cas particuliers . . . . . . . . . . . . . . . . . . . .
2.3.1 Distribution de Laplace asymtrique . . . .
Relation avec le modle de Madan et Seneta (1990)

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

28
28
30
32
33
35
35
37

3 Approximation de la densit et de la fonction de rpartition


3.1 Lapproximation de Laplace . . . . . . . . . . . . . . . . . . . .
3.2 Lapproximation de Temme . . . . . . . . . . . . . . . . . . . .
3.3 La mthode du point de selle . . . . . . . . . . . . . . . . . . .
3.3.1 Approximation de la densit . . . . . . . . . . . . . . . .
3.3.2 Unicit du point de selle . . . . . . . . . . . . . . . . . .
3.3.3 Approximation de la fonction de rpartition . . . . . . .
3.3.4 Quelques proprits des approximations . . . . . . . . .
3.4 Application de la mthode du point de selle . . . . . . . . . . .
3.4.1 Approximation de la densit . . . . . . . . . . . . . . . .
3.4.2 Approximation de la fonction de rpartition . . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

39
39
41
42
42
44
44
45
46
46
47

4 Mthode des moments gnralise


4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.1 Mthode classique des moments . . . . . . . . . . . .
4.2 Mthode des moments gnralise . . . . . . . . . . . . . . .
4.2.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . .
4.2.2 Convergence . . . . . . . . . . . . . . . . . . . . . .
4.2.3 Matrice de pondration optimale . . . . . . . . . . .
4.2.4 Mthode des moments gnralise itrative . . . . .
4.2.5 Distribution asymptotique des estimateurs . . . . . .
4.3 Estimation sous contraintes . . . . . . . . . . . . . . . . . .
4.3.1 Distribution asymptotique des estimateurs contraints
4.4 Tests dhypothses paramtriques . . . . . . . . . . . . . . .
4.4.1 Test de Wald . . . . . . . . . . . . . . . . . . . . . .
4.4.2 Test du multiplicateur de Lagrange . . . . . . . . . .
4.4.3 Test bas sur la statistique de mtrique de distance .
4.4.4 En rsum . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

49
49
50
50
51
52
53
55
55
58
59
61
61
62
63
63

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

5 Mthode de lquation destimation optimale


65
5.1 quation destimation optimale . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.2 quation destimation optimale modifie . . . . . . . . . . . . . . . . . . . . . . 70
6 Estimation des paramtres de la distribution
nralise
6.1 Vecteur de paramtres initiaux . . . . . . . .
6.2 Mthode des moments gnralise . . . . . . .
6.2.1 Matrice de pondration optimale . . .

viii

de Laplace asymtrique g73


. . . . . . . . . . . . . . . . . . . 73
. . . . . . . . . . . . . . . . . . . 74
. . . . . . . . . . . . . . . . . . . 75

6.3

6.2.2 Variance-covariance des paramtres . . . . . . . . . . . . . . . . . . . . . 76


6.2.3 Contraintes linaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
Mthode de lquation destimation optimale . . . . . . . . . . . . . . . . . . . 78

7 Tests statistiques
7.1 Test de normalit . . . . . . . . . . . . . .
7.1.1 Test de Shapiro-Wilk . . . . . . . .
7.1.2 Test dEpps-Pulley . . . . . . . . .
7.2 Tests dadquation . . . . . . . . . . . . .
7.2.1 Test 2 de Pearson . . . . . . . . .
7.2.2 Test de Kolmogorov-Smirnov . . .
7.2.3 Test de distance minimale bas sur

. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
la fonction gnratrice des

. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
moments

81
81
81
82
82
83
84
85

8 valuation doptions
8.1 Dfinitions . . . . . . . . . . . . . . . . . . . . . . . . .
8.1.1 quation martingale . . . . . . . . . . . . . . .
8.1.2 Paramtres neutres au risque . . . . . . . . . .
8.2 Aperu du modle de Black-Scholes . . . . . . . . . . .
8.3 Mthodes dvaluation pour options europennes . . .
8.3.1 Mthode de Heston . . . . . . . . . . . . . . . .
8.3.2 Mthode de Carr et Madan . . . . . . . . . . .
8.3.3 Prix dexercice hors du cours . . . . . . . . . .
8.3.4 Critique de la mthode de Carr-Madan . . . . .
8.3.5 Mthode dEpps . . . . . . . . . . . . . . . . .
8.4 Particularits . . . . . . . . . . . . . . . . . . . . . . .
8.4.1 Option sur actions avec dividendes . . . . . . .
8.4.2 Options sur contrats terme et taux de change

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

87
87
88
89
90
90
91
91
93
93
93
95
95
95

9 Exemple dapplication
9.1 Description des donnes
9.2 Estimation . . . . . . .
9.3 Approximation . . . . .
9.4 Graphiques . . . . . . .
9.5 Tests statistiques . . . .
9.6 valuation doptions . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

97
97
99
104
105
108
109

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

Conclusion

113

A lments de thorie des probabilits


A.1 Dfinitions de base . . . . . . . . . . . . . . .
A.2 Transformes dune variable alatoire . . . . .
A.2.1 La fonction caractristique . . . . . . .
Transforme de Fourier . . . . . . . .
Dfinition . . . . . . . . . . . . . . . .
Les moments . . . . . . . . . . . . . .
A.2.2 Inversion de la fonction caractristique
La densit . . . . . . . . . . . . . . . .

115
115
116
116
116
116
117
117
117

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

ix

La fonction de rpartition . . . . . . . . . . . .
A.2.3 La fonction gnratrice des moments . . . . . .
A.2.4 La fonction gnratrice des cumulants . . . . .
A.2.5 La transforme dEsscher . . . . . . . . . . . .
A.3 La transforme de Fourier rapide . . . . . . . . . . . .
A.4 Processus de Lvy . . . . . . . . . . . . . . . . . . . .
A.4.1 Dfinition et proprits . . . . . . . . . . . . .
Reprsentation de Lvy-Khintchine . . . . . . .
Reprsentation de Lvy-It . . . . . . . . . . .
A.4.2 Processus subordonn . . . . . . . . . . . . . .
A.5 Thormes dintgration . . . . . . . . . . . . . . . . .
A.5.1 Thorme de convergence domine de Lebesgue
A.5.2 Thorme de Fubini . . . . . . . . . . . . . . .
B lments de statistique mathmatique
B.1 Loi faible des grands nombres . . . . .
B.2 Thorme central limite . . . . . . . .
B.2.1 Cas univari . . . . . . . . . . .
B.2.2 Cas multivari . . . . . . . . .
B.3 Mthode delta multivarie . . . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

117
118
119
120
120
121
121
122
122
123
123
124
124

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

125
125
125
126
126
127

C Donnes

129

Bibliographie

131

Contrat de partage

137

Liste des tableaux


1.1
1.2

Domaine et rle des paramtres de la distribution L stable de Mandelbrot . . . . . 12


Respect des conditions mises par Madan et Seneta pour les diffrents modles
prsents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2.1
2.2
2.3

Domaine et rle des paramtres de la distribution de Laplace asymtrique gnralise 30


Cas spciaux de la distribution de Laplace asymtrique gnralise . . . . . . . . . 35
Changements de paramtrisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

4.1

Tests dhypothse paramtriques pour la mthode des moments gnralise . . . . 63

5.1

Mthodes destimation reprsentables par la forme quadratique (5.0.6) . . . . . . . 67

6.1

Contraintes linaires pour les cas particuliers de la distribution de Laplace asymtrique gnralise GAL(, , , ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

9.1
9.2
9.3
9.4
9.5
9.6
9.7
9.8
9.9
9.10

Statistiques dordre de lchantillon R1 . . . . . . . . . . . . . . . . . . .


Valeurs relatives aux premiers moments de lchantillon R1 . . . . . . .
Test de normalit dEpps-Pulley pour R1 . . . . . . . . . . . . . . . . .
Paramtres 1 de la premire optimisation . . . . . . . . . . . . . . . . .
Paramtres 1 de la premire optimisation . . . . . . . . . . . . . . . . .
Paramtres des donnes R1 . . . . . . . . . . . . . . . . . . . . . . . . .
Approximation de la densit de R1 . . . . . . . . . . . . . . . . . . . . .
Approximation de la fonction de rpartition de R1 . . . . . . . . . . . .
Courbes de densit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Valeur de lintgrale de lapproximation de la densit par la mthode du
selle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Test du 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Test de Kolmogorov-Smirnov . . . . . . . . . . . . . . . . . . . . . . . .
Test de distance minimale bas sur la fonction gnratrice des moments
Caractristiques de loption . . . . . . . . . . . . . . . . . . . . . . . . .
Paramtres neutres au risque . . . . . . . . . . . . . . . . . . . . . . . .

9.11
9.12
9.13
9.14
9.15

. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
point de
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .

.
.
.
.
.
.
.
.
.

97
98
98
100
102
103
104
105
105

.
.
.
.
.
.

105
108
108
109
109
109

C.1 Prix du titre Abbey National (penny sterling) du 31 juillet au 8 octobre 1991 . . . 129

xi

Liste des figures


1.1
1.2

Modle de Bachelier : probabilit compose . . . . . . . . . . . . . . . . . . . . . . 8


Distribution des rendements annuels de 40 titres boursiers, de 1890 1915, Table
XVIII de Mitchell (1916) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2.1
2.2
2.3

Premier incrment dun processus subordonn . . . . . . . . . . . . . . . . . . . .


Simulation dun processus de Wiener subordonn par un processus gamma . . . .
Fonction de densit de la distribution Laplace asymtrique gnralise avec diffrents paramtres : GAL(y; , , , ) . . . . . . . . . . . . . . . . . . . . . . . . .
Histogramme et estimateur de densit par noyau de 2500 ralisations de la variable
alatoire Y GAL( = 0, = 1, = 2, = 1) . . . . . . . . . . . . . . . . . . . .

2.4

. 23
. 24
. 31
. 34

3.1
3.2

Probabilit lextrmit du support . . . . . . . . . . . . . . . . . . . . . . . . . . 40


Distribution normale tronque w0 . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

9.1
9.2
9.3
9.4
9.5
9.6
9.7
9.8

Reprsentation en srie chronologique de lchantillon R1 . . . . . . . . . . . . . . . 98


Distribution de la variable alatoire R1 . . . . . . . . . . . . . . . . . . . . . . . . . 99
Graphique Quantile-Quantile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
quation du point de selle pour r = 0.01 . . . . . . . . . . . . . . . . . . . . . . . . 104
Densit de R1 selon la mthode des moments gnralise . . . . . . . . . . . . . . . 106
Densit de R1 selon la mthode de lquation destimation optimale . . . . . . . . . 107
Prix de loption selon les paramtres estims avec la mthode des moments gnralise110
Prix de loption selon les paramtres estims avec la mthode de lquation destimation optimale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

xiii

Dieu ne se soucie pas de nos


difficults mathmatiques. Il
intgre empiriquement.
Albert Einstein

xv

Remerciements
Je dois avouer que je ne savais pas trop quoi mattendre au moment o jai commenc la
rdaction de ce mmoire. En essayant de ne pas oublier personne, jaimerais tout dabord
remercier celui qui ma accompagn durant ces deux dernires annes et qui ma normment
appris, le professeur Andrew Luong.
Jaimerais aussi remercier mes valuateurs, les professeurs Claire Bilodeau et Julien Trufin.
Jaimerais aussi remercier le professeur Vincent Goulet, qui ma fortement encourag de minscrire la matrise, et pour les nombreuses rfrences quil a pu me fournir, pour la rdaction
entre autres, qui mont grandement facilit la tche. Je remercie tout autant le professeur
Ghislain Lveill pour son soutien et pour mavoir offert la possibilit de prsenter mes rsultats.
Jaimerais aussi remercier lensemble des tudiants gradus, des professeurs et du personnel
de lcole dActuariat de lUniversit Laval, ainsi que mes collgues de travail de la CARRA,
pour leur soutien et leurs encouragements.
Je suis reconnaissant envers lcole dActuariat et la Chaire dActuariat de lUniversit Laval
pour le soutien financier en moffrant des postes dauxiliaires denseignement et de recherche.
Enfin, jaimerais remercier mes parents, ma soeur et lensemble de ma famille et de mes amis
pour avoir accept que je passe plus de temps crire des formules bizarres sur lordinateur
qu tre avec eux.

xvii

Introduction
Lutilisation de la distribution de Laplace asymtrique gnralise dans le cadre de la modlisation des rendements financiers est de plus en plus courante dans les milieux acadmiques et
pratiques. Entre autres, elle prsente une alternative intressante au modle de Black-Scholes
pour lvaluation des options de type europennes. De plus, elle peut tre utilise pour modliser les rendements obligataires long terme et les variations du taux de change. Cependant, la
littrature actuelle prsente peu doutils qui facilitent lutilisation en pratique de cette distribution. La principale motivation derrire le travail de recherche et de synthse prsent dans
ce texte a t de dvelopper certains outils qui permettent lestimation des paramtres de la
distribution et lapproximation de celle-ci. De plus, plusieurs tests statistiques sont prsents
afin dvaluer la validit du modle estim et de certaines contraintes linaires quon pourrait
lui appliquer.
Au chapitre 1, on prsente les diffrents types de modles financiers ainsi que le risque associ
la modlisation. On introduit aussi diffrents concepts thoriques entourant les rendements
financiers. Puis, on dresse un historique des modles financiers ayant men lutilisation de
la distribution de Laplace asymtrique gnralise.
Au chapitre 2, on introduit les processus gamma et de Wiener qui sont les deux composantes
essentielles du processus de Laplace. Puis, on prsente les principales caractristiques de la
distribution de Laplace asymtrique gnralise. Enfin, on prsente quelques cas particuliers
de celle-ci et on fait le lien avec le modle variance-gamma de Madan et Seneta.
Au chapitre 3, on prsente la mthode du point de selle qui permet deffectuer lapproximation
de la densit et de la fonction de rpartition lorsquelles nont pas de forme analytique. On
applique ensuite cette mthode la distribution de Laplace asymtrique gnralise.
Au chapitre 4, on prsente la mthode des moments gnralise ainsi que son utilisation dans
le cadre de lestimation sous contraintes. On prsente ensuite certains tests dhypothse paramtriques.
Au chapitre 5, on prsente la mthode des quations destimation optimales ainsi quune
version lgrement modifie qui diminue la quantit de calcul ncessaire.

Au chapitre 6, on applique les mthodes destimation des deux chapitres prcdents la


distribution de Laplace asymtrique gnralise. On prsente en premier lieu une mthode qui
permet dobtenir un point de dpart pour lalgorithme doptimisation. Puis, on dtaille les
rsultats obtenus.
Au chapitre 7, on prsente les tests de normalit de Shapiro-Wilk et dEpps-Pulley, puis ceux
dadquation du 2 de Pearson, celui de Kolmogorov-Smirnov ainsi quun autre bas sur la
fonction gnratrice des moments.
Au chapitre 8, on prsente diffrentes mthodes pour lvaluation doptions. On prsente
dabord quelques notions lies aux produits drivs, puis on dtaille trois mthodes pouvant tre utilises avec la distribution de Laplace asymtrique gnralise. Enfin, on prsente
quelques particularits lies certains titres financiers.
Au chapitre 9, on prsente un exemple dapplication des outils dvelopps aux chapitres 3 8
avec un ensemble de donnes.
Enfin, on prsente en annexe certaines notions de thorie des probabilits et de statistique.

Chapitre 1

Les modles de rendements financiers


1.1

Lutilisation de modles en finance

On doit considrer les implications de lutilisation de modles en finance avant dentreprendre


leur tude. On doit aussi prendre connaissance des diffrents types ainsi que les risques lis
chacun dentre eux. Pour ce faire, on se rfre la note Model Risk publie par Derman
(1996).
Durant les dernires dcennies, plusieurs modles sont apparus afin de fournir une approche
fondamentale aux concepts de tarification, doffre et de demande et darbitrage aux intervenants des milieux financiers. Au cours des annes 1970, on se proccupe particulirement des
fluctuations des taux dintrt, un phnomne qui marque cette poque. Les notions de duration et de convexit font alors leurs dbuts. Sur les marchs de capitaux propres, on sintresse
la discordance entre le prix ngoci des contrats terme et le prix raisonnable calcul selon
une perspective thorique.
Puis, la confiance dveloppe envers le modle de tarification doptions de Black et Scholes
(1973) et ses extensions a favoris la croissance du march des produits drivs. La puissance
de calcul croissante des ordinateurs a aussi permis llaboration et lutilisation de modles de
plus en plus sophistiqus. La dpendance qui peut se dvelopper envers ceux-ci apporte son
lot de considrations. On doit donc se rappeler lutilisation dsire par les auteurs de ceux-ci
et le risque associ leur usage grande chelle.

1.1.1

Diffrents types de modles

Toujours selon Derman, un modle financier peut tre class parmi au moins trois catgories :
1. Le modle fondamental, bas sur un systme de postulats et de donnes, entre lesquels
on peut tablir diffrentes relations. Le modle de Black-Scholes en est un exemple.

2. Le modle phnomnologique, qui prsente une description ou une analogie, afin


dillustrer quelque chose qui ne peut tre directement observ. Cest un modle moins
fondamental, bas aussi sur des liens de cause effet. Un modle qui chercherait
expliquer limpact du retrait du porteur de parts majoritaire dune entreprise sur la
valeur des actions de celle-ci serait phnomnologique.
3. Le modle statistique, bas sur une rgression ou un rglage optimal entre diffrents
ensembles de donnes. On ne cherche pas ici expliquer une dynamique, mais dcrire
une tendance ou une corrlation. Le modle dvaluation des actifs financiers et celui des
trois facteurs de Fama et French (1993) en sont des exemples.
Un modle financier est en partie bas sur des variables qui reprsentent des opinions et
des anticipations, et non seulement des quantits mesurables. Ces variables peuvent tre,
entre autres, le rendement et la volatilit future esprs. Cette considration sera importante
notamment lorsque lon voudra dterminer le prix raisonnable dun produit driv. En effet,
un modle de tarification est essentiellement un moyen de reflter lintuition des acteurs du
march propos de ces variables sous la forme dun prix exprim dans une unit montaire.
Un bon modle doit faciliter lextrapolation de ce prix sous certaines conditions de march.
Contrairement la physique classique, un principe fondamental en finance est lincertitude. On
ne peut anticiper la valeur dun titre un moment donn dans le futur avec la mme prcision
quon peut prvoir la position dun objet cet instant. Les outils mathmatiques principalement utiliss seront alors les processus stochastiques, les statistiques et les distributions de
probabilits, en plus du calcul diffrentiel et intgral.

1.1.2

Le risque de modlisation

Plusieurs risques inhrents la modlisation en finance existent. Quelques-uns dentre eux


seront dcrits dans cette section.
La modlisation peut tout simplement ne pas tre applicable la situation tudie. Lexemple
le plus probant serait de tenter de prvoir les mouvements du prix dun titre financier court
terme.
Un modle peut tre incorrect pour plusieurs raisons. Entre autres, il peut ignorer certains
facteurs ou poser une hypothse dterministe inapproprie sur ceux-ci. Il peut aussi considrer
une dynamique incorrecte pour un des facteurs ou encore une relation inapproprie entre ceuxci. Enfin, il peut ntre applicable que sous certaines conditions bien prcises ou encore que son
utilisation soit limite court terme, notamment lorsquil ncessite un temps de calibration
pour tre statistiquement valable. Il peut aussi tre inutilisable par une mauvaise estimation
des paramtres.

Un modle peut aussi tre correct, mais avoir une solution errone. Cela se produit notamment
lorsquon tente de driver une solution analytique ou que lon doit utiliser des mthodes
numriques pour obtenir celle-ci. On se doit, dans ce cas, de connatre lerreur maximale
possible de la mthode utilise. Un modle correct peut aussi tre utilis dans le mauvais
contexte. Par exemple, on pourrait avoir recours des paramtres inadquats de simulation,
ou encore rutiliser le modle dans une autre situation sans tenir compte des conditions de
validit de celui-ci.
Son utilisation peut gnrer des prix draisonnables ; on parle alors darbitrage de modle. Par
exemple, si un titre est valu laide du modle dvaluation des actifs financiers, son prix
sera diffrent de celui qui serait obtenu avec la rgression trois facteurs de Fama et French.
Un investisseur peut alors faire du profit en achetant le titre celui qui demande le prix le
plus faible pour le revendre celui qui offre le plus lev.
Lutilisation de donnes instables peut produire des rsultats diffrents selon la priode tudie. La possibilit quune estimation base sur des donnes historiques soit errone doit tre
considre.
Enfin, comme la plupart des modles financiers sont implments sous forme de logiciels,
diffrents bogues informatiques peuvent se retrouver dans le code source. On considre entre
autres des erreurs darrondissement, de logique et de clart du code, ainsi que des particularits
du matriel qui nauraient pas t prises en compte par le programmeur. Ces erreurs peuvent
tre difficiles dtecter, cest pourquoi un grand nombre de tests devraient tre effectus avant
de publier un logiciel de modlisation financire.

1.2

Les rendements financiers

Le rendement est dfini comme tant le gain ou la perte de valeur dun actif sur une priode
donne. Il est constitu des revenus occasionns et des gains en capitaux dun investissement et
est habituellement reprsent sous la forme dun pourcentage. Ces derniers peuvent prendre la
forme de coupons pour les titres revenus fixes et de dividendes pour les actions changes sur
les marchs boursiers. On ne considrera, dans ce texte, que les titres boursiers sans dividende,
dont le rendement est li uniquement aux gains en capitaux.

1.2.1

Dfinitions et notations

On dfinit le prix S(t) > 0 dun titre financier observ au temps t. Implicitement, le prix
considr est celui la fermeture. On dfinit aussi le taux de rendement effectif R(t) sur une
priode comprise dans lintervalle de temps [t 1, t]. Cest le taux compos continument, aussi
appel force dintrt, qui aurait occasionn les mmes gains ou pertes sur un montant dpos

en banque au cours de la priode concerne. Le taux de rendement est la variable dintrt


dans le contexte de la modlisation financire.
On associe le taux de rendement effectif la diffrence entre le logarithme du prix initial et
final. Dans la situation o le taux de rendement est dterministe et non alatoire, on obtient
lquation diffrentielle suivante :
dS(t)
= R(t) S(t).
dt
On peut interprter cette quation en affirmant que la variation du prix dS(t) sur un intervalle
de temps infiniment petit dt est proportionnelle la valeur actuelle S(t). Cette quation
diffrentielle a pour solution gnrale :
S(t) = S(0)eR(t)t .

(1.2.1)

Afin de dfinir les proprits de lchantillon slectionn, on pose comme hypothse :


Hypothse 1.1. Le rendement R(t) est constant durant la priode dfinie par lintervalle de
temps [t 1, t], mais il est diffrent dune lautre : R(s) 6= R(t), s 6= t.
On peut alors reprsenter le rendement R(t) comme tant la diffrence entre les logarithmes
des prix observs au temps t et t 1, ou encore le logarithme du quotient de ces mmes prix :
R(t) = ln (S(t)) ln (S(t 1))


S(t)
.
= ln
S(t 1)

(1.2.2)

On dfinit aussi le rendement cumul L(t). Il correspond la somme des rendements effectifs
observs sur lintervalle [0, t] :
L(t) =

t
X
i=1
t
X

R(i)

[ln (S(i) ln (S(i 1))]

i=1

= ln (S(t)) ln (S(0))


S(t)
= ln
.
S(0)

(1.2.3)

Cette reprsentation permet dexprimer le prix actuel S(t) en fonction de la valeur initiale
S(0) sous une forme similaire la solution (1.2.1), mais tenant compte de lhypothse mise

prcdemment :
eL(t) =

S(t)
S(0)

S(t) = S(0) eL(t)


= S(0) exp

t
X

!
R(i) .

(1.2.4)

i=1

1.2.2

Rendements cumuls

On pose lhypothse suivante :


Hypothse 1.2. Les rendements R(i), i 1, . . . , t sont indpendants, mais pas ncessairement
identiquement distribus.
On peut alors obtenir la distribution du rendement cumul L(t) en utilisant le produit de
convolution (A.2.12). Considrons R(i) () la fonction caractristique dun rendement R(i)
et L(t) () celle du cumul L(t). On obtient alors que cette dernire est gale au produit
des fonctions caractristiques des rendements effectifs sur chacune des priodes de lintervalle
[0, t] :
L(t) () =

t
Y

R(i) ().

(1.2.5)

i=1

On considre la situation o lon posera plutt lhypothse suivante :


Hypothse 1.3. Les rendements R(i), i 1, . . . , t sont la fois indpendants et identiquement
distribus.
Alors, la fonction caractristique des rendements est gale pour chaque priode :
R () = R(1) () = . . . = R(t) ().

(1.2.6)

On peut donc simplifier lexpression (1.2.5) pour obtenir la fonction caractristique :


L(t) () = [R ()]t .

(1.2.7)

Considrer une distribution qui est ferme sous la convolution pour modliser les rendements
sur une priode R(i) peut alors tre intressant. Le rendement cumul L(t) pourra aussi tre
modlis laide de la mme distribution. Pour ce faire, on modifie un paramtre dchelle en
fonction de la longueur t de lintervalle de temps considr.

1.2.3

Donnes disponibles

Les donnes disponibles auprs des fournisseurs dinformations financires prennent habituellement la forme de sries chronologiques discontinues. Celles-ci incluent les prix louverture,
le plus bas et le plus lev au courant de la journe ainsi qu la fermeture, pour chaque jour
o les marchs financiers sont en activit. Afin de mesurer le rendement quotidien dun titre,
seuls les prix la fermeture seront considrs.

1.3
1.3.1

Les premiers modles


Le modle de Bachelier

Un des premiers modles proposs afin de reprsenter les rendements financiers a t celui de
Bachelier (1900) .
Le prix dun titre peut varier, durant une priode, de nimporte quelle valeur comprise dans
lintervalle [S(t), ]. Il propose donc que cet intervalle soit remplac par lensemble du
domaine rel R. La probabilit que le titre atteigne une valeur nulle ou ngative ou que celle-ci
double devrait donc tre ngligeable. Il ajoute aussi que la variation est indpendante du prix
actuel du titre S(t) et que la distribution de probabilits de celle-ci est symtrique et centre
en ce point.
Il utilise le principe selon lequel la probabilit que deux vnements indpendants conscutifs
aient lieu est le produit de celles que chacun dentre eux se ralise, pour tablir la distribution
des variations du prix. Par exemple, la variation du prix sur une premire priode prend la
valeur x et celle sur une seconde, z x, comme illustr la figure 1.1.
S(0)

S(0) + x

S(0) + z

t1

t1 + t2

Figure 1.1: Modle de Bachelier : probabilit compose

On dfinit f (x, t) la fonction de densit de la variation du prix S(t) par rapport au niveau
initial S(0). Alors, selon le principe prcdent, on obtient lexpression
Z

f (x, t1 ) f (z x, t2 ) dx.

f (z, t1 + t2 ) =

La solution propose est que la densit de probabilit soit de la forme




f (x, t) = A exp B 2 x2 .

(1.3.1)

Afin que la fonction f (x, t) soit une densit de probabilit, la condition suivante doit tre
respecte :
Z



A exp B 2 x2 dx = 1.

(1.3.2)

Ceci implique que

B = A .
En posant x = 0, on a A = f (0, t) et lon en dduit :


f (x, t) = f (0, t) exp f (0, t)2 x2 .

(1.3.3)

En reprenant lintgrale (1.3.1), on obtient que la densit de probabilit f (z, t1 + t2 ) soit aussi
de la forme (1.3.2) :



f (x, 1)f (z x, 2)
2
exp
f (z, t1 + t2 ) = p
z .
f (x, 1)2 + f (z x, 2)2
f (x, 1)2 + f (z x, 2)2
f (x, 1)f (z x, 2)

(1.3.4)

On reconnaitra que cette densit est, un changement de variable prs, une loi normale. La
dmarche suggre quil recherchait une distribution qui tait ferme sous la convolution, une
proprit souhaitable pour un modle cohrent des rendements financiers.
Ce modle implique un processus de Wiener-Bachelier selon lequel les incrments, ou les changements de prix, suivent une distribution normale :

S(T ) S(t) N 0, 2 (T t) .

(1.3.5)

On doit noter que ce modle implique que la variance des fluctuations nest pas proportionnelle
au prix initial. Une premire correction sera apporte au modle afin de considrer le logarithme
du prix. Ce changement permettra dobtenir un modle o elle est dsormais proportionnelle
au prix initial. Le processus du prix suivra alors un mouvement brownien gomtrique :
S(T ) S(t) LN (0, (T t)) .

(1.3.6)

Le logarithme du prix suivra alors un processus de Wiener-Bachelier :


ln (S(T )) ln (S(t)) N (0, (T t)) .

(1.3.7)

Un des principaux avantages du processus de Bachelier modifi est que le rendement cumul
L(t) est aussi une variable alatoire gaussienne. Cette proprit est appele L-stabilit ou

invariance sous laddition. La distribution gaussienne est la seule ayant cette proprit o le
second moment est fini. Le sujet des distributions L stables sera aussi abord la section 1.3.2.
Quelques annes aprs sa publication, ce modle est lobjet de critiques de la part dconomistes
et de financiers. En se rfrant Mitchell (1916), on observe que, sur une base annuelle, les
variations ngatives par rapport la moyenne (149) sont plus frquentes que celles qui sont
positives (126), pour un ensemble de 40 titres boursiers, entre 1890 et 1915 (figure 1.2). Une

0.015
0.010
0.000

0.005

Frquence

0.020

0.025

asymtrie ngative des rendements sera alors prsente.

100

100

200

300

Rendements annuels (%)

Figure 1.2: Distribution des rendements annuels de 40 titres boursiers, de 1890 1915, Table
XVIII de Mitchell (1916)

De plus, les variations extrmes sont plus frquentes que ne pourrait le prdire un modle
bas sur un mouvement brownien. La distribution des rendements aurait donc des queues
plus paisses 1 que la normale. On doit trouver un modle qui permet de tenir compte de ces
1. traduction de langlais heavy tailed

10

particularits.

1.3.2

Proposition de Mandelbrot

Mandelbrot (1963) propose un modle qui vise combler les lacunes du processus brownien
gomtrique (1.3.6). Il explique que les distributions empiriques des changements de prix sont
habituellement trop pointues pour tre considres comme des chantillons dune population
gaussienne.
Il identifie diffrentes caractristiques quun bon modle des rendements financiers devrait
possder :
1. Il doit tenir compte de la frquence des grands changements de prix. Il doit donc tre
bas sur une distribution leptocurtique, plus pointue au centre que la normale.
2. Il doit permettre des changements instantans et imprvisibles de toute amplitude.
3. Il doit admettre une probabilit non nulle que plusieurs changements conscutifs semblent
corrls.
4. Il doit admettre un processus de prix non stationnaire, car la variance chantillonnale
prend diffrentes valeurs travers le temps.
La famille de distributions L stables semble tre celle qui rpond le mieux lensemble de
ces conditions (Walter, 1995). Lquation suivante dfinit la proprit de L-stabilit de la
distribution de la variable alatoire des rendements sur une priode R :
d

(a1 R1 + b1 ) + (a2 R2 + b2 ) = aR + b
a1 , a2 > 0, b1 , b2 .

(1.3.8)
(1.3.9)

La solution gnrale de cette quation a t dcouverte par Lvy en 1925. Le logarithme de la


fonction caractristique de celle-ci prend la forme suivante :


i

ln (R ()) = i || 1 +
tan
.
||
2

(1.3.10)

Le domaine et le rle des paramtres de la distribution L stable sont dcrits la table 1.1.
La flexibilit apporte par les quatre paramtres permet de remplir les quatre conditions
tablies au dbut de cette section. De plus, labsence, dans la majorit des cas, de moments
finis dordre suprieur lesprance permet de tenir compte du mouvement erratique des
prix et ainsi produire de larges discontinuits de son processus. Elle permet aussi dexpliquer
lapparence de corrlation srielle, en considrant une probabilit non ngligeable que cette
caractristique soit prsente. Cependant, ce modle est difficile appliquer lvaluation de

11

Paramtre

Domaine
]0, 2]

Rle
Aplatissement

]1, 1]

Asymtrie

= s

R \ {0}

chelle

Localisation

Observations
Plus sa valeur est petite, plus la distribution est leptocurtique. = 2 correspond la distribution normale.
Dfini seulement lorsque 6= 1.
Lorsque = 1 et = 0, on obtient
la distribution de Cauchy.
On doit prendre la racine pour obtenir un paramtre dchelle s tel que
dfini par Pearson.

Table 1.1: Domaine et rle des paramtres de la distribution L stable de Mandelbrot

produits drivs pour cette raison, tant donn que lon devra tre en mesure de quantifier la
volatilit.
Lapproche classique, selon Mandelbrot, pour expliquer les grands changements de prix a
t de considrer un mlange de deux distributions normales, dont une pour les fluctuations
rgulires et une qui a une variance plus importante, pour les discontinuits. Il remarque que
pour expliquer adquatement le comportement des donnes empiriques, on doit introduire un
mlange de plusieurs distributions normales, ce qui rendrait le modle plus complexe. Par
contre, on retrouve une approche intressante avec le modle prsent la section suivante.

1.3.3

Le modle de Press

Press (1967) propose un modle statistique bas sur un processus de Poisson compos auquel
on ajoute un mouvement brownien W (t). Cest donc dun processus ayant des incrments stationnaires et indpendants. Il prsente donc les caractristiques dun processus de Lvy. Press
utilise aussi la transformation logarithmique (1.3.6) afin que la variation soit proportionnelle
au prix. Il remarque aussi que le modle logarithmique de Bachelier est inadquat, car il ne
tient pas compte des queues de la distribution empirique des rendements qui sont plus paisses
que celles de la normale. Il ajoute que le modle propos par Mandelbrot est discutable, car il
ne trouve aucune vidence, partir des donnes observes, que la distribution de la population
aurait une variance infinie.
Le processus de Poisson {N (t)} de paramtre t est un processus de comptage qui dtermine
les occurrences des sauts Yk , k = 1, . . . , N (t). Ces sauts surviennent gnralement lorsquune
information importante est rendue publique par rapport un titre. Ceux-ci sont aussi de
distribution normale, mais leur esprance nest pas nulle et leur variance est diffrente de celle
du processus W (t). Cette composante que lon ajoute au modle de Bachelier modifi permet
dexpliquer les variations plus importantes et moins frquentes observes empiriquement.

12

Le processus du logarithme du prix {s(t)} {ln (S(t))} est donc reprsent par lquation
suivante :
N (t)

s(t) = s(0) +

Yk + W (t).

(1.3.11)

k=1

On dfinit les diffrentes variables alatoires composant le processus comme suit :


Yk N (, 22 )
W (t) N (0, 12 t)
N (t) P oisson(t)

Comme pour la plupart des processus de Lvy, on ne peut obtenir une forme explicite pour
la fonction de densit, car celle-ci se prsente sous la forme dune srie infinie. On reprsente
alors ces processus par leur fonction caractristique, forme par le produit de celles de leurs
diffrentes composantes.
La distribution du logarithme du prix s(t) est dfinie par la fonction caractristique s(t) (),
qui est le produit de celle de la constante et celles des processus de Wiener et de Poisson
compos :
i
h
s(t) () = E eis(t)

n h
io
t12 2
2 2
= exp {i s(0)} exp
exp t ei(2 /2) 1
2

h
i
t 2 2
i(22 2 /2)
= exp i s(0) 1 + t e
1 .
2


(1.3.12)

Afin destimer le modle, on sintressera plutt la distribution dun incrment s(t) =


s(t) s(t 1) de ce processus. La fonction caractristique s(t) () de cette variable alatoire
peut tre facilement identifie partir de celle du processus (1.3.12). Essentiellement, on pose
s(0) = 0 et t = 1, pour obtenir :
h
i
s(t) () = E eis(t)
 2 2
h
i
1
i(22 2 /2)
+ e
= exp
1 .
2

(1.3.13)

Pour estimer les paramtres du modle, on privilgie la mthode des cumulants, qui est similaire la mthode des moments. Considrons les quatre premiers cumulants de la distribution

13

de lincrment s(t) :
K1 =

(1.3.14a)

K2 = 12 + (2 + 22 )

(1.3.14b)

K3 = (2 + 322 )

(1.3.14c)

K4 = (4 + 62 22 + 324 ).

(1.3.14d)

En utilisant les quatre premiers cumulants empiriques (A.2.18), on obtient les quations suivantes :
2

K 3 2 3K 4 K 3
0 = 4
+

2
K1
2K 1
2K 1
= K1

K 3 2 K 1

22 =
3K 1


K 1 2 K 3 K 3 2
2

1 = K 2
+
.
3K 1

(1.3.15a)
(1.3.15b)
(1.3.15c)
(1.3.15d)

puis par substitutions successives


En rsolvant numriquement lquation (1.3.15a) pour le ,
dans les quations (1.3.15), on obtient des estimateurs convergents pour les quatre paramtres
du modle.
Un modle similaire a aussi t prsent par Merton (1976), cependant, il inclut un paramtre
de drive , et considre que les sauts Y , qui sont des facteurs multiplicatifs, peuvent suivre
une autre distribution que la normale. Il prsente le modle sous la forme dune quation
diffrentielle stochastique :
dS
= ( k)dt + dW + dq.
S

(1.3.16)

La constante k reprsente lesprance de la variation relative si un saut se produit et q, le


processus de Poisson compos. La solution de cette quation est, selon le lemme dIt :


exp ( 1 2 k)t + W (t)
(1.3.17)
S(t) = S(0)
2
o

S(0)

S(0)
=
S(0) PN (t) Y
k=1

si N (t) = 0
si N (t) 1.

En spcifiant un paramtre de drive = 21 2 k et en considrant que les sauts Y sont


de distribution lognormale, on peut rcrire la fonction caractristique dun incrment (1.3.13)

14

du modle de Press :
h
i
s(t) () = E eis(t)

h
i
22
i( 2 2 /2)
= exp i
+ e
1 .
2

(1.3.18)

Lutilisation de ce modle prsente deux dsavantages. Lestimation du modle est difficile


lorsque la moyenne sapproche de 0, car le quotient (1.3.15b) tend alors vers une indtermination. De plus, contrairement dautres modles, il est difficile didentifier le rle des paramtres
par rapport un moment en particulier (classification de Pearson), contrairement ce quon
pourra observer avec la distribution de Laplace asymtrique gnralise.

1.3.4

Le modle de Praetz

Praetz (1972) propose un modle inspir par la physique des particules. Il pose comme hypothse que deux intervalles qui ne se chevauchent pas forment une marche alatoire, et que
les lments qui composent la squence des rendements financiers {R(t)} sont mutuellement
indpendants. Il considre quun tat stable existe o les rendements suivent une loi normale
de paramtres et 2 .
Cependant, cet tat stable nest jamais rellement atteint, et la fonction de densit empirique
gnralement observe suppose une distribution symtrique concave, pointue au centre et ayant
des queues paisses. Il fait une analogie entre la temprature dun gaz et le niveau dactivit sur
les marchs, o la variance du mouvement brownien est proportionnelle ces deux quantits.
Il propose que le paramtre de variance de la normale 2 suive une distribution g( 2 ) ayant
un support positif. La distribution conditionnelle est normale lorsque ce paramtre est connu.
Z

fR(t) (r| 2 )g( 2 )d 2


0


1
(r )2
2
fR(t) (r| ) = exp
2 2
2
hR(t) (r) =

(1.3.19)
(1.3.20)

Il propose comme solution acceptable pour la densit g( 2 ), la distribution gamma inverse de


paramtres m et s2 :
s2

s2m (m 1)m e(m1) 2


g( ) =
.
2(m1) (m)
2

Cette distribution a pour moyenne s2 et variance

s2
m2 .

(1.3.21)

La distribution non conditionnelle des

rendements hR(t) est approximativement une Student avec 2m degrs de libert un facteur

15

dchelle de

m
m1

1/2

prs :
(m) [ 2(m 1)]1/2 s
hR(t) (r) = h
im+1/2 .
2
1 + s2(y)
(2m2)

(1.3.22)

Dautres distributions pourraient tre utilises au lieu de la gamma inverse. En utilisant la loi
gamma, on obtient la distribution de Laplace asymtrique gnralise, qui sera lobjet dune
tude approfondie aux chapitres suivants. Il propose enfin dutiliser aussi la distribution a
priori gamma inverse pour le paramtre . Par contre, il remarque quil obtient aussi une
distribution similaire celle de Student. Cette gnralisation nest donc pas ncessaire.

1.4

Conditions essentielles de Madan et Seneta

Inspirs par les travaux de Mandelbrot, Press et Praetz, Madan et Seneta (1990) prsentent un
ensemble de conditions considres essentielles dans llaboration dun modle de rendements
financiers. Ils se baseront sur celles-ci pour proposer le modle Variance Gamma :
1. La distribution des rendements R doit avoir une queue paisse. Ainsi, la probabilit que
cette variable alatoire ait une valeur suprieure r + t avec un t petit, sachant quelle
est suprieure r, doit tendre vers 1, ce qui signifie que la fonction de survie converge
lorsque cette quantit est grande.
lim P [R > r + t|R > r] = 1

(1.4.1)

F (r + t) F (r),

2. La distribution doit possder des moments finis pour les n premires puissances des
rendements R. tant donn que lon cherche modliser la queue de la distribution, on
fixe n = 4.
h i
E Rk < ,
3.

k {1, 2, 3, 4}

(1.4.2)

a) Le modle doit proposer un processus de temps continu ayant des accroissements


stationnaires et indpendants.
b) Les distributions des accroissements doivent appartenir la mme famille, quelle
que soit leur longueur. Cette condition est essentielle afin de permettre lchantillonnage et lanalyse des sries chronologiques.

4. Le modle doit permettre une extension multivarie avec une distribution elliptique afin
de conserver la validit du modle dvaluation des actifs financiers.
Chacun des modles prsents prcdemment respecte la majorit ou toutes ces conditions.
Les rsultats se retrouvent la table 1.2.

16

Modles
Mouvement brownien de Bachelier
Distribution stable symtrique de Mandelbrot
Processus de Poisson compos de Press
Mlange gaussien/inverse gamma de Praetz
Modle Variance Gamma de Madan et Seneta

Conditions
1 2 3 4

Table 1.2: Respect des conditions mises par Madan et Seneta pour les diffrents modles
prsents

On remarque que le modle de Press remplit toutes les conditions mises par Madan et Seneta.
Cependant, ils remarqueront que ce nest pas un processus de sauts, car il contient aussi
une composante de diffusion (Section A.4.1), ce qui va lencontre de lintuition derrire la
continuit de la trajectoire du prix. Cest cette dernire observation qui les incitera proposer
le modle Variance Gamma, qui est un processus de sauts. Ce modle, aussi tudi sous le nom
de distribution de Laplace asymtrique gnralise par Kotz et al. (2001), a acquis beaucoup
de notorit dans le domaine de la finance mathmatique. De plus, avec le dveloppement de
linformatique et des mthodes numriques, on peut maintenant utiliser de manire efficace la
fonction caractristique dans le cadre de la calibration, des tests statistiques et de la tarification
doptions. Cest pourquoi un intrt particulier est apport cette distribution dans ce texte.

17

Chapitre 2

La distribution de Laplace
asymtrique gnralise
Dans ce chapitre, on prsente, en premier lieu, le processus de Laplace ainsi que les deux processus sous-jacents sa construction, le processus gamma et le processus de Wiener. Ensuite,
on prsente la distribution de Laplace asymtrique gnralise et ses principales proprits qui
seront utilises pour modliser les rendements de titres financiers. Puis, on prsente quelques
cas particuliers. Dans le chapitre suivant, on prsentera diffrentes mthodes pour obtenir une
approximation de la fonction de densit et la fonction de rpartition.
La distribution de Laplace asymtrique gnralise a t principalement tudie par Kozubowski et Podgrski (1999). Cependant, elle a t introduite prs dune dcennie auparavant
par Madan et Seneta (1990), sous le nom de distribution Variance Gamma. La diffrence entre
les approches des deux auteurs est majeure. Madan et Seneta (1990) dveloppent un modle
financier partir du mouvement brownien gomtrique, quils gnralisent en proposant que
la variance suive une distribution gamma. Kozubowski et Podgrski (1999) gnralisent la
distribution de Laplace asymtrique. Leur approche est plus gnrale, car ils ne cherchent pas
dvelopper un modle financier, mais une nouvelle classe de distributions utilisable dans
divers domaines scientifiques. tant donn leur approche plus dtaille et plus intuitive, cest
leur formulation du modle qui sera dveloppe. On rappellera enfin que les deux modles sont
quivalents mme si leurs paramtrisations sont diffrentes.

2.1

Le processus de Laplace

Le processus de Laplace est dfini comme tant un processus de Wiener subordonn par
un processus gamma. En dautres termes, cest un processus de Wiener valu des temps
alatoires dtermins par un processus gamma. Selon Kotz et al. (2001), ce dernier est la
distribution de Laplace ce que le mouvement brownien est la loi normale. Il est aussi un

19

cas particulier des processus de Lvy, et en conserve donc la principale proprit, celle dtre
infiniment divisible.
Il a certains points en commun avec le mouvement brownien dont des moments finis pour tout
ordre et des incrments indpendants et stationnaires. Cependant, la plupart des caractristiques diffrent :
Discontinuit des trajectoires (processus de sauts) ;
Distribution asymtrique des accroissements ;
Paramtres dchelle et de temps entirement dissocis.
Enfin, il possde une reprsentation alternative qui nimplique aucun processus de Wiener. Il
peut en fait tre reprsent comme la diffrence de deux processus gamma indpendants. On
peut le reprsenter en utilisant la forme gnrale des processus de Lvy.

2.1.1

Le processus gamma

Le processus gamma, not {G(t; , )}, est un processus de sauts purs (donc aucune composante de drive ni de diffusion) dont les incrments G(t + 1; , ) G(t; , ) suivent une
distribution gamma de paramtres de forme et dchelle , dfinie par les fonctions de densit
f, (x) et caractristique , () :
1 x
x
e
1{x 0}
( )
h
i
, () = E ei X
Z
=
ei x f, (x)dx
f, (x) =

(2.1.1)

=

1
1

 .

(2.1.2)

On sintresse la situation o le paramtre dchelle est de valeur unitaire ( = 1). Le processus gamma agit alors titre de compteur et sa valeur G(t; , = 1) au temps t correspondra
au nombre de sauts depuis t = 0. La fonction de densit G(t + 1; , = 1) G(t; , = 1)
sera alors :
f,=1 (x) =

1 1 x
x
e 1{x 0} .
( )

(2.1.3)

Le paramtre , qui dfinit la forme de la distribution, dterminera la frquence moyenne


des sauts du processus gamma (t; , = 1), tant donn lesprance E[G(t)] = t. La
fonction caractristique de ce processus sera donc (, t; , = 1), en utilisant la proprit de
convolution (A.2.13) (mme si le temps t nest pas entier, car la distribution est infiniment

20

divisible) :
t

(, t; , = 1) = 
=

1
1

i
1

1
.
(1 i) t

(2.1.4)

On peut rcrire la fonction caractristique dun incrment de ce processus (; t = 1; , = 1)


sous la reprsentation de Lvy-Khintchine (A.4.1), avec lexposant caractristique () :
(; t = 1; , = 1) = ln (1 i)

(2.1.5)


= e0 e ln (1 i)
Z x
e e(1i)x
=
dx
x
0
(intgrale de Frullani (Spiegel et Liu, 1999), p.115)
Z 
1
ex dx.
=
1 ei x
x
0

(2.1.6)

On a donc, par cette reprsentation, la dmonstration que le processus gamma est un processus
de sauts purs. Il pourra donc tre utilis comme subordonnant dans la construction dun
processus subordonn (A.4.5).

2.1.2

Le processus de Wiener



Le processus de Wiener W (t; , 2 ) est un processus de diffusion avec drive. Il na donc
pas de composante de saut. Ses incrments suivent une distribution normale :
W (t + 1; , 2 ) W (t; , 2 ) N (, 2 ).

(2.1.7)

Cette distribution est dfinie par la fonction de densit f, (x) et la fonction caractristique
, () :
( 
 )
1 x 2
exp
f, (x) =
2

2 2


22
, () = exp i
.
2
1

(2.1.8)
(2.1.9)

Notons que la variance dun incrment est proportionnelle la longueur de celui-ci. Soit
deux incrments indpendants dun mme processus : I1 = W (t + q; , 2 ) W (t; , 2 )
N (q, q 2 ) et I2 = W (t + q + s; , 2 ) W (t + q; , 2 ) N (s, s 2 ). La somme de ces

21

incrments suit une distribution normale dont la moyenne et la variance sont respectivement
la somme de celles des deux incrments :
I1 + I2 N ((q + s), (q + s) 2 ).

(2.1.10)

Comme la distribution normale est aussi infiniment divisible, on peut obtenir la fonction
caractristique du processus (; t; , 2 ) en utilisant la proprit de convolution (A.2.13) :


2 t 2
2
(; t; , ) = exp it
.
(2.1.11)
2
On dduit donc facilement lexposant caractristique (; t = 1; , 2 ) dun incrment de ce
processus, sous la reprsentation de Lvy-Khintchine :
(; t = 1; , 2 ) = (i

22
).
2

(2.1.12)

Ceci dmontre que le processus de Wiener est un processus avec drive et diffusion, mais
sans composante de saut. Il pourra donc tre utilis pour construire un processus subordonn
(A.4.5).

2.1.3

Le processus de Laplace est un processus subordonn

On considre un processus gamma G(t; , = 1) et un processus de Wiener W (t; , 2 ). On se


rappelle que la variance dun incrment (2.1.7) de ce dernier est proportionnelle la longueur
de lintervalle de temps. En utilisant une proprit appele la subordination, on peut modifier
lchelle de temps du processus de Wiener de sorte que la variance soit alatoire pour tout
intervalle . Tout processus de Lvy peut tre utilis comme subordonnant pour dfinir cette
chelle de temps. Si on utilise le processus gamma, on obtiendra le processus de Laplace sans
drive {Y (t; , , )} dfini comme suit :
{Y (t; , , )} {W (G(t; , = 1); , 2 )}.

(2.1.13)

On obtient lexposant caractristique (, t = 1; , , ) dun incrment Y (t + 1; , , )


Y (t; , , ) en utilisant la proprit de subordination dfinie par lquation (A.4.6), o (, t =
1; , = 1) est lexposant caractristique du processus gamma et (, t = 1; , 2 ) celui du
processus de Wiener :
(, t = 1; , , ) = (i(, t = 1; , 2 ), t = 1; , = 1)
= ln (1 i(i()))


22
= ln 1 + (
i) .
2

22

(2.1.14)

Le processus de Laplace sans drive est donc, par dfinition, un processus de Lvy et par
consquent infiniment divisible. En utilisant lexposant caractristique (2.1.14) et la dfinition
(A.4.7), on obtient sa fonction caractristique :
Y (t;,, ) () = exp {t (, t = 1; , , )}




22
= exp t ln 1 + (
i)
2
 t

22
i
= 1+
.
2

(2.1.15)

Une manire simple pour expliquer le mcanisme derrire le processus subordonn est den
construire une trajectoire laide de la simulation.
On simule un temps darrive T1 , de distribution gamma, puis une hauteur de saut X1 , de
distribution normale. On obtient ainsi le premier incrment de la trajectoire, tel quillustr
la figure 2.1.

X1

0
0

T1

Figure 2.1: Premier incrment dun processus subordonn

Une ralisation dune trajectoire de ce processus par simulation se trouve la figure 2.2.
Le processus gamma G(t; , = 1), en tant que subordonnant dans ce cas-ci, dfinit une chelle
de temps conomique , selon laquelle on situe larrive dvnements pouvant influencer le prix
dun titre financier. Cette dernire ne peut tre mesure, elle est donc abstraite. Lchelle de
temps o sont effectues les observations du processus correspond au temps calendrier. Cest la
seule qui puisse tre mesure. tant donn que ces deux chelles sont indpendantes, plusieurs
sauts entre deux observations sont possibles. Lchelle de temps conomique est donc soit
tire, soit compresse, en comparaison au temps calendrier. Autrement dit, si lon dfinit
une journe conomique comme tant lintervalle de temps entre deux sauts, on peut en avoir
plusieurs au cours dune seule journe de calendrier (G(t + 1; , = 1) G(t; , = 1) > 1).
loppos, une dentre elles peut chevaucher plusieurs journes calendrier (G(t + 1; , =
1) G(t; , = 1) 1).

23

102
101
100
99
96

97

98

Y(t)

50

100

150

200

250

Figure 2.2: Simulation dun processus de Wiener subordonn par un processus gamma

Un processus stochastique qui reprsente le comportement du prix dun titre financier doit
inclure une composante de drive. Celle-ci exprime le rendement moyen ralis et est indpendante du processus de sauts. Pour cette raison, on ajoute un coefficient de drive au
processus de Laplace sans drive, pour obtenir sa forme gnrale. Comme ce coefficient est
constant, on peut multiplier la fonction caractristique (2.1.15) par la transforme de Fourier
inverse du produit de celui-ci et de la longueur de lintervalle de temps t, F 1 ( t) = eit ,

24

pour obtenir celle du processus de Laplace :


Y (t;,,, ) () = 

eit

1+

= 

2 2
2

1+

 t

ei
2 2
2

t
 .

(2.1.16)

Le processus {Y (t; , , , )} dfinit, dans le contexte financier, lvolution du logarithme du


prix, tel que prsent par Kotz et al. (2001). Pour des fins de simplification, on fixe le prix
initial 1 : Y (0; , , , ) = 0
La fonction caractristique (2.1.16) constituera la principale reprsentation du processus de
Laplace pour la suite de ce texte. La construction du modle Variance Gamma de Madan et
Seneta (1990) est similaire, lexception que la paramtrisation et le processus gamma utiliss
sont diffrents, ce qui rend leur approche moins intuitive, bien que le rsultat soit quivalent.

2.2

Distribution de Laplace asymtrique gnralise

La distribution de Laplace asymtrique gnralise caractrise un intervalle du processus de


Laplace avec drive. Aussi appele distribution de Bessel, elle a t introduite par Karl Pearson
en 1929, en lien avec la covariance dun chantillon tir dune population normale deux
variables. Cest aussi une gnralisation de la distribution de Laplace asymtrique qui sera
prsente la section 2.3.1.

2.2.1

Fonction caractristique

On dfinit cette distribution principalement par sa fonction caractristique. Celle-ci sobtient


facilement partir de la fonction caractristique du processus de Laplace avec drive (2.1.16),
en considrant un incrment de longueur t = 1. partir de la dfinition de ce dernier (2.1.13),
on dduit quelle est en fait un mlange de la loi normale dont le paramtre de variance suit
une distribution gamma.
Y est une variable alatoire dfinie comme tant la somme :
dun paramtre de translation ,
du produit :
dune variable alatoire W issue dune distribution gamma (2.1.3)
et dun paramtre
et du produit :
dun paramtre ,

25

de la racine carre de la variable alatoire W


et dune variable alatoire Z issue dune distribution normale centre rduite :

Y = + W + W Z

(2.2.1)

o
Z N (0, 1) et W (, = 1).
Alors, la variable alatoire Y , sachant que W = w, suit une distribution normale de moyenne
w et de variance w 2 :
(Y |W = w) N (w, w 2 ).

(2.2.2)

La fonction caractristique de la variable alatoire Y peut donc tre obtenue en utilisant celle
de la loi normale N
w,w 2 (t) et la formule de lesprance conditionnelle :
 

Y (t; , , , ) = E E eitY |W
Z h
i

=
E eit(+w+ wZ) g(w)dw (en utilisant (2.2.1))
0
Z
it
=e
N
w,w 2 (t)g(w)dw
0
Z
w 2 t2
1
eiwt 2
= eit
w 1 ew dw
( )
0
Z
1 2 2
1
w 1 ew(1+ 2 t it) dw.
= eit
( )
0
En compltant lintrieur de lintgrale de faon retrouver la densit de la loi gamma de

paramtres = et = 1 + 12 2 t2 it , on obtient la fonction caractristique de la
variable alatoire Y de distribution Laplace asymtrique gnralise :

Z
1 + 12 2 t2 it
1 2 2
eit

Y (t; , , , ) =
w 1 ew(1+ 2 t it) dw
1 2 2
(
)
1 + 2 t it
0
=

2.2.2

eit
 .
1 + 12 2 t2 it

(2.2.3)

Invariance dchelle

Une seconde paramtrisation pour la famille de distributions de Laplace introduit la proprit


dinvariance dchelle. Cette proprit permet dappliquer un changement dchelle une variable alatoire en modifiant un seul paramtre sans que la valeur des autres ne soit affecte. Si
lon revient la dfinition de la variable alatoire conditionnelle Y |W (2.2.2), on remarque que

26

les paramtres et 2 sont influencs par la valeur de W . Ils sont donc corrls. En introduisant un paramtre dinvariance dchelle en remplacement de , on limine cette corrlation.
Le paramtre est obtenu laide de la transformation suivante :
p
2 2 + 2

=
.
2

(2.2.4)

linverse, on peut retrouver le paramtre en lisolant dans lquation prcdente. On obtient


donc :

=
2


1
.

(2.2.5)

On dfinit la fonction vectorielle T comme tant la transformation qui permet le passage


de la forme en celle en :


T (, , , ) =
2 +2
2

(2.2.6)

On dfinit aussi la transformation inverse T :

T (, , , ) =


.

(2.2.7)

Cette notation permet dutiliser un vecteur de paramtres. On peut obtenir la matrice de


variance-covariance dune forme paramtrique en connaissant celle de lautre et en utilisant le
gradient de ces transformations.
Pour la premire transformation, on a :

1
0

0
1

T =
4 2 +2 2

0
2 2 4 2 +mu2

0
0
Pour la seconde transformation, on a :

.
0

4 2 +2

4 2 +2

1
0
=

2 1
0 2
0

0
.

(2 +1)
22

(2.2.8)

(2.2.9)

27

La forme en sera privilgie pour lestimation, car elle est plus compacte. Cependant, certaines proprits de la distribution font appel la forme utilisant le paramtre .

2.2.3

Fonctions gnratrices

En utilisant la relation (A.2.16), on obtient la fonction gnratrice des moments partir de la


fonction caractristique :
MY () = Y (i)
=

e
1

1 2 2
2

 ,

1
o 1 2 2 > 0.
2

(2.2.10)
(2.2.11)

La condition 2.2.11 permet de sassurer que le dnominateur prend une valeur relle strictement
positive. Cette condition impose aussi une restriction lespace des paramtres . La fonction
gnratrice des moments permet dobtenir tous les moments E[Y r ] dune variable alatoire
en la drivant successivement par rapport la variable de transformation et en galant cette
dernire 0 :
dr MY ()
E[Y ] =
d r
r


.

(2.2.12)

=0

La fonction gnratrice des cumulants KY () est aussi intressante utiliser. On lobtient


partir du logarithme de la fonction gnratrice des moments (A.2.15) :
KY () = ln(MY ())
= ln

e

1 12 2 2

!
,

1
1 2 2 > 0.
2

(2.2.13)

Elle a une utilit similaire la fonction gnratrice des moments, sauf quelle permet dobtenir
les cumulants Kr de la distribution en la drivant successivement par rapport la variable de
transformation et en galant celle-ci 0 :
 r

d ln (MY ())
Kr =
.
d r
=0

2.2.4

(2.2.14)

Moments et rle des paramtres

En mathmatiques, les moments sont des quantits dcrivant la forme dun ensemble de points.
En statistique, les moments dcrivent certaines caractristiques dune population ou dun
chantillon. Ces caractristiques sont utilises dans la slection dune distribution de probabilit approprie pour reprsenter la population partir de lchantillon, ce quon appelle

28

linfrence statistique. Les moments bruts et centraux sont valus par rapport 0 et la
moyenne respectivement.
On obtient les premiers moments bruts de cette distribution laide de la relation dcrite
prcdemment (2.2.12).
E[Y ] = +
E[Y 2 ] = 2 + 2 + 2 + 2 2 + 2

E[Y 3 ] = 3 + 3 2 + 3 2 + 3 2 2 + 3 2

+ 3 2 + 3 2 + 3 3 + 3 3 2 + 2 3

E[Y 4 ] = 4 + 4 3 + 6 2 + 6 2 2 + 6 2 2


+ 12 2 + 12 2 + 4 3 3 + 12 3 2 + 8 3


+ 3 2 + 3 4 + 6 2 3 + 18 2 2 + 12 2 2
+ 4 4 + 6 4 3 + 11 4 2 + 6 4 .
partir de ceux-ci, on obtient aussi les quatre premiers moments centraux :
m1 = E[Y ] = +

(2.2.15a)

m2 = E[(Y m1 )2 ] = 2 + 2
3

(2.2.15b)
3

m3 = E[(Y m1 ) ] = 3 + 2
4

2 4

2 4

(2.2.15c)
4

2 2 2

2 2

m4 = E[(Y m1 ) ] = 3 + 3 + 3 + 6 + 6 + 12 .

(2.2.15d)

On rsume le domaine et le rle des paramtres la table 2.1.


On retrouve quelques exemples de courbes de la fonction de densit avec diffrents paramtres
dasymtrie et daplatissement la figure 2.3.
Afin de comparer la distribution de Laplace asymtrique gnralise avec la normale, que
lon cherche remplacer dans le contexte des rendements financiers, le comportement des
coefficients dasymtrie 1 et daplatissement 2 de celle-ci peut tre intressant observer.
On obtient ces derniers partir des moments centraux (2.2.15) :
m3
2 3 + 3 2
=
(2.2.16a)

(m2 )3/2
(2 + 2 )3/2


3 4 + 6 2 2 + 3 4 2 + 6 4 + 12 2 2 + 3 4
m4
2 (Y ) =
3=
3. (2.2.16b)
(m2 )2
(2 + 2 )2 2

1 (Y ) =

Le coefficient dasymtrie de la normale vaut 1N (Y ) = 0 et celui dexcs daplatissement,


2N (Y ) = 0, puisquil a t dfini partir de cette distribution. Si lon fixe tous les paramtres

29

Paramtre

Domaine
R

Rle
Localisation

R+ \ {0}

chelle

Asymtrie

R+ \ {0}

Asymtrie

R+ \ {0}

Aplatissement

Observations
Ninfluence que la moyenne. quivaut
au mode lorsque = 0.
Vrai paramtre dchelle lorsque est
utilis.
Distribution asymtrique gauche
lorsque ngatif et droite lorsque
positif. Dplace la moyenne dans
la mme direction. Corrlation positive avec la variance et le coefficient
daplatissement.
Valeur dans lintervalle [0, 1[ lorsque
< 0, dans [1, ] lorsque 0.
Ngativement corrl avec le coefficient daplatissement. Une petite valeur donne une distribution pointue.

Table 2.1: Domaine et rle des paramtres de la distribution de Laplace asymtrique gnralise

sauf , la valeur minimale du coefficient dexcs daplatissement 2 (Y ) est atteinte lorsque


est de 0 :
min 2 (Y ) = [2 (Y )]=0

3
.

tant donn que le paramtre est strictement positif, la valeur minimale que peut prendre le
coefficient dexcs daplatissement 2 (Y ) est plus grande que 0. Par consquent, laplatissement
de la distribution de Laplace asymtrique gnralise sera toujours suprieur celui de la
normale ; cest donc une distribution leptocurtique, ce qui est une proprit dsirable selon les
observations de Madan et Seneta (1990).

2.2.5

Changement dchelle et de localisation

Parfois, on doit modifier un ensemble de donnes afin deffectuer des comparaisons ou pour
bnficier des avantages dune mthode numrique. Les principales transformations utilises
sont :
1. un changement de localisation, o lon additionne une constante lensemble des donnes
2. un changement dchelle, o lon multiplie lensemble des donnes par un facteur
3. une combinaison des deux transformations prcdentes.
Soit deux constantes a, b 6= 0 et une variable alatoire X qui suit une distribution Laplace
asymtrique gnralise : X GAL(, , , ). Y correspond la somme :

30

0.7

GAL(x; 0, 1, 1, 1)
GAL(x; 0, 1, 2, 1)
GAL(x; 0, 1, 2, 2)
GAL(x; 0, 1, 0.5, 1)

0.2

0.3

f(y)

0.4

0.5

0.6

0.1

0.0

Figure 2.3: Fonction de densit de la distribution Laplace asymtrique gnralise avec diffrents paramtres : GAL(y; , , , )

de la constante b et
du produit :
de la constante a et
de la variable alatoire X.
Selon Kotz et al. (2001), en utilisant le paramtre , on peut effectuer un changement dchelle
et de localisation et obtenir une variable alatoire qui suit encore cette distribution :
le paramtre de localisation subit la mme transformation que la variable alatoire X ;
le paramtre dchelle est multipli par la constante a ;
le paramtre est invers si cette constante est ngative. Ce dernier cas est en fait une
rflexion de la distribution autour du mode.

31

On a donc :
Y = aX + b GAL(a + b, a, sgn a1 , ).

(2.2.17)

On estime les paramtres ,


,
et sur un ensemble de donnes centres et rduites Xt
partir dun chantillon original Yt . m
et s > 0 sont respectivement la moyenne et lcarttype de lchantillon Yt . En utilisant lquation de transformation (2.2.17) avec les paramtres
estims prcdemment, on peut alors obtenir ceux correspondants pour lchantillon :
Yt = sXt + m
GAL(
s + m,
s, , ).

(2.2.18)

Le paramtre nest pas modifi puisque lcart-type s est strictement positif. Cette proprit
permettra de pratiquer lestimation sur des donnes centres et rduites, ce qui diminue le
risque derreurs numriques sans nuire sa prcision, puisquaucune information contenue
dans lchantillon nest perdue.

2.2.6

Reprsentation alternative et simulation

Le processus de Laplace Y (t; , , , ) peut tre reprsent sous la forme dune diffrence
de deux processus gamma G1 (t; ) G2 (t; ) laquelle on additionne une composante de
drive. Le premier processus compte les gains, alors que le second, les pertes. Les deux ont
des incrments qui suivent une distribution gamma ( = , = 1), cest--dire la mme
distribution que le processus subordonnant utilis la section 2.1.3 :
Gi ( ) (, = 1) ,

i {1, 2} .

Il peut tre reprsent sous la forme du processus compos suivant :




2 1
d
Y (t) = +
G1 (t) G2 (t) .
2

(2.2.19)

(2.2.20)

La distribution de Laplace asymtrique gnralise peut alors tre reprsente sous la forme
dun incrment de ce processus. Les variables alatoires G1 et G2 sont respectivement des
ralisations indpendantes de distribution gamma avec densit (2.1.3) :


2 1
d
G1 G2 .
Y =+
2

(2.2.21)

Simuler une ralisation de chacune dentre elles suffira pour obtenir une ralisation de la
distribution gamma. On peut aussi rcrire la dfinition prcdente de la variable alatoire Y
(2.2.21) sous la forme simplifie suivante :
d

Y = + (G3 G4 ) .

32

(2.2.22)

Les deux variables alatoires sont alors dfinies comme suit :


!
2
G3 , =




.
G4 , =
2
On peut facilement dmontrer lquivalence en distribution (2.2.22). En effectuant le produit
des fonctions caractristiques respectives Y (), G3 () et G4 () des variables alatoires Y ,
G3 et G4 , on retrouve celle de la forme en :
Y () = ei G3 () G4 ()
!
1
= ei

1 + i
2
=

1
1 i

ei
1 i 2


+

2 2
2

 .

(2.2.23)

La figure 2.4 prsente un histogramme et un estimateur de densit par noyau dun chantillon
de 2500 ralisations de la variable alatoire Y , suivant une distribution de Laplace asymtrique
gnralise de paramtres = 0, = 1, = 2 et = 1. On remarquera que le paramtre
produit une distribution asymtrique gauche puisquil prend une valeur suprieure 1.

2.2.7

Fonction de Bessel et densit

La densit de la distribution Laplace asymtrique gnralise peut tre exprime laide de


la fonction de Bessel modifie du troisime type (Abramowitz et Stegun, 1965) :
Z
(u/2) (1/2) ut 2
e (t 1)1/2 dt,
1/2.
K (u) =
( + 1/2) 1
On dfinit les paramtres = 1 et =

(2.2.24)

1 + 2 afin de simplifier la notation. La dmons-

tration qui permet dobtenir la fonction de densit est fonde sur la dfinition de la distribution
utilisant la diffrence de deux processus gamma (2.2.21). Elle est dveloppe par Kozubowski
et Podgrski (1999) :
sgn(x) |x| Z
e
y 1 (|x| + y) 1 ey dy
( )
0


  1/2
1
|x|
|x|
x/2

e
K 1/2
=
.
2
( )

f (x) =

(2.2.25)

Afin dincorporer le paramtre de localisation , on remplace x par la valeur centre x , et


les paramtres et par ceux dorigine, tels que dfinis prcdemment, pour obtenir la forme

33

0.5
0.4
0.3
0.0

0.1

0.2

f(y)

10

Figure 2.4: Histogramme et estimateur de densit par noyau de 2500 ralisations de la variable
alatoire Y GAL( = 0, = 1, = 2, = 1)

suivante (Kotz et al., 2001) :

f (x) =

2e 2 (1/)(x)
+1/2

( )

2|x |
+ 1/

 1/2
K 1/2

!


2 1
+ |x | .
2 k

(2.2.26)

Cette fonction a t implmente dans un algorithme de maximum de vraisemblance pour le


logiciel GNU R par Scott et Dong (2012). Elle reste cependant sensible numriquement en plus
de demander un temps de calcul important pour de grands chantillons. De plus, comme la
fonction de densit nest pas diffrentiable, on ne peut pas obtenir les estimateurs du maximum
de vraisemblance et leurs matrices de variance-covariance. Donc, il est impossible deffectuer
de tests dadquation ou dhypothse avec ces rsultats. Cest une des principales raisons qui

34

ont motiv la recherche dautres mthodes destimation plus efficaces pour cette distribution.

2.3

Cas particuliers

La distribution de Laplace asymtrique gnralise peut tre considre comme une extension
de plusieurs cas particuliers. Ces distributions ainsi que leur notation et leur fonction de densit
sont prsentes dans la table 2.2.
Cas
=0
=0
>0
=1
=0
=0
>0
>0
=0
=1
>0
6= 0
=1
=0
=0
=0

Distribution

Notation

Densit

Exponentielle de moyenne > 0

GAL(0, 0, , 1)

1 x/
(x
e

Gamma de paramtres = , = > 0

GAL(0, 0, , )

x 1 ex/
( ) , (x

Laplace symtrique ( > 0)

GAL(, , 0, 1)

1 e 2|x|/ , (x
2

Laplace asymtrique ( > 0)

Dgnre

GAL(, , , 1)

2
(1+2 )

> 0)

> 0)

R)

( 2
e (x) , x

GAL(, 0, 0, 0)

e (x) ,

x<

1x=

Table 2.2: Cas spciaux de la distribution de Laplace asymtrique gnralise

Les deux premiers cas spciaux sont des distributions de probabilit classiques. Lattention
sera porte sur la distribution de Laplace asymtrique et son cas spcial, celle de Laplace
symtrique. La dgnre na aucune application pratique, mais en mentionner lexistence est
pertinent, puisque ce ne sont pas toutes les distributions qui admettent ce cas.

2.3.1

Distribution de Laplace asymtrique

La distribution de Laplace asymtrique a t introduite par Hinkley et Revankar (1977) et


tudie en profondeur par Kozubowski et Podgrski (1999). Cette distribution a elle aussi
plusieurs caractristiques intressantes pour remplacer la normale, dans le contexte de la modlisation financire, comme le prsentent Kozubowski et Podgrski (2001). Elle est note
AL(, , ).
Cette distribution, en tant que cas particulier de la distribution de Laplace asymtrique gnralise, conserve la majorit de ses proprits. Entre autres, elle est infiniment divisible et

35

possde des moments finis. Les paramtres , et conservent leurs rles et proprits dfinis
la section 2.2.4. On peut donc contrler la localisation, lchelle et lasymtrie de la distribution. Cependant, aucun paramtre ne permet de contrler le coefficient daplatissement.
La densit de probabilit de cette distribution f (x; , , ) prsente une forme analytique
simple qui ne requiert pas le recours la fonction de Bessel modifie de troisime type (2.2.24).



2

exp
(x

)
, x
2



f (x; , , ) =

2
1 + 2 exp
x < .
( x) ,

(2.3.1)

La fonction caractristique de cette distribution prend la forme suivante :


(t; , , ) =

eit
1+

2 t2
2

i 2

 .
t

(2.3.2)

Cette dernire est utilise principalement lorsque lapplication dune proprit ncessite une
distribution avec un seul paramtre dchelle. La seconde paramtrisation de cette distribution
utilise le paramtre qui nest pas invariant dchelle. Cette paramtrisation donne une forme
beaucoup plus simple de la fonction caractristique (2.3.2) :
(t, , ) =

eit
1+

2 t2
2

it

(2.3.3)

On reconnait la fonction caractristique dun incrment du processus de Laplace (2.1.16) avec


les paramtres ( = 1, t = 1). Une forme standardise de cette distribution existe aussi avec le
paramtre dchelle = 1 et de drive = 0. Enfin, on peut avoir une reprsentation alternative de cette distribution, utilise principalement pour la simulation, base sur lexponentielle :



1
Y =+
W1 kW2
(2.3.4)
2
o

W1 Exponentielle


et W2 Exponentielle

Cette mthode nest cependant pas la plus efficace pour simuler une ralisation Y de la distribution de Laplace asymtrique, car on peut la faire partir de deux ralisations indpendantes
U1 et U2 dune variable alatoire uniforme dfinie sur lintervalle [0, 1] :

U1
Y = + ln 1/
.
2 U2

36

(2.3.5)

Lorsque le paramtre de la distribution de Laplace asymtrique gnralise est un entier, on


peut gnrer une ralisation X de celle-ci en sommant un total de ralisations indpendantes
de la variable alatoire Y :
X=

Yi

i=1

Yi AL(, , ).

2.4

Relation avec le modle de Madan et Seneta (1990)

Le modle Variance Gamma de Madan et Seneta (1990) utilise une paramtrisation diffrente
de celle de Kotz et al. (2001). On doit, afin de conserver une compatibilit des dveloppements
des prochains chapitres, dtailler les changements de paramtres qui permettent de passer dun
modle lautre. Le modle Variance Gamma utilise les paramtres C, , et . Afin dviter
la confusion, les paramtres seront indics de 1 3 selon le modle do ils proviennent. Le
modle 1 sera celui de Madan et Seneta (1990), les modles 2 et 3 seront respectivement les
paramtrisations en et en de Kotz et al. (2001). Les diffrentes quivalences se trouvent
la table 2.3.
Vers le modle
1
C
1
1

=
=
=
=

2
2

=
=
=
=

3
3

=
=

partir du modle
2

2
2 2
2
1/2
1
C

1
1
1/
1
C

2(1 )2 +(1 )2 1

1 2

1/

=
=
=
=
=
=
=
=
=
=

partir du modle
3

3
3 3
3 3 (1/ )/ 2
1/3
3
3
3

3 (1/ )/ 2
3
2
2
2

=
=

2(2 )2 +2

2 2

Table 2.3: Changements de paramtrisation

37

Chapitre 3

Approximation de la densit et de la
fonction de rpartition
Il existe plusieurs situations o il nest pas possible dobtenir une forme analytique des fonctions de densit et de rpartition de la distribution dune variable alatoire. Cest particulirement le cas pour la majorit des distributions issues dun processus de Lvy, des sommes
de longueur finie ou alatoire de variables alatoires et des mlanges de distributions. Cependant, dans la majorit de ces cas, il est facile dobtenir la fonction caractristique ou encore
la fonction gnratrice des moments. Dailleurs, il pourrait tre intressant dutiliser lintgration numrique afin dobtenir les transformes de Fourier ou de Laplace de ces fonctions. Par
contre, la convergence de ces mthodes dintgration est souvent lente, cest--dire quil faut
un pas de discrtisation trs fin afin dobtenir une approximation satisfaisante (Lugannani et
Rice, 1980). Il est aussi possible dutiliser lalgorithme de la transforme de Fourier rapide,
mais celui-ci a comme dsavantage dtre trs peu prcis dans lvaluation des probabilits aux
extrmits du support de la densit (figure 3.1).
Cest dans cette optique quont t dveloppes les approximations par la mthode du point
de selle. Puisque celle-ci requiert lutilisation de lapproximation de Laplace pour la fonction
de densit et de lapproximation de Temme pour la fonction de rpartition, on les introduit
avant de dvelopper la mthode proprement parler. Il est noter que la majorit de ces
dmonstrations sont tires de Butler (2007) qui prsente une monographie assez complte sur
la mthode du point de selle.

3.1

Lapproximation de Laplace

Lapproximation de Laplace sera utilise afin de dvelopper la mthode du point de selle


pour la fonction de densit. Soit g(x), une fonction rgulire sur lintervalle [c, d] ayant un
minimum global au point x
]c, d]. Lapproximation de Laplace de premier ordre prend la

39

f(x)

x
P(X>y)
Figure 3.1: Probabilit lextrmit du support
forme suivante :
Z

g(x)

e
c

2eg(x)
.
dx p
g 00 (
x)

(3.1.1)

La dmonstration se fait facilement en utilisant le dveloppement de Taylor de g(x) autour


du point x
:
1
g(x) = g(
x) + g 0 (
x)(x x
) + g 00 (
x)(x x
)2 + R.
2

(3.1.2)

La valeur R reprsente le reste du dveloppement et est une quantit relativement petite.


Comme x
est un minimum local, alors la drive premire g 0 (
x) vaut 0 et la drive seconde
g 00 (
x) est suprieure 0. On obtient donc lintgrale suivante, qui ressemble celle de la
fonction de rpartition de la distribution normale :
s


Z d
1 00
2
g(
x)
2
g(
x)
e
exp g (
x)(x x
) dx e
.
00
2
g (
x)
c

(3.1.3)

En utilisant un terme de plus du dveloppement de Taylor (3.1.2), on obtient lapproximation


de Laplace de second ordre, qui a une plus grande prcision :



Z d
2eg(x) 5 2 1
g(x)
e
dx p


4
24 3 8
g 00 (
x)
c

(3.1.4)

i =

40

g (i) (
x)
{g 00 (
x)}i/2

i 3.

(3.1.5)

3.2

Lapproximation de Temme

Lapproximation de Temme sera utilise afin de driver la mthode du point de selle pour
la fonction de rpartition. On considre une variable alatoire Zw0 de distribution normale
standard tronque de telle sorte quelle ne puisse prendre des valeurs suprieures au point w0 .

f (zw0 )

zw0

w0
Figure 3.2: Distribution normale tronque w0

On dfinit lesprance dune fonction h de cette variable alatoire, partir des fonctions de
densit (w) et de rpartition (w) de la loi normale, comme suit :
R w0
E[h(Zw0 )] =

h(w)(w)dw

(w0 )

(3.2.1)

Une approximation du numrateur est donne par le dveloppement suivant :


Z

w0

w0

h(w) h(0)
w(w)dw
w

Z w0
h(w) h(0)
= h(0)(w0 )
d(w) (car w(w)dw = d(w))
w


w=w0
h(w) h(0)
h(0)(w0 )
(w)
.
w
w=
Z

h(w)(w)dw = h(0)(w0 ) +

On ignore lintgrale de lintgration par parties, puisquelle prend une petite valeur, pour
obtenir lapproximation de Temme :
w0


h(w0 ) h(0)
h(w)(w)dw h(0)(w0 ) + (w0 )
.
w0

(3.2.2)

41

3.3

La mthode du point de selle

Lapproximation de la distribution dune variable alatoire par la mthode du point de selle a


t introduite par Daniels (1954). Il cherchait une faon destimer la distribution de la moyenne
de variables alatoires.

3.3.1

Approximation de la densit

Soit une variable alatoire Y dont on cherche valuer la fonction de densit fY (y). Les
fonctions gnratrices des moments MY (s) et des cumulants KY (s) sont dfinies de manire
quivalente par les intgrales suivantes, o lon cherche une forme qui permettra dutiliser
lapproximation de Laplace :
MY (s) = e

KY (s)

=
Z

=
Z

esy fY (y)dy

(3.3.1)

esy+ln fY (y) dy

(3.3.2)

eg(s,y) dy.

(3.3.3)

Cette intgrale doit converger pour toute valeur s comprise dans un intervalle ]c1 , c2 [ contenant lorigine et o la somme des bornes est positive : c1 + c2 > 0. Cet intervalle doit tre
choisi de sorte quil soit le plus grand possible. On considre pour linstant que la fonction
g(s, y) = sy ln fY (y) rpond aux conditions de lapproximation de Laplace nonces au
dbut de la section 3.1. On obtient alors lapproximation suivante pour une valeur de s fixe :
s
2
eK(s)
ys ).
(3.3.4)
esys fY (
00
g (s, ys )
La valeur ys est celle qui minimise la fonction g(s, y) pour un point s fix. Cest donc la
solution de la condition de premier ordre :
0 = g 0 (s, ys )
ln (fY (
ys )
ys
ln (fY (
ys )
s=
.
ys
=s+

(3.3.5)

Lhypothse pose afin de faire lapproximation est que la fonction g(s) est convexe, ce qui
implique que la drive seconde de celle-ci est positive (

2 g(s,y)

y 2

> 0) par dfinition. On examine

la relation entre le point de selle s et le point ys dtermin par lquation (3.3.5). En drivant
celle-ci par rapport au point ys , on constate quil existe une relation croissante et monotone

42

entre les deux :


ds
2 ln (fY (
ys )
=
> 0.
2
d
ys
ys

(3.3.6)

On doit maintenant trouver une solution de lquation de premier ordre (3.3.5). Pour ce faire,
on isole le terme ln fY (y) dans lquation (3.3.4) :

1
2
 2
 .
ln fY (y) K(s) s
ys ln
ln (fY (
ys ))
2

(3.3.7)

ys2

Si lon considre que le dernier terme de la soustraction est relativement constant par rapport
au point ys , alors sa drive sera pratiquement nulle. Ce terme peut donc tre nglig dans la
prochaine tape, o on drive (3.3.7) par rapport ys :
 s
ln fY (
ys )
K 0 (s) ys
s.
ys
ys

(3.3.8)

En combinant lapproximation (3.3.8) et la condition de premier ordre (3.3.5), il en rsulte


que le terme de gauche de la partie de droite est approximativement gal 0 :
 s
K 0 (s) ys
0.
ys

(3.3.9)

Cela conduit donc lquation qui met en relation le point de selle s et le point ys :
ys = K 0 (s).

(3.3.10)

Enfin, la dernire relation consiste exprimer g 00 (s, ys ) seulement en fonction du point de selle
s en utilisant la condition de second ordre (3.3.6) et en drivant lquation prcdente (3.3.10)
en s :
2 ln (fY (ys ))
ys2
ds
=
d
ys


d
ys 1
=
ds
1
= K 00 (s)
.

g 00 (s, ys ) =

(3.3.11)

On peut donc rcrire lapproximation de Laplace (3.3.4) en utilisant les relations (3.3.10) et
(3.3.11) :
p
2K 00 (s) exp {s
ys }fY (ys )
1
fY (ys ) p
exp {K(
s) sy} = fY (y).
2K 00 (
s)
eK(s)

(3.3.12)

43

Lquation (3.3.12) est une approximation par la mthode du point de selle de la densit de
la variable alatoire Y au point ys .
Par convention, on considre que lapproximation fY (y) est une fonction de densit, mais, elle
nen est pas exactement une puisquelle nintgre pas 1. Cependant, il est possible de la
normaliser en calculant la valeur de lintgrale de celle-ci sur le domaine de la distribution,
puis en divisant lapproximation fY (y) par celle-ci :
Z

fY (y)dy 6= 1

c=

(3.3.13a)

f Y (y) = c1 fY (y),

3.3.2

y .

(3.3.13b)

Unicit du point de selle

Daniels (1954) dmontre que lquation du point de selle (3.3.10) a une solution unique dans
lintervalle [c1 , c2 ] slectionn prcdemment lorsque y0 est situ dans un intervalle [a, b].
Pour ce faire, il prsente une condition essentielle. Les limites infrieure et suprieure de la
drive premire de la fonction gnratrice des cumulants doivent correspondre aux points a
et b respectivement (3.3.14) :
lim K 0 (s) = b

(3.3.14)

lim K 0 (s) = a.

(3.3.15)

sc2
sc1

On dfinit la fonction gnratrice des moments de la diffrence entre la variable alatoire Y


et le point y0 par M (s, y).
Quand a < y0 < b, la drive premire prend la forme suivante :
0

M (s, y0 ) =

(y y0 )es(yy0 ) dF (y).

(3.3.16)

Les limites infrieure et suprieure de la fonction M 0 (s, y0 ) sont respectivement M 0 (, y0 ) =


et M 0 (, y0 ) = . De plus, la drive de celle-ci est toujours positive M 00 (s, y0 ) > 0.
Donc, pour chaque valeur a < y0 < b, une racine unique s de lquation M 0 (s, y0 ) = 0 existe
ncessairement. Par consquent, lquation du point de selle (3.3.10), qui lui est quivalente,
a aussi une solution relle unique.

3.3.3

Approximation de la fonction de rpartition

La fonction de rpartition de la variable alatoire Y au point y est dfinie comme tant la


probabilit P (y Y ) et sobtient en intgrant la densit sur lintervalle [, y]. On considre

44

le changement de variable y 7 w
dfini comme suit :
w
2
= sy K(
s).
2

(3.3.17)

La valeur w
y est obtenue en rsolvant lquation du point de selle pour la racine s et en
remplaant celle-ci dans lquation (3.3.17). Ce changement de variable est une transformation
monotone, continue et croissante dont la drive est donne par lquation suivante :

w/
s,
s 6= 0
dy
(3.3.18)
= p
dw
K 00 (0), s = 0.
Lapproximation de premier ordre de la fonction de rpartition sobtient en intgrant celle de
premier ordre de la densit (3.3.12) sur ce mme intervalle laide du changement de variable
(3.3.17) :
Z

FY (y)

Z
=

w
y

Z
=

1
p
exp {K(s) sx}dx
2K 00 (s)
1
p
(w)dx

K 00 (s)
w

p
(w)d
w.

s K 00 (s)

(3.3.19)

On applique lapproximation de Temme lintgrale prcdente avec lquation :


w

h(w)
= p
.
s K 00 (s)
On obtient ainsi lapproximation de premier ordre de la fonction de rpartition :
1 h(w
y )
w
y


1
1
(w
y ) + (w
y )

.
w
y
u
y

FY (y) (w
y ) + (w
y )

(3.3.20)

Les deux constantes w


y et u
y sont respectivement dfinies comme suit :
p
w
y = sgn(
s) 2 {
sy K(
s)}
p
u
y = s K 00 (
s).

3.3.4

(3.3.21a)
(3.3.21b)

Quelques proprits des approximations

Les approximations par la mthode du point de selle ont pour principale proprit de respecter le principe dinvariance. Cette proprit permet notamment dobtenir une approximation

45

de la densit ainsi que la fonction de rpartition en utilisant des paramtres estims partir
dun chantillon de donnes centres et rduites. Puis, elle permet dappliquer la transformation linaire Y = X + , telle quutilise la section 2.2.5, tout en conservant la mme
approximation.
Une autre proprit de ces approximations est quelle respecte la symtrie de la distribution.
Ainsi, lorsque la distribution est asymtrique, on doit sattendre ce que lapproximation le
soit aussi.

3.4
3.4.1

Application de la mthode du point de selle


Approximation de la densit

On applique la mthode du point de selle la distribution de Laplace asymtrique gnralise,


afin dobtenir une approximation de la densit (2.2.25) et aussi pouvoir reprsenter la fonction
de rpartition, car la premire nest pas intgrable analytiquement. Cependant, pour des fins
de simplification, la paramtrisation sera utilise. On rappelle quon peut passer dune forme
lautre laide des quations (2.2.4) et (2.2.5).
On value dabord la drive premire de la fonction gnratrice des cumulants (2.2.13) par
rapport la variable de transformation s :
KY0 (s)

!
es

1 21 2 s2 s

2 s2 + 2 2 2 s 2 2
,
=
2 s2 + 2s 2
1
o 1 2 s2 s > 0.
2

=
ln
s

(3.4.1)
(3.4.2)

On dtermine ensuite le point de selle sy correspondant la valeur y pour laquelle on veut


estimer la fonction de densit ou de rpartition, laide de lquation (3.3.10) et de la premire
drive de la fonction gnratrice des cumulants (3.4.1) :
y = KY0 (
sy )

2
s2y + 2 2 2 sy 2 2
=
.
2 s2y + 2
sy 2
Lquation prcdente a deux solutions dont une seule correspond un minimum. Pour dterminer quelle solution est approprie, on doit valuer la drive seconde en ces deux points :
p
2 2 y 2 + 2 y 2 4 2 y 22 y + 2 2 2 + 2 2 + 4 2

sy =
2
.
(3.4.3)
2
(y )

46

On value la drive seconde de la fonction gnratrice des cumulants :



2 s2 4 + 2s 2 + 2 2 + 22
00
> 0.
KY (s) =
(s2 2 + 2s 2)2

(3.4.4)

On peut maintenant dterminer quelle valeur sy utiliser, car la fonction KY00 (s) sera positive
pour celle-ci. De manire quivalente, on utilise la condition 2.2.11, qui permet lexistence de
la fonction gnratrice des moments, afin didentifier plus aisment la solution unique.
On peut maintenant valuer (3.3.12), pour obtenir lapproximation de premier ordre de la
fonction de densit de la distribution de Laplace asymtrique gnralise.

3.4.2

Approximation de la fonction de rpartition

En valuant les valeurs w


y et u
y (3.3.21) laide de celles du point de selle (3.4.3), de la
fonction gnratrice des cumulants (2.2.13) et de la drive seconde de cette dernire (3.4.4),
on obtient lapproximation de premier ordre de la fonction de rpartition.
Tout au long de ce chapitre, on a suppos que les paramtres de la distribution taient connus.
Cependant, ceux-ci doivent tre estims partir des donnes dun chantillon reprsentatif de
la population tudie. Cest dailleurs ce qui sera fait dans les chapitres suivants.

47

Chapitre 4

Mthode des moments gnralise


Si lon pose lhypothse selon laquelle un chantillon issu dune population a une certaine
distribution de probabilit, on doit ensuite dterminer quels sont les paramtres de celle-ci.
Ces paramtres peuvent tre estims laide de diffrentes mthodes statistiques. La mthode
des moments gnralise est une de celles-ci.

4.1

Introduction

On considre un chantillon de taille T form de plusieurs ralisations y = y(1), . . . , y(T ) indpendantes entre elles et identiquement distribues. Selon le modle paramtrique, cet chantillon est form de ralisations dune variable alatoire Y suivant une distribution particulire.
Le vecteur de paramtres de celle-ci, , de longueur a, appartenant lespace Ra , doit
tre estim partir de lchantillon. Une premire approche consiste maximiser la fonction
de vraisemblance L(; y), qui quivaut au produit de la densit f (y; ) value chacune des
ralisations y(t) :
L(; y) =

T
Y

f (y(t); ),

(4.1.1)

t=1

Lestimateur est, dans ce cas, la valeur pour laquelle lchantillon a la plus grande probabilit
dtre observ. Cependant, puisque cela apporte plusieurs simplifications intressantes, on
cherchera maximiser la fonction de log-vraisemblance l(; y) = ln (L(; y)) :
= arg max l(; y).

(4.1.2)

Le maximum est obtenu en rsolvant la condition de premier ordre, cest--dire en galant le


gradient de la fonction de log-vraisemblance 0 :
l(; y)
= 0.

(4.1.3)

49

Cette mthode permet dobtenir un estimateur convergent de variance minimale, car elle utilise
lensemble de linformation contenue dans lchantillon. Cependant, la fonction de vraisemblance doit pouvoir tre spcifie sous une forme analytique, et de plus, celle-ci doit tre
diffrentiable afin de pouvoir utiliser cette mthode, ce qui nest pas le cas avec la distribution
de Laplace asymtrique gnralise. Lorsque cette situation se prsente, une mthode alternative est prfre, celle des moments gnralise, comme propose par Hansen (1982). Celle-ci
est dcrite par Hamilton (1994) dans le contexte de ltude des sries chronologiques. Elle a
pour avantage de ncessiter seulement la spcification de certaines conditions de moment. Par
contre, elle nutilise pas toute linformation fournie par lchantillon, ce qui ne permettra pas
dobtenir un estimateur de variance minimale.

4.1.1

Mthode classique des moments

Pour certaines distributions, on ne peut directement estimer les paramtres. On cherchera


alors des fonctions des paramtres qui sont facilement estimables de manire convergente.
Lensemble de fonctions le plus commun qui rpond cette condition est celui des moments,
do le nom de la mthode.
La mthode classique des moments a t introduite par Pearson en 1894. On considre un
chantillon de taille T dont les observations seront notes y(t). On veut estimer le vecteur
de paramtres , de longueur a de la distribution. On dfinit les moments m = m1 , . . . , ma
de la population totale, reprsente par la variable alatoire Y , comme tant lesprance des
puissances de celle-ci, et donc une fonction des paramtres de la distribution. On considrera
le mme nombre de moments que de paramtres estimer.
 
mi () = E Y i ,
i = 1, . . . , a

(4.1.4)

Cette mthode consiste rsoudre un systme dquations (4.1.5) o lon gale les moments
empiriques mi () ceux de la distribution m(y).

P
m1 () = T1 Tt=1 yt

m2 () = 1 PT y 2
t=1 t
T
..

ma () = T1 Tt=1 yta

(4.1.5)

Lestimateur des moments T est celui qui rsout ce systme.

4.2

Mthode des moments gnralise

La mthode classique des moments utilise le mme nombre dquations destimation que de
paramtres (r = a). De plus, le systme dquations form par celles-ci doit admettre une

50

solution relle appartenant lespace des paramtres , ce qui nest pas toujours le cas.
Lorsque ces deux conditions ne sont pas runies, on doit choisir un vecteur de paramtres
pour lequel les moments de la population mi ont une valeur la plus prs possible de ceux de
lchantillon m
i correspondants. Cette distance est note par le vecteur g(; y) et correspond
au cas le plus simple de la mthode des moments gnralise.

m1 m
1

..
.
g(; y) =
.

mr m
r

(4.2.1)

Pour obtenir ces estimateurs, on cherchera plutt minimiser une fonction objectif note
Q (; y), qui correspond une norme quadratique pondre par une matrice dfinie positive
W :
Q (; y) g(; y)0 W g(; y).

(4.2.2)

Hansen (1982) nomme cette procdure mthode des moments gnralise. Elle est aussi
nomme mthode du 2 minimum par Berkson (1980), bien quelle nen soit quun cas
particulier. On retrouve aussi le nom destimateur de distance minimale, par Wolfowitz (1957).

4.2.1

Dfinition

On considre un vecteur yT de longueur T contenant les donnes y(t) de lchantillon tires


dune population reprsente par la variable alatoire Y . On considre de plus un vecteur de
paramtres de longueur a dont la vraie valeur, qui est inconnue, est reprsente par
la constante 0 . Soit une fonction vectorielle de longueur r de la variable alatoire Y appele
condition de moment ou dorthogonalit :
h (, Y ) : (Ra R) Rr .

(4.2.3)

Lesprance de cette fonction, sous lhypothse = 0 , est un vecteur nul not 0r .


E [h (0 , Y )] = 0r .

(4.2.4)

On dfinit aussi la fonction g(, yT ) : Ra Rr comme tant la moyenne empirique des


conditions de moment h (, y) :
T
1X
g(, yT )
h (, y(t)) .
T

(4.2.5)

t=1

Lide derrire la mthode des moments gnralise est de choisir un ensemble de paramtres
de sorte que la valeur de la fonction g(, yT ) soit aussi prs que possible du vecteur nul

51

0r . Selon la norme utilise pour mesurer cette distance, les proprits de lestimateur T vont
varier. tant donn les nombreuses proprits bien tablies dans le domaine des statistiques,
on utilise la norme quadratique avec pondration, appele aussi moindres carrs gnraliss,
qui prend la forme suivante :
Q(, yT ) = [g(, yT )]0 WT [g(, yT )] .

(4.2.6)

Cette fonction de minimisation permettra dutiliser des tests statistiques bass sur la distribution 2 de Pearson. La matrice carre WT de dimension r r est dfinie positive et est
habituellement une fonction des donnes de lchantillon yT et des paramtres . Une matrice
de pondration optimale sera dtermine la section 4.2.3.

4.2.2

Convergence

Si le nombre de paramtres a est gal celui de conditions de moments r, alors la fonction


On obtiendra ce dernier en rsolvant lquation
objectif atteindra un minimum de 0 au point .
suivante pour le paramtre :
g(T , yT ) = 0.

(4.2.7)

Lorsque le nombre de conditions de moments est plus grand que celui des paramtres, on
ne pourra pas obtenir une solution pour lquation prcdente (4.2.7). La proximit entre la
valeur de chaque condition de moment et 0 sera dtermine par la matrice de pondration WT .
tant donn que la fonction g(T , yT ) est la moyenne chantillonnale de la fonction alatoire
h (0 , Y ), on a, par la loi des grands nombres, la relation suivante entre ces deux quantits :
P

g(, yT ) E [h (, Y )] .

(4.2.8)

On considre la suite dobservations {y(t)}Tt=1 comme un processus stochastique. Lensemble


des conditions de rgularit suivantes permet dobtenir un estimateur convergent (Hansen,
1982).
1. Le processus stochastique {y(t)}Tt=1 est stationnaire, dont la distribution conjointe de
plusieurs observations ne change pas dans le temps :
FY (y(t(1) + ), . . . , y(t(k) + )) = FY (y(t(1)), . . . , y(t(k))),

R.

(4.2.9)

Il est aussi ergodique, cest--dire que lon peut dduire les proprits du processus
partir dun chantillon (ou ralisation) suffisamment long de celui-ci. Entre autres,
la moyenne et la variance dun chantillon recueilli sur une priode en particulier sont
reprsentatives de celles de nimporte quel autre intervalle de temps de ce processus.

52

Dans ces deux dernires situations, on parle aussi de convergence en moyenne (L1 ) et en
norme quadratique (L2 ) :
lim E (|YT Y |r ) = 0,

r {1, 2} .

(4.2.10)

2. Lespace mtrique (, ), dfini par lespace des paramtres et la norme valeur


absolue est sparable :
= |YT Y |r .

(4.2.11)

Cette condition dfinit lunicit du vecteur de paramtres, car si la distance est nulle,
les estimateurs correspondent aux vrais paramtres :
= 0 = 0 ,

0 .

(4.2.12)

3. La fonction h (, y) est mesurable au sens de Borel pour chaque vecteur , cest-dire quun sous-ensemble de lespace des paramtres existe pour chaque valeur quelle
peut prendre. De plus, la fonction est continue sur lensemble pour chaque chantillon
y.
4. Lesprance de la fonction h (, Y ) existe et est dfinie pour toute valeur . De plus,
par dfinition, lesprance de la fonction pour les vrais paramtres est de 0 :
E [h (0 , Y )] = 0.
5. La squence de matrices de pondration {WT }
T =1 converge presque srement, lment
par lment, vers une constante W0 , en utilisant la norme valeur absolue dfinie prcdemment (4.2.11).
T est un estimateur convergent de lorsque les conditions prcdentes sont respectes.
T = arg min Q(, yT )

= arg min [g(, yT )]0 WT [g(, yT )] .

(4.2.13)

4.2.3

Matrice de pondration optimale

On dfinit la variance-covariance S(; y) de la moyenne chantillonnale de la fonction h(, y).


Cette matrice est forme par lesprance, lment par lment, du produit extrieur de lestimateur par sa transpose, multipli par la taille de lchantillon T


S(; y) = T E [h(, y)] [h(, y)]0 .

(4.2.14)

La variance-covariance asymptotique de la moyenne chantillonnale de la fonction h(0 , y(t))


est obtenue en valuant la matrice (4.2.14) au point 0 .



0
S(0 ; y) = T lim E [h(, y)] [h(, y)]
T

(4.2.15)

=0

53

La valeur optimale de la matrice de pondration WT de lquation (4.2.13) est obtenue en


inversant la variance-covariance asymptotique :
WT = S1 (0 ; yT ).

(4.2.16)

Cependant, comme on ne connat pas la valeur de 0 , on utilisera lestimateur convergent ,


qui minimise la condition suivante :
QT (, yT ) = [g(, yT )]0 S1
T (; yT ) [g(, yT )] .

(4.2.17)

Le problme doptimisation se note alors comme suit :


T = arg min QT (, yT ).

(4.2.18)

Comme la squence {h(0 , y(t))}


t= ne prsente pas de corrlation srielle, on pourrait
estimer la variance-covariance ST de manire convergente en valuant la moyenne empirique
du produit extrieur de la condition de moment (Hamilton, 1994, p.413) :
ST (; yT )

T
1X
=
[g (0 , y(t))] [g (0 , y(t))]0 .
T

(4.2.19)

t=1

yT ) converge en probabilit vers la vraie valeur de la matrice S(0 ; yT ).


T (;
Lestimateur S
yT ), on a aussi la
tant donn que lon estime la fonction h(, yT ) laide de la fonction g(;
convergence en probabilit :
T h 
i h 
i0
X
P
yT ) = 1
T (;
S
g T , w(t)
g T , w(t)
S(0 ; yT ).
T

(4.2.20)

t=1

Lestimateur de la matrice de pondration optimale est alors dfini comme tant linverse de
la variance-covariance estime :
T = S
yT ).
1 (;
W
T

(4.2.21)

qui est pour linstant inconnu, elle ne pourra


Comme cette matrice dpend de lestimateur ,
pas tre utilise pour une premire optimisation de lquation de minimisation (4.2.13). Cependant, elle pourra tre utilise dans une procdure itrative la section 4.2.4. On devra
considrer lutilisation dun point de dpart alternatif pour le vecteur de paramtres dans
lalgorithme de minimisation.

54

4.2.4

Mthode des moments gnralise itrative

La mthode des moments gnralise itrative de Hall (2005) permet de contourner le problme
yT ). Elle consiste, en premier lieu, calculer un estimateur
T (;
de lestimation de la matrice S
prliminaire (0) , en utilisant la matrice identit WT = Ir dans lquation (4.2.13). On suggre
dutiliser un vecteur de valeurs initiales I obtenues par une autre mthode destimation,
lorsque possible, comme point de dpart de loptimisation numrique.
laide de lestimateur initial (0) , on obtient une premire valuation de la matrice de pondration :
i1
h
.
WT = ST ((0) ; yT )

(4.2.22)

En utilisant la matrice WT comme pour pondrer la fonction objectif (4.2.13), on obtiendra


(1)
un nouvel estimateur .
T

Par la suite, on rpte cette procdure jusqu ce quon obtienne deux estimateurs conscutifs
(j)
(j+1)
( et
) qui ne sont pas significativement diffrents, selon un critre darrt i < .
T

Ce critre darrt prendra ici la forme suivante, qui correspond la norme euclidienne de la
diffrence entre les deux derniers estimateurs obtenus :
i =

rh

(i)
(i1)
T T

i0 h
i
(i)
(i1)
T T
.

(4.2.23)

On peut aussi fixer un nombre maximal ditrations imax si lon ne parvient pas obtenir le
niveau de prcision voulu. Par contre, dans cette situation, on prfre utiliser un autre point
de dpart.
(i)
Chaque estimateur T a la mme distribution asymptotique. La mthode itrative a pour

avantage, en pratique, que les estimateurs produits sont invariants dchelle et ne dpendent
pas de la matrice WT initiale.

4.2.5

Distribution asymptotique des estimateurs

On considre T , la valeur qui minimise la fonction objectif Q(, yT ) (4.2.17). Cette minimisation quivaut rsoudre le systme non linaire o lon gale la drive de lquation
doptimisation 0 :
d
Q(, yT ) =
d0

0

d
T g(, yT )
g(, yT )
W
0
d

(4.2.24)

= 0.

55

o le gradient D0 (, yT ) est
0
d
D (, yT ) =
g(, yT )
d0

d
g1 (, yT )
d1 .
..
..
=
.

d
dk g1 (, yT )


d
d1 ga (, yT )

..
.

d
dk ga (, yT )

(4.2.25)

En appliquant le thorme central limite multivari (B.2.5) lestimateur des conditions de


moments g(, yT ), on obtient que, lorsque la taille T est suffisamment grande, celui-ci converge
en loi vers un vecteur alatoire de distribution normale multivarie de moyenne 0a et de
variance-covariance T 1 S(; yT ) :

T g(, yT ) N (0a , S(; yT )) .

(4.2.26)

Cette relation permet de conclure que lestimateur est gaussien. On na donc qu calculer
sa variance-covariance asymptotique.
n o
T
Soit S
, une squence de matrices (rr) dfinies positives qui convergent en probabilit
T =1

vers la variance-covariance asymptotique :


P
T
S
S.

On ajoute que la fonction g(, yT ) doit tre diffrentiable par rapport au vecteur pour tout
chantillon yT .
On doit pralablement poser un ensemble de conditions supplmentaires de rgularit :
1. Lestimateur T converge en probabilit vers la vraie valeur des paramtres 0 :
P
T 0 .

(4.2.27)

2. Le thorme central limite sapplique pour la fonction g(, yT ) (4.2.26).


P

3. Pour toute squence destimateurs {T }


T =1 convergents en probabilit T 0 , on

peut valuer le gradient D0 (, yT ) de lquation g(, yT ) (4.2.25) laide de limites :



dg(, yT )

|
=T
d0


dg(, yT )
|=0 .
= plim
d0

DT0 (, yT ) plim

On note que les colonnes de la matrice D sont linairement indpendantes.

56

(4.2.28)

on utilise le premier ordre du


Pour obtenir la distribution asymptotique de lestimateur ,
yT ) autour de la valeur du vrai paramtre 0 , tel
dveloppement de Taylor de la fonction g(,
quavanc par Gourieroux et Monfort (1989) :


yT ) = g(0 , yT ) + D0 (, yT ) 0 .
g(,
T

On multiplie de part et dautre par la matrice
!

dg(, yT )
yT ) =
WT g(,

d0
=T
+

dg(,yT )

d0
=

(4.2.29)

WT

de dimension (a r) :

!

dg(, yT )
WT g(0 , yT )

d0
=T
!



dg(, yT )
0
0 .

D
(,
y
)

W
T
T
T

d0
=T
(4.2.30)

Lquation de premier ordre (4.2.24) nous indique que le ct gauche de lgalit prcdente
(4.2.30) vaut 0. On retrouve alors une expression de la distance entre lestimateur et la vraie
valeur des paramtres, qui dpend de la matrice de pondration, de la fonction g(0 , yT ) et
du gradient DT0 (, yT ) :


#1

dg(, yT )
0
=
WT DT (, yT )

d0
=T

dg(, yT )
WT g(0 , yT ).


d0
=T
"

(4.2.31)

La condition de rgularit (4.2.28) permet la convergence de chaque range de lestimateur


DT0 (, yT ) vers celles du gradient D0 (0 , yT ). De plus, lquation (4.2.31) implique la relation
de convergence suivante :



1
P
T 0 D(, yT )WT D0 (, yT )
n
o

D(, yT )WT T g(0 , yT ) .

(4.2.32)

Afin de simplifier la notation, on dfinit la constante C(, yT ) :



1
C(, yT ) = D(, yT )WT D0 (, yT )
D(, yT )WT .
Lquation (4.2.32) devient



P
T 0 C(, yT ) T g(0 , yT ).

(4.2.33)

57

En combinant la relation (4.2.26), o lon applique le thorme central limite la fonction


g(0 , yT ), avec la mthode delta multivarie (B.3.4), on retrouve la forme suivante, avec une
convergence en loi cependant, puisque celle-ci est moins forte que celle en probabilit :

L
T ( 0 ) N (0, J01 )

(4.2.34)

o
J01 = C(, yT ) {WT }1 C(, yT )

1
= D(, yT )WT D0 (, yT )
D(, yT )WT {WT }1

1
WT D0 (, yT ) D(, yT )WT D0 (, yT )

1
= D(, yT )WT D0 (, yT )
.

4.3

(4.2.35)

Estimation sous contraintes

La mthode des moments gnralise suppose que le vrai vecteur de paramtres 0 appartient
lensemble . En pratique, les paramtres sont souvent soumis certaines contraintes
lgalit.
On dfinit un ensemble de q contraintes linaires implicites appliques au vecteur de paramtres
de longueur a :

r(1,1) 1 + . . . + r(1,a) a = r(1,0)


...

r(q,1) 1 + . . . + r(q,a) a = r(q,0)

(4.3.1)

On peut les prsenter sous la forme dun systme matriciel :


1
r(1,0)
r(1,1) . . . r(1,a)
. .
.
..
..
. .
..
.
.

. = . .
a
r(q,0)
r(q,1) . . . r(q,a)
{z
} | {z } | {z }
|

(4.3.2)

Afin de les inclure dans un problme de minimisation, on prfrera utiliser la notation a() =
R r. On notera au passage que le gradient du vecteur de contraintes quivaut la matrice
de coefficients :

a() = R.
0

(4.3.3)

Ainsi, on peut estimer les paramtres de la distribution contrainte laide de la mthode des
moments gnralise, de manire analogue la distribution non contrainte, comme il a t

58

prsent la section prcdente. On utilisera la technique du multiplicateur de Lagrange afin


dinclure la contrainte a() dans lquation de minimisation (4.2.18). Le vecteur associe un
mettant en relation
multiplicateur chaque contrainte linaire. On dfinit le lagrangien L()
la fonction objectif QT () (4.2.17) et les contraintes a() :
L() = QT () a()0 .

(4.3.4)

Lestimateur contraint est obtenu en maximisant ce lagrangien :


= arg max L().

(4.3.5)

La solution optimale sobtient en rsolvant les conditions de premier ordre par rapport au
vecteur de paramtres et celui des multiplicateurs de Lagrange :

a()
0 T = 0
QT ()

0
= 0.
a()

(4.3.6)
(4.3.7)

On sintresse aussi la distribution asymptotique de cet estimateur contraint. Pour ce faire,


on doit dvelopper les conditions de premier ordre comme il a t fait la section 4.2.5 pour
lestimateur non contraint.

4.3.1

Distribution asymptotique des estimateurs contraints

Supposons que les conditions de premier ordre sont deux fois continment drivables par
rapport au vecteur . On dveloppe les quations (4.3.6) et (4.3.7) autour de la vraie valeur

du paramtre contraint 0 . Puis, on les multiplie par les facteurs 1T et T respectivement.


Notons que la fonction a() vaut 0 au point 0 , ce qui permettra de simplifier la seconde
quation :

1
1 2

T
0

QT (0 ) +
Q
(
)
T ( 0 ) 0 a()
0
0
T
0
T

T
T

a(
)
T ( 0 ) 0.
0
0

(4.3.8a)
(4.3.8b)

On dfinit la matrice dinformation de Fisher comme tant la limite de lesprance de la valeur


de la drive seconde de la fonction objectif. Au point 0 , on identifie lestimateur de cette
matrice par J0 , la variance-covariance de lestimateur non contraint (4.2.35) :
J0 = lim
T

1 2
QT (0 ).
T 0

(4.3.9)

59

On reprend lquivalent asymptotique de lquation (4.3.8a) pour lestimateur non contraint :

QT (0 ) J0 T ( 0 ) 0.
T

(4.3.10)

En combinant ces deux dernires expressions, on peut formuler les conditions de premier ordre
(4.3.8) comme tant asymptotiquement des fonctions linaires de lestimateur non contraint

T ( 0 ) :

T
J0 T ( 0 ) J0 T ( 0 )
a(0 )0 0

a(0 ) T ( 0 ) 0.
0

(4.3.11)
(4.3.12)

En rorganisant la premire quation (4.3.11), on obtient :

T ( 0 )

T
T ( 0 ) J01 a(0 )0 .

(4.3.13)

En la reportant dans la seconde quation (4.3.12), on obtient :

0 ) a(0 )J 1 a(0 )0
a(
)
T
(

+
a(
)
T ( 0 ) 0.
0
0
0
0
0

0
T
Comme le rang de la matrice

0 a(0 )

est gal au nombre de contraintes r, alors

(4.3.14)

0
0 a(0 )J0 a(0 )

T
en fonction des estiest inversible, et lon peut donc isoler le multiplicateur de Lagrange
T

mateurs contraints T ( 0 ) et non contraints T ( 0 ) :



1

1
0

T ( 0 ).
(4.3.15)
a(
)J
a(
)
a(
)
0
0
0
0
0

0
T

On dfinit lestimateur contraint en fonction de lestimateur non contraint en utilisant le


lagrangien (4.3.15) dans la condition (4.3.13) :


1

1
1
1
0
0

T ( 0 ) I J 0
a(0 )
a(
)J
a(
)
a(
)
T ( 0 )
0
0
0 J0
0
0
0

|
{z
}
P

(4.3.16)

(I P ) J0

T ( 0 ).

La variance asymptotique de lestimateur contraint est donc, partir du rsultat prcdent


(4.3.16) et de la dfinition (4.3.10) :
h
i
V
T ( 0 ) = (I P ) J01 .

60

(4.3.17)

Lestimateur suit donc asymptotiquement une distribution normale multivarie de moyenne


0 et de variance T (I P ) J01 :

N 0 , T (I P ) J01 .

4.4

(4.3.18)

Tests dhypothses paramtriques

Les tests dhypothses paramtriques sont utiliss afin dvaluer une hypothse concernant
les paramtres dune distribution, en fonction dun chantillon de donnes. Afin deffectuer
ces tests, on prsume que la diffrence entre lestimateur et la vraie valeur des paramtres
0 suit une distribution normale multivarie. Les hypothses sont habituellement formules
sous la forme de contraintes linaires, ainsi, les statistiques de test sont obtenues partir
du calcul matriciel. Les trois tests les plus couramment utiliss dans le cadre de lestimation
par maximum de vraisemblance peuvent tre adapts la mthode des moments gnralise
(Newey et McFadden, 1994). Pour lensemble de ces tests, lhypothse nulle correspond la
contrainte linaire suivante :
H0 : a() = R r = 0.

4.4.1

(4.4.1)

Test de Wald

Le test de Wald permet de vrifier si la diffrence entre lestimateur non contraint et lestimateur contraint est significative. Les contraintes linaires poses ne seront pas applicables
lorsque le rsultat est positif. Pour ce faire, on doit connatre la distribution asymptotique de
celle-ci. Comme la distribution asymptotique des deux estimateurs est normale, alors celle de
cette diffrence lest aussi :
N (0, T P J 1 ).
( )
0

(4.4.2)




On obtient lesprance et la variance de la statistique T en utilisant le fait que la


somme de deux variables alatoires normales lest aussi :
E

h 
i
h 
i
h 
i
T = E
T 0 + E
T 0
=00

=0
h 
i
h 
i
h 
i
V
T = V
T 0 + V
T 0

(4.4.3)

= T (I + (P I)) J01
= T P J01 .

(4.4.4)

61

On dfinit la statistique W ALD,1 , qui a asymptotiquement une distribution 2 avec q degrs


de libert :


0 
W ALD,1 = T P

(4.4.5)


1

0



1
0

= T J01 a(0 )0
a(
)J
a(
)

.
a(
)
0
0
0
0

0
On rejettera lhypothse nulle (4.4.1) lorsque la valeur de la statistique W ALD,1 sera suprieure un seuil critique 2q,1 au niveau de confiance 1 .
Une version asymptotiquement quivalente de ce test qui ne requiert pas de calculer la valeur de
lestimateur contraint existe. Ce test est quivalent lorsque les contraintes dfinissent certains
paramtres comme des constantes. On vrifie si un cas particulier dune distribution sapplique,
par exemple avec celle de Laplace asymtrique gnralise.
On dfinit alors la statistique W ALD,2 , qui a aussi asymptotiquement une distribution 2
avec q degrs de libert. Par contre, ici, on teste si la valeur de la contrainte linaire est
significativement diffrente de 0 :

4.4.2

W ALD,2

= T a ()

1

1 0

a(0 )J0
a (0 )
a().
0

(4.4.6)

Test du multiplicateur de Lagrange

Le test du multiplicateur de Lagrange, ou du score, introduit par Newey et West (1987),


est bas uniquement sur lestimateur contraint et est quivalent asymptotiquement au test
de Wald prsent la section prcdente. Il vrifie lapplication de la contrainte (4.3.2)
Selon la dfinition du lagrangien (4.3.4), si la contrainte est vrifie, alors la
lestimateur .
vaudra 0. Selon la condition de premier ordre (4.3.7), la drive de la fonction
restriction a()
objectif de lestimateur non contraint

QT (),

le score, devrait aussi tre gale 0. On

cherchera donc tester si cette valeur est significativement diffrente de 0.


On dfinit la statistique du multiplicateur de Lagrange LM,1 , qui a asymptotiquement une
distribution 2q avec q degrs de libert :
LM,1 = T

QT ().

QT ()P

(4.4.7)

On rejettera lhypothse nulle (4.4.1) lorsque la valeur de la statistique LM,1 sera suprieure
un seuil critique 2q,1 au niveau de confiance 1 .
On peut construire un test quivalent, bas sur la valeur du multiplicateur, dont la matrice de
variance-covariance est linverse de celle de la contrainte. On dfinit alors la statistique LM,2

62

suivante :
LM,2 = T 0

4.4.3

a(0 )J01 a0 (0 ).
0

(4.4.8)

Test bas sur la statistique de mtrique de distance

La statistique de mtrique de distance est base sur la diffrence entre les valeurs minimales
de la fonction objectif QT () obtenues lors de loptimisation avec contraintes (4.3.4) et sans
contraintes (4.2.13).
On dfinit la statistique DM :
h
i
QT ()
.
DM = T QT ()

(4.4.9)

Cette statistique a asymptotiquement une distribution 2q avec q degrs de libert. Elle est
lanalogue de la statistique du ratio de vraisemblance dans le cadre de lestimation par la
mthode du maximum de vraisemblance.
Le test bas sur la mtrique de distance vrifie que la contrainte (4.3.2) pose lors de lestimation du vecteur est valide. Un des dsavantages de ce test est quil requiert deux optimisations.
Par contre, on peut facilement rcuprer les valeurs de QT () lors de lestimation.
On rejettera lhypothse nulle (4.4.1) lorsque la valeur de la statistique DM sera suprieure
un seuil critique 2q,1 au niveau de confiance 1 .

4.4.4

En rsum

On rassemble les diffrentes statistiques permettant deffectuer un test dhypothse paramtrique la table 4.1.
Statistique
W ALD,1
W ALD,2
LM,1
LM,2
DM

Valeur
0


1
1


T J0
a(0 )0 0 a(0 )J01
a(0 )0
a(
)

0
0

0 a(0 )J 1 a0 (0 ) 1 a()
T a0 ()
0

QT ()

T QT ()P


0
T 0 0ha(0 )J01
a (i0 )
QT ()

T QT ()

Table 4.1: Tests dhypothse paramtriques pour la mthode des moments gnralise

63

Chapitre 5

Mthode de lquation destimation


optimale
Une quation destimation est une fonction des donnes de lchantillon et des paramtres dun
modle qui spcifie de quelle manire on doit procder pour estimer ces derniers, lorsque la
distribution de la population est inconnue. Cette approche a un avantage sur les mthodes de
vraisemblance, car elle ne requiert pas lutilisation de la fonction de densit ou de rpartition,
mais seulement les moments de la distribution. (Everitt et Skrondal, 2006)
Crowder (1986) dfinit lquation destimation sous une forme gnrale, compose dune matrice dchelle S(; Y ), un vecteur de fonctions alatoires u(; Y ) et un vecteur de pondration
w(; Y ) :
g(; Y ) = S 1 (; Y )

T
X

u(; Y )w(; Y ).

(5.0.1)

t=1

En faisant abstraction du vecteur de pondration w(; Y ), on retrouve une forme qui rappelle
la mthode des moments gnralise. La fonction destimation u(; Y ) dfinit, dans ce cas,
des conditions de moment. Toutefois, en faisant abstraction de la matrice S(; Y ), on obtient
une classe dquations destimation g(; Y ) qui gnralise plusieurs mthodes connues, comme
dvelopp par Crowder (1987) :
g(; Y ) =

T
X

u(; Y )w(; Y ).

(5.0.2)

t=1

La proprit fondamentale de toute quation destimation est que son esprance est nulle.
Lquation destimation (5.0.1), et donc (5.0.2), produit des estimateurs sans biais :
E [g(; Y )] = 0.

(5.0.3)

65

Par analogie avec la mthode du maximum de vraisemblance, on pourra alors la considrer


comme une quation de quasi-score. On peut en effet reprsenter lquation prcdente par
celle du score (5.0.4) donne par lesprance de la drive de la fonction de log-vraisemblance
par rapport au vecteur de paramtres :


h
i
d ln L (; Y )
E g (; Y )EM V = E
= 0.
d

(5.0.4)

On dsigne la moyenne et la variance de la distribution par les notations () et 2 () respectivement. On dfinit aussi les drives premires de la moyenne et de lcart-type par rapport
au vecteur de paramtres :
d ()
d
p
d 2 ()
0 () =
.
d
0 () =

(5.0.5a)
(5.0.5b)

Dans ce chapitre, on considre une quation destimation quadratique de la forme suivante :


g (; Y ) =

n
X


a(; yt )(yt ()) + b(; yt ) (yt ())2 2 ()



(5.0.6)

t=1

Le vecteur de pondration w(; Y ) de lquation (5.0.2) est compos de deux fonctions dterministes : a(; Y ) et b(; Y ) :
"
w(; Y ) =

a(; Y )

b(; Y )

(5.0.7)

On dmontre facilement que cest une quation destimation en calculant son esprance :
" n
#
X

2
2
E [g (; Y )] = E
a(; yt )(yt ()) + b(; yt ) (yt ()) ()
t=1

n
X



a(; yt ) E [yt ()] + b(; yt ) E (yt ())2 2 ()

t=1

= 0.

(5.0.8)

La forme quadratique regroupe certaines mthodes destimation bien tablies, recenses la


table 5.1.
La mthode destimation gaussienne de Whittle prsente un avantage par rapport aux modles
linaires conventionnels (moindres carrs pondrs et maximum de quasi-vraisemblance) du
fait quelle prend en considration la variance comme critre doptimisation et non seulement
comme pondration.

66

Mthode
Moindres carrs non pondrs
Maximum de quasi-vraisemblance

a(; yt )
0 ()

Estimation gaussienne de Whittle (Fox et Taqqu, 1986)

0 ()
2 ()
0 ()
2 ()

b(; yt )
0
0
0 ()
2 ()3/2

Table 5.1: Mthodes destimation reprsentables par la forme quadratique (5.0.6)

Crowder (1987) dveloppe, partir de cette dernire, une quation destimation optimale
qui vise remplacer la mthode de quasi-vraisemblance base sur la moyenne et la variance
jusqualors utilise.

5.1

quation destimation optimale

Soit une quation destimation de la forme gnrale (5.0.2). On a, par dfinition, que lesprance
de la composante stochastique u(; Yt ) de celles-ci sous les vrais paramtres 0 est nulle. De
plus, si lon considre que les donnes ne sont pas corrles, lesprance du produit de deux de
ces fonctions est nulle, sauf lorsquelle est value au mme point Yt :
E [u(0 ; Yt )] = 0
E [u(0 ; Ys )u(0 ; Yt )] = s,t V ar [u(0 ; Yt )] .

(5.1.1)
(5.1.2)

Les matrices non singulires M (0 ) et V (0 ) reprsentent respectivement, pour lquation destimation, lesprance de sa drive par rapport et linverse de sa variance-covariance, value
la vraie valeur des paramtres 0 :
M (0 ; Y ) =

T
X



w(0 )E u0 (0 ; Yt )

(5.1.3a)

w(0 )V ar [u(0 ; Yt )] wT (0 ).

(5.1.3b)

t=1

V (0 ; Y ) =

T
X
t=1

La variance asymptotique de lestimateur prend alors la forme suivante, en utilisant la


mthode delta multivarie :
h i

T
V ar = M 1 (0 )V (0 ) M 1 (0 ) .

(5.1.4)

On dsire obtenir des quations destimation optimales de telle sorte que la variance soit
minimale. Le thorme 4.1 de Crowder (1986) permet dtablir quel vecteur de pondration
w () utiliser.

67

Selon ce thorme, lorsquon utilise le vecteur de pondration optimal (5.1.5), on obtient que
la drive de la fonction destimation M () soit gale linverse de la matrice de variancecovariance V () :
 
 T
w () = E u0 (0 ; Yt )
{V ar [u(; Yt )]}1 .

(5.1.5)

La variance asymptotique (5.1.4) du vecteur de paramtres optimal qui rsout lquation


destimation g () se simplifie alors sous la forme : [V (0 ; yt )]1
T
X
  0
 T


M (0 ) =
E u (0 ; Yt )
{V ar [u(0 ; Yt )]}1 E u0 (0 ; Yt )

V (0 ) =

t=1
T
X

(5.1.6)

  0
 T
E u (0 ; Yt )
{V ar [u(0 ; Yt )]}1 V ar [u(0 ; Yt )]

t=1

h 
iT
 T
E u0 (0 ; Yt )
{V ar [u(0 ; Yt )]}1

T
X
  0
 T


E u (0 ; Yt )
{V ar [u(0 ; Yt )]}1 E u0 (0 ; Yt )
t=1

M (0 ) = V (0 )
h
iT
1
1

V ar( ) = [M (0 )] V (0 ) [M (0 )]
= [V (0 )]1 .

(5.1.7)

On considre la fonction u(; Yt ) de lquation quadratique (5.0.6) , dont on cherche le vecteur


de pondration optimal correspondant selon la proposition (5.1.5) :
"
#
Yt ()
u(; Yt ) =
.
(Yt ())2 2 ()

(5.1.8)

On value lesprance, sous le vecteur de vrais paramtres 0 , de la drive par rapport de


la fonction u(; Y ) :
"

E u0 (; Yt ) =


E [0 ()]

h
p
E 2(Y ())0 () 2 2 () 0 ()
"
#
0 ()
p
=
.
2 2 () 0 ().

#
i

(5.1.9)

Puis, on value la variance-covariance du vecteur u(). Pour ce faire, on devra valuer sparment chaque lment composant cette matrice :
"

#
V ar [Y ()]
Cov Y (), (Y ())2 2 ()




V ar [u(; Yt )] =
.
Cov Y (), (Y ())2 2 ()
V ar (Y ())2 2 ()
(5.1.10)

68

On dfinit les coefficients dasymtrie et daplatissement normaliss, ainsi quune constante


3 () qui en dcoule, afin de simplifier les expressions qui seront obtenues consquemment :
1 () =

m3 ()
m2 ()3/2
h
i
E (Y ())3

2 ()3/2
m4 ()
2 () =
3
m2 ()2
h
i
E (Y ())4
=
3
2 ()2
3 () = 2 () + 2 1 ()2 .

(5.1.11a)

(5.1.11b)
(5.1.11c)

On dveloppe les diffrentes composantes de la matrice : (5.1.10)




V ar [Y ()] = E (Y ())2 E [Y ()]2
= 2 ()




Cov Y (), (Y ())2 2 () = E (Y ()) (Y ())2 2 ()


E [Y ()] E (Y ())2 2 ()


= E (Y ())3 2 ()(Y ())

(5.1.12)

= 2 ()3/2 1 ()
(5.1.13)





V ar (Y ())2 2 () = E (Y ())2 2 () (Y ())2 2 ()


= E (Y ())4 2 2 ()(Y ())2 + 2 ()2
= 2 ()2 (2 () + 3) 2 2 ()2 + 2 ()2
= 2 ()2 (2 () + 2) .

(5.1.14)

On obtient alors la matrice de variance-covariance de la fonction u(), dont on value par la


suite linverse :
"
V ar [u(; Yt )] =

2 ()

2 ()3/2 1 ()

2 ()3/2 1 () 2 ()2 (2 () + 2)
"
#
2 ()2 ( () + 2) 2 ()3/2 ()

1
2
1
V ar1 [u(; Yt )] = 2 3
.
() 3 () 2 ()3/2 1 ()
2 ()

(5.1.15)
(5.1.16)

On peut enfin valuer lexpression (5.1.5) laide des rsultats prcdents :


"
#
h
i
2 ()2 ( () + 2) 2 ()3/2 ()
p

1
2
1

0
0
w () = () 2 2 () (). 2 3
.
() 3 () 2 ()3/2 1 ()
2 ()

69

On obtient alors le vecteur de pondration optimal (5.0.7) form des fonctions a () et b () :


{ (2 () + 2) 0 () + 21 () 0 ()}
2 () 3 ()
0
1 () () 2 0 ()
b () =
.
2 ()3/2 3 ()
a () =

(5.1.17a)
(5.1.17b)

On obtient aisment les matrices M ? () et V ? () partir de leur dfinition (5.1.3) :


M ? () = V ? ()
= T ()2

0 ()

T

T o
0 () + 3 ()1 1 () 0 () 2 0 () 1 () 0 () 2 0 ()
.
(5.1.18)

Afin dobtenir la solution optimale ? , on dfinit la fonction objectif (; yT ) :


(; yT ) = g (; yT ) W (; yT ) g (; yT )T .

(5.1.19)

W (; yT ) est une matrice dfinie positive. En premier lieu, on suggre dutiliser la matrice
de manire
identit. Puis, on peut raffiner lestimation en lui substituant la matrice V ? ()
itrative, de la mme manire quavec la mthode des moments gnralise itrative, la
section 4.2.4.

5.2

quation destimation optimale modifie

Il est possible que, pour certaines distributions, les expressions formant le vecteur de pondration optimal w () soient particulirement complexes. On pourra toujours les utiliser,
cependant, il peut tre intressant de dvelopper une approximation de celles-ci. Pour ce faire,
on substitue les valeurs thoriques des coefficients dasymtrie et daplatissement par une
valeur estime partir de lchantillon :
amod () =
bmod () =

{ (
2 (yT ) + 2) 0 () + 2
1 (yT ) 0 ()}
2 () 3 (yT )
0
1 (yT ) () 2 0 ()
2 ()3/2 3 (yT )

(5.2.1a)
(5.2.1b)

o
PT

3
t=1 (yt y)
1 (yT ) = 

3/2
PT
2
t=1 (yt y)
PT
(yt y)4
2 (yT ) = P t=1
2
T
2
(y

y)
t
t=1

3 (yT ) = 2 (yT ) + 2 1 (yT )2 .

70

(5.2.1c)

(5.2.1d)
(5.2.1e)

On pourra ainsi rduire considrablement la taille des expressions valuer tout en conservant
les proprits asymptotiques des estimateurs, puisque lesprance de chacune des statistiques
utilises est gale la valeur que lon a remplace.
Au prochain chapitre, nous appliquerons la mthode des moments gnralise et la mthode
de lquation destimation optimale la distribution de Laplace asymtrique gnralise.

71

Chapitre 6

Estimation des paramtres de la


distribution de Laplace asymtrique
gnralise
Ce chapitre prsente les diffrents lments qui permettent dobtenir des estimateurs convergents laide de la mthode des moments gnralise et de lquation destimation optimale.
Premirement, une mthode pour obtenir un point de dpart efficace pour lalgorithme doptimisation sera dtaille. Enfin, les rsultats dcoulant des deux chapitres prcdents seront
prsents.

6.1

Vecteur de paramtres initiaux

Comme chacune des deux mthodes destimation tudies requiert lutilisation dun algorithme
doptimisation numrique, on doit tre en mesure de fournir un vecteur de paramtres initiaux
qui favorisera la convergence de celui-ci. Ce vecteur doit faire partie de lespace des paramtres
, tel que dfini la table 2.1. Ce vecteur est plus facile obtenir de manire empirique, par
exemple, avec la mthode des moments, lorsque cest possible. Cependant, pour la distribution
de Laplace asymtrique gnralise, le systme dquations form partir des quatre premiers
moments centraux empiriques et thoriques (2.2.15) na pas de solution analytique.
Seneta (2004) propose une technique pour obtenir un vecteur de paramtres initiaux bas sur
la mthode des moments. En utilisant la mme dmarche que ce dernier, on peut obtenir un
vecteur pour la forme en de la fonction caractristique (2.2.3). On pose comme hypothse
dans les quations des quatre premiers moments (2.2.15a), (2.2.15b), (2.2.16a) et (2.2.16b),
que le paramtre est significativement nul, donc que la distribution est presque symtrique.
On impose donc que les puissances de ce paramtre plus grandes ou gales deux soient

73

nulles :
k = 0,

k {2, 3, 4}.

(6.1.1)

En posant lgalit entre les moments thoriques et leur estimateur correspondant, on obtient
le systme dquations suivant :
m1 = +
m2 = 2
3

1 =
||
3
2 = .

Ce systme possde deux solutions analytiques, dont une respecte la condition selon laquelle
le paramtre doit tre positif. On note que ce rsultat ne constitue quun point de dpart
pour lalgorithme doptimisation numrique et quon ne peut, en aucun cas, utiliser celui-ci
des fins statistiques. Cest un estimateur biais et non convergent tant donn la condition
(6.1.1) :

1 m2 2 m1

=
2

2 m2

=
>0
3

1 m2

=
3
3
= .
2

6.2

(6.1.2a)
(6.1.2b)
(6.1.2c)
(6.1.2d)

Mthode des moments gnralise

En premier lieu, on utilise la mthode des moments gnralise afin destimer les paramtres
de la distribution de Laplace asymtrique gnralise. Aux fins dillustration, seulement deux
conditions de moments seront utilises. Cependant, pour obtenir des rsultats optimaux en
termes de convergence asymptotique, on doit utiliser au moins autant de conditions de moment
que de paramtres. Ainsi, en considrant la diffrence entre les moyennes et variances empirique
et thorique, on obtient les conditions de moment suivantes, qui ont une esprance nulle sous
les vrais paramtres 0 :
"
h(; Y ) =

74

#
(6.2.1)

(Y m1 )2 m2
"

Y m1

Y ( + )
(Y ( + ))2 2 + 2

(6.2.2)

On dfinit la contrepartie empirique de ces conditions de moment comme suit :


1
g(; yT ) =
T

"

1
=
T

"

1
=
T

"

g1 (; yT )
g2 (; yT )
PT

t=1 yt

PT

m1

#
(6.2.3)

m1 )2 m2
PT
t=1 yt ( + )

t=1 (yt

PT

t=1 (yt

( + ))2 2 + 2

(6.2.4)

On doit dfinir la matrice de pondration optimale.

6.2.1

Matrice de pondration optimale

On sintresse la forme analytique de la matrice de pondration optimale (4.2.14). Celle-ci


est obtenue en prenant lesprance du produit extrieur du vecteur des conditions de moment
thoriques sur elles-mmes. Pour des fins de simplification, on dfinit le produit des conditions
i et j par la notation Hi,j (; Y ) = hi (; Y )hj (; Y ).
"
S(; Y ) = E
"
=

H(1,1) (; Y ) H(1,2) (; Y )

H(2,1) (; Y ) H(2,2) (; Y )



 #
E H(1,1) (; Y ) E H(1,2) (; Y )




E H(2,1) (; Y ) E H(2,2) (; Y )

(6.2.5)

o
H(1,1) (; Y ) = (Y )2
H(1,2) (; Y ) = Y 2 2 Y 2 Y + 2 + 2 + 2 2 2 2

2


H(2,2) (; Y ) = (Y ) Y 2 2 Y 2 Y + 2 + 2 + 2 2 2 2 .

On value ensuite lesprance de chacun des lments de la matrice, o lon dfinit de manire
analogue celle du produit des conditions de moments, W(i,j) (; Y ) = E[H(i,j) (; Y )].
"
W (; Y ) =

W(1,1) (; Y ) W(1,2) (; Y )
W(2,1) (; Y ) W(2,2) (; Y )

#
(6.2.6)

75

o
W(1,1) = 2 2 2 2 + 2 + 2 2 + 2



W(2,2) = 4 4 + 2 2 2 4 4 2 4 3 + 4 + 10 2 + 2 2 2 + 6 4 2 + 10 4 + 4 2



+ 2 4 + 14 2 2 16 2 2 4 4 3 14 4 2 10 4 + 3 2 + 3 4

+ 6 2 3 + 18 2 2 + 12 2 2 + 4 4 + 6 4 3 + 11 4 2 + 6 4
 
W(1,2) = W(2,1) = 3 4 + (6 3) 3 + 3 2 + 3 2 2 + 3 2 3 2 3 3



+ 2 + 3 3 + 3 2 + 4 2 3 3 2 4 3 + 3 2 + 3 2
+ 3 3 + 3 3 2 + 2 3 .
On value quelle serait la valeur de la variance-covariance sous des paramtres optimaux. Ce
rsultat permet par la suite dvaluer la distribution asymptotique des estimateurs.
On obtient lestimateur de la matrice optimale (4.2.21) en effectuant le produit extrieur du
vecteur de conditions de moment empirique (6.2.2), puis en valuant la moyenne des matrices
rsultantes de lquation (4.2.19) :
T
X
yT ) = 1
S(;
T
t=1

"

G(1,1) (; yt ) G(1,2) (; yt )

#
(6.2.7)

G(2,1) (; yt ) G(2,2) (; yt )

o
G(1,1) (; yt ) = (yt )2
G(1,2) (; yt ) = yt 2 2 yt 2 yt + 2 + 2 + 2 2 2 2

2


G(2,2) (; yt ) = (yt ) yt 2 2 yt 2 yt + 2 + 2 + 2 2 2 2 .

6.2.2

Variance-covariance des paramtres

On obtient la variance-covariance asymptotique des paramtres partir de la variance-covariance


associe aux conditions de moment en utilisant la mthode delta multivarie (Annexe B.3).
Pour ce faire, on value dabord la valeur thorique du gradient D() :

1
2 (Y )

0
2

D() = E

(Y

2 (Y ) 2 2

1
0

.
=

2

2
2

76

(6.2.8)

Ensuite, on utilise le rsultat (4.2.35) afin dobtenir la valeur de la variance-covariance J01 .


De la mme manire, on value la variance-covariance des paramtres optimaux en utilisant les
valeurs empiriques de la variance-covariance des conditions de moment (6.2.7) et du gradient
yT ), dfini par la matrice (4.2.25). On a essentiellement calculer la moyenne empirique
D(,
des gradients obtenus en chaque point yt , puis utiliser le rsultat (4.2.35) avec les estimateurs
T = S1 (, yT ) et D(,
yT ) :
W

1
2 (yt )

0
2
1 X

D(, yT ) =
(6.2.9)

(y

t=1
2 (yt ) 2 2

6.2.3

Contraintes linaires

Une fois lestimation des paramtres effectue, on peut tester si ces derniers pourraient en fait
correspondre un cas particulier de la distribution de Laplace asymtrique gnralise ayant
le mme support, parmi celles figurant la table 2.2. Pour ce faire, on doit dterminer les
paramtres de la distribution sous un ensemble de contraintes linaires, sous la forme (4.3.2),
correspondant au cas particulier, tel qunumr dans la table 6.1.
Distribution
Laplace symtrique

Paramtres
R
 r 

0
0 0 1 0
1
0 0 0 1

Laplace asymtrique



0 0 0 1

 
1

Dgnre

0 1 0 0
0 0 1 0
0 0 0 1


0
0
0

Table 6.1: Contraintes linaires pour les cas particuliers de la distribution de Laplace asymtrique gnralise GAL(, , , )

On doit ensuite utiliser un algorithme doptimisation numrique afin de maximiser le lagrangien (4.3.4) dfini par la fonction objectif QT () (4.2.17) et lensemble de contraintes
a() = R r slectionn prcdemment. Enfin, on peut effectuer les tests statistiques de la
section 4.4.1 afin de vrifier si les paramtres de la distribution contrainte sont significativement diffrents de ceux de la distribution non contrainte. Dans cette situation, lhypothse
selon laquelle le cas particulier serait appropri pour dcrire la distribution des donnes de
lchantillon serait rejete.

77

Notons quon peut aussi estimer les paramtres de chacun des cas particuliers directement
par la mthode des moments gnralise en utilisant des conditions de moment bases sur la
moyenne m1 et la variance m2 de la forme (6.2.1). Par contre, dans ces cas, on devra utiliser des
tests dadquation non paramtriques afin de dcider laquelle reprsente mieux la distribution
de lchantillon de donnes. Ces tests seront prsents au chapitre suivant, la section 7.2.

6.3

Mthode de lquation destimation optimale

On utilise maintenant la mthode de lquation destimation optimale afin destimer les paramtres de la distribution de Laplace asymtrique gnralise. On considre une quation
destimation de la forme quadratique (5.0.6), base sur les conditions de moments (6.2.2)
utilises la section prcdente.
On value dabord les expressions des drives premires de la moyenne et de lcart-type par
rapport au vecteur de paramtres (5.0.5) :

d
( + )
d
T

dp 2
+ 2
0 () =
d

0 () =

=p

2 + 2
1

(6.3.1a)

2 +2
2

(6.3.1b)

On peut alors obtenir une forme analytique en utilisant les expressions dtermines prcdemment pour a() et b() (5.1.17), les moments de la distribution (2.2.15) ainsi que les
coefficients dasymtrie et daplatissement (2.2.16). tant donn la longueur des expressions
obtenues, elles ne seront pas prsentes dans ce texte. Cependant, on peut facilement les
valuer laide dun logiciel de calcul symbolique. On combine ensuite celles-ci pour obtenir
lquation destimation optimale g (; yT ) de forme quadratique.
On obtient cependant des expressions plus faciles manipuler pour a() et b() en utilisant

78

la version modifie du vecteur de pondration optimal (5.2.1) :

amod (; yT ) =

2 (yT )2
( 2 +2 )
3 (yT )
2
1 (yT )

( 2 +2 )3/2
3 (yT )

2
y
1 ( T ) + (

2 (yT )2)
2 +2
2 +2 )
(

(y
3 T)

2 +2
1 (yT )

+ (
2 (yT )2)

( 2 +2 )
3 (yT )

(6.3.2a)

1 (yT )
( 2 +2 )3/2 3/2

3 (yT )

2
(2 +2 )2 3 (yT )

1 (yT ) 2 2 2 .
bmod (; yT ) =
+

(2 +2 )3/2 3/2 3 (y )
T

1 (yT ) 2 +2

(6.3.2b)

( 2 +2 )3/2 3/2
3 (yT )

On insre ensuite ces dernires dans la forme gnrale (5.0.6) pour obtenir lquation desti
(; Y ) :
mation optimale modifie gmod

(; Y ) =
gmod

n
X


amod (; yT )(yt ()) + bmod (; yT ) (yt ())2 2 ()



(6.3.3)

t=1

On note quafin dviter des irrgularits numriques, on suggre, dans les deux cas, de faire
lestimation sur des donnes centres et rduites :
Xt =

Yt m1

.
m2

(6.3.4)

Comme prcdemment, on pourra utiliser la proprit dinvariance (2.2.17) de la paramtrisation en afin de retrouver les paramtres de la distribution de la variable alatoire Yt une
fois lestimation effectue :
Yt =
t Xt +
t GAL(
t +
t ,
t , , ).

(6.3.5)

on minimise la fonction objectif (; yT )


Afin dobtenir le vecteur de paramtres estims ,
(5.1.19). Une fois les paramtres obtenus, on peut ensuite valuer la variance-covariance de
ces estimateurs, partir du rsultat (5.1.18).

79

Chapitre 7

Tests statistiques
7.1

Test de normalit

On utilise un test de normalit afin de vrifier si lon peut rejeter lhypothse de normalit de
la distribution des rendements. Comme prsent au premier chapitre, cest cette observation
qui est la base de la recherche de modles alternatifs, tant donn que cette hypothse est
rejete pour la plupart des sries financires. Il existe plusieurs tests disponibles pour ce faire,
dont ceux de Shapiro-Wilk et dEpps-Pulley.

7.1.1

Test de Shapiro-Wilk

Le test de Shapiro-Wilk (Shapiro et Wilk, 1965) est bas sur les statistiques dordre de la
distribution normale. Ce test est particulirement efficace mme pour de petits chantillons
(T < 20), selon les auteurs.
On considre lchantillon ordonn y(1) , y(2) , . . . , y(T ) ,. On value la variance S 2 de lchantillon
puis la statistique b, o les valeurs aT i+1 proviennent de la Table 5 de Shapiro et Wilk (1965) :
1. Si la taille de lchantillon T est paire, alors k =
b=

k
X

T
2

et

aT i+1 (y(T i+1) y(i) ).

(7.1.1)

i=1

2. Si la taille de lchantillon T est impaire, alors k =

T 1
2

et

b = aT (y(T ) y(1) ) + . . . + ak+2 (y(k+2) y(k) ).


La statistique de Shapiro-Wilk W =

b
S2

(7.1.2)

suit une distribution particulire dont on retrouve

diffrents quantiles la Table 6 de Shapiro et Wilk (1965). On rejette lhypothse de la


normalit lorsque la statistique W est infrieure au seuil critique dtermin partir de cette
dernire table.

81

7.1.2

Test dEpps-Pulley

Le test dEpps-Pulley (Epps et Pulley, 1983) est bas sur le carr de la diffrence entre les fonctions caractristiques empirique et thorique de la distribution normale. Ce test est considr
comme un des plus puissants pour un seuil de tolrance donn, pour de larges chantillons.
La statistique de test prend la forme suivante, o X et S sont respectivement la moyenne et
lcart-type chantillonnal :


"
#

 2  2
T

1 X

X

X
t
j

w(t)dt.
EPT = T
exp
exp it
T
S
2

j=1
Z

(7.1.3)

Henze (1990) propose une procdure simple implmenter pour effectuer un test bas sur
la statistique dEpps-Pulley EPT , o la pondration de la diffrence quadratique w() est
remplace par la densit de la loi normale centre rduite, ce qui permet daccorder davantage
dimportance aux observations prs de lorigine et aussi dobtenir une forme intgrable :
"
#
"
 #
T
2
X
X
Xj X
(Xj Xk )2
2
T
EPT =
exp
2
exp
+ + 1. (7.1.4)
2
2
T
2S
4S
3
j=1

1 j<k T

Lorsque T > 10, on calcule une version modifie de la statistique :





1.3
0.365 1.34

1+
.
+ 2
EPT = EPT
T
T
T

(7.1.5)

On obtient ensuite une approximation dun quantile de la loi normale centre rduite :
ZT = + ln ((EPT ) ( + EPT )) .

(7.1.6)

Les constantes sont drives lquation 4.1 de Henze (1990) :


3.55295
1.23062
2.26664
0.020682.
Puis, on compare cette statistique au quantile Z1 correspondant au seuil de tolrance . Si
Zn > Z1 alors on rejette la normalit des donnes.

7.2

Tests dadquation

Les tests dadquation vrifient lajustement lchantillon de la fonction de rpartition estime


soit :

82

partir de lchantillon ayant servi lestimation du vecteur de paramtres


partir dun chantillon spar, afin de vrifier, par exemple, si un modle estim
partir danciennes donnes sapplique toujours de nouvelles informations.
On cherche rejeter ou non une hypothse concernant lchantillon Y et le vecteur de paramtres estims :
Si on considre le vecteur de paramtres comme tant estim partir du mme chantillon sur lequel on effectue le test, alors on pose lhypothse compose suivante :

H0 : Y FY ().

(7.2.1)

Si on considre le vecteur de paramtres comme tant connu ou estim partir dun


autre chantillon, alors on pose lhypothse simple suivante :
H0 : Y FY (0 ).

(7.2.2)

La diffrence entre ces deux hypothses est le nombre de degrs de libert de la statistique
de test. Les deux premiers tests prsents sont des classiques, largement utiliss, mais dont
lapplication est base sur la fonction de rpartition. tant donn quon ne dispose que dune
approximation de celle-ci, on utilisera alors un test bas sur la fonction gnratrice des moments, qui a une forme analytique.

7.2.1

Test 2 de Pearson

Le test 2 de Pearson (Hogg et Craig, 1978, ch. 8) est bas sur une approximation multinomiale
de la fonction de rpartition FX (x; ) pour laquelle on veut vrifier lajustement des donnes
chantillonnales X1 , . . . , Xn . Pour ce faire, on divise le domaine de la variable alatoire X
en k intervalles, appels classes. On associe la probabilit pi () que X prend une valeur dans
lintervalle [ci1 , ci ]. Cette probabilit est value laide de la fonction de rpartition FX (x; )
de la variable alatoire X :
pi () = FX (ci ; ) FX (ci1 ; ),

i = 1, . . . , k.

(7.2.3)

Soit Ni , le nombre de donnes de lchantillon observes dans lintervalle dfini prcdemment.


On dfinit alors la statistique Q comme tant la somme, pour chaque intervalle, du carr de
la diffrence entre le nombre dobservations obtenues et espres, pondre par cette dernire
valeur. Cette quantit a approximativement une distribution asymptotique 2 (k 1) avec k 1
degrs de libert :
Qk1 =

k
X
(Ni npi (0 ))2
i=1

npi (0 )

2 (k 1).

(7.2.4)

83

La statistique Qk1 peut tre utilise pour vrifier une hypothse simple, cest--dire lorsque
les paramtres sont connus :
H0 : = 0 .

(7.2.5)

Cependant, comme les q paramtres de la distribution fX doivent tre estims pour valuer
les probabilits pi (), on retrouve alors une hypothse compose :
H0 : F {F }, .

(7.2.6)

On doit retrancher le mme nombre de degrs de libert la distribution asymptotique approximative de la statistique Q qui devient :

2

k
N

np
(
)
X
i
i
Qkq1 =
2 (k q 1).

npi ()
i=1

(7.2.7)

Il est important de noter que ce test est approximatif, car pour obtenir asymptotiquement
la distribution 2 , les paramtres doivent tre estims en minimisant la statistique Qkq1
(7.2.7), qui devient alors une fonction objectif.
On rejette lhypothse compose H0 lorsque la condition Qkq1 > 21 (k q 1) est
respecte. On effectue le mme test pour lhypothse simple, en posant q = 0. Le point critique
de la distribution 2 (k q 1) est slectionn selon le critre

Pr Qkq1 21 (k q 1) = 1 .

7.2.2

(7.2.8)

Test de Kolmogorov-Smirnov

Le test de Kolmogorov-Smirnov vrifie lhypothse simple (7.2.2). On dfinit la statistique Dn


comme tant la valeur maximale de la distance entre les fonctions de rpartition empiriques
Fn (x) et celle FX (x) de la distribution exacte spcifie par lhypothse nulle H0 :
Dn = sup |Fn (x) FX (x)|

(7.2.9)

1X
IXi x .
n

Fn (x) =

(7.2.10)

i=1

La statistique

nDn suit asymptotiquement une distribution de Kolmogorov, selon Jingbo

Wang et Marsaglia (2003), dont la fonction de rpartition est dfinie comme suit :

2 2
Pr( nDn x) = 1 2
(1)k1 e2k x

84

2
x

k=1

X
k=1

2 2 /(8x2 )

e(2k1)

(7.2.11)
.

(7.2.12)

On rejette lhypothse nulle H0 lorsque la condition

nDn > K1 est respecte. On slec-

tionne le quantile de cette distribution selon le critre suivant :

Pr( nDn K1 ) = 1 .

7.2.3

(7.2.13)

Test de distance minimale bas sur la fonction gnratrice des


moments

Luong et Thompson (1987) dveloppent un ensemble de tests dajustement pour lhypothse


simple (7.2.2) base sur une transformation de la fonction de densit ou de rpartition. Parmi
cette classe de tests, on retrouve celui dEpps-Pulley, dvelopp pour vrifier lhypothse de
normalit des donnes, tel que prsent la section 7.1.2. On retrouve aussi le test K-L de
Feuerverger et McDunnough (1981) bas sur les parties relles et imaginaires de la fonction
caractristique. Cependant, pour la distribution de Laplace asymtrique gnralise, on ne
peut effectuer cette sparation. On prfrera donc utiliser la fonction gnratrice des moments
MY () afin de construire la statistique de test D(FT ; f0 ). Comme on a dj estim les paramtres, on veut donc vrifier une hypothse simple. On se rfre Koutrouvelis (1980), qui a
dvelopp le test K-L pour cette situation. Cependant, on remplacera la fonction caractristique par la fonction gnratrice des moments.
On considre un ensemble de fonctions hj (y), j = 1, . . . , K. La transforme de la fonction de
rpartition FY (y) est donne par le vecteur z(F ) = [z1 (F ), . . . , zK (F )] :
Z
zj (F ) =
hj (y)dFY (y)

= E[hj (y)]
= MY (tj ),

j = 1, . . . , K.

(7.2.14)

En posant hj (y) = etj y , on dfinit zj (F ) comme tant la fonction gnratrice des moments.
On dfinit aussi la transforme de la fonction de rpartition empirique FT (y) par le vecteur
z(FT ) = [z1 (FT ), . . . , zK (FT )], o
T
1 X tj yt
zj (FT ) =
e .
T

(7.2.15)

t=1

La statistique de distance quadratique prend alors la forme suivante :


T d(Fn , F ) = T {z(Fn ) z(F )}0 Q(F ) {z(Fn ) z(F )}
= vn0 Q(F )vn .

(7.2.16)

On doit maintenant slectionner une matrice Q(F ) de sorte que la distribution de la statistique

T d(Fn , F ) soit 2 . Comme vn = T {z(Fn ) z(F )} suit asymptotiquement une distribution

85

normale multivarie de moyenne 0 et de variance-covariance , on a, si la matrice est


inversible et que lon pose Q = 1 , que vn0 Q(F )vn suit une distribution 2 avec K degrs
de libert, dans le cadre dune hypothse simple. Afin dvaluer la variance-covariance , on
dfinit lesprance du produit des deux fonctions hj (y) et hk (y) :zj,k (F ) = E[hj (y)hk (y)].
On dcrit la matrice de variance-covariance

1,1
.
.
=
.
j,1

comme suit :

1,k
..
..
.
.

j,k

(7.2.17)

o
j,k = zj,k (F ) zj (F )zk (F )
= MY (tj + tk ) MY (tj )MY (tk ),

j, k = 1, . . . , K.

(7.2.18)

On peut maintenant valuer la statistique T d(Fn , F ) et effectuer le test. On rejette lhypothse


H0 lorsque la valeur de celle-ci est suprieure au quantile correspondant au seuil de la
distribution 2 avec K degrs de libert : T d(Fn , F ) > 21 (K).

86

Chapitre 8

valuation doptions
Un des principaux intrts de connatre la distribution des rendements dun actif est de pouvoir
valuer la valeur de diffrents produits drivs.

8.1

Dfinitions

En se rfrant Bingham et Kiesel (2004), on dfinit :


Un produit driv est un contrat financier dont la valeur la date dchance T est
dtermine par le prix de lactif sous-jacent au temps T ou par celles prises au cours de
lintervalle [0, T ].
Une option est un instrument financier qui donne le droit (et non lobligation) deffectuer
une transaction avant ou une date et pour un prix spcifis.
Une option dachat (de vente) europenne donne le droit dacheter (de vendre) un
actif au prix dexercice K au temps T .
Lorsque sa valeur actuelle est, par rapport au prix dexercice :
suprieure (S(t) > K), loption dachat est dite dans le cours ;
gale (S(t) = K), loption dachat est dite au cours ;
infrieure (S(t) < K), loption dachat est dite hors du cours.
Le prix lchance dune option dachat europenne C(t) est dfini comme suit :
(
S(T ) K , S(T ) > K
C(T ) =
0
S(T ) K.

(8.1.1)

La valeur du prix lchance est appele une crance ventuelle. Lvaluation dun produit
driv quivaut calculer la valeur espre actualise de la rclamation contingente dfinie par

87

le contrat. Pour loption dachat europenne, on obtient la formule suivante :


C(t) = B(t, T )E [C(T )]
Z
= B(t, T )
(S(T ) K)dFS(T ) .

(8.1.2)

B(t, T ) est la valeur au temps t dune obligation zro-coupon au taux sans risque r dchance
T . Ft (S(T )) est la fonction de rpartition de la distribution neutre au risque de S(T ).
Les dterminants de la valeur dune option sont :
le prix courant de lactif S(t)
le prix dexercice K
la volatilit de lactif
le temps dici lchance T t
le taux dintrt sans risque r.
On peut aussi rcrire (8.1.2) avec le logarithme du prix k = ln K. On utilise donc s(t) =
ln S(T ), dont la fonction de rpartition est dfinie par Fs(T ) (y) = P r [ln S(T ) < y] :
Z
C(t) = B(t, T )
(es(T ) ek )dFs(T ) .

(8.1.3)

Enfin, une relation fondamentale, appele parit vente-achat, permet, dans un scnario sans
arbitrage, de calculer le prix dune option de vente P (t) (dachat C(t)) en connaissant la
valeur :
de lautre lorsquelles sont de mmes chance et prix dexercice
de lobligation B(t, T )
initiale du titre sous-jacent S(t) commun aux deux options.

P (t) + S(t) = C(t) + B(t, T )K.

(8.1.4)

Cette relation permettra dvaluer les deux types doption laide dun seul calcul.

8.1.1

quation martingale

Lvaluation doptions se fait traditionnellement dans un univers ou un espace de probabilits


neutre au risque, not Q, cest--dire un point de vue selon lequel les investisseurs nexigent
pas une prime de risque. Cette approche a t introduite par Black et Scholes (1973). Dans
cette perspective, les rendements esprs futurs sont escompts au taux sans risque. La distribution des rendements cumuls (1.2.3) rpond la proprit martingale, selon laquelle la

88

valeur actuelle dun titre financier reflte lensemble de linformation connue sur ce dernier.
Cette proprit permet de fixer un seul prix pour les options. Lquation martingale tablit
lgalit entre la valeur espre du titre au temps t et celle dun investissement de mme valeur
dans un compte en banque crditant le taux sans risque :
E [exp(Lt )] = ert .

8.1.2

(8.1.5)

Paramtres neutres au risque

Afin de pouvoir utiliser les rsultats de lestimation paramtrique des chapitres prcdents
pour valuer le prix de produits drivs, on doit tout dabord identifier les paramtres neutres
au risque de la distribution de Laplace asymtrique gnralise associant le rendement cumul
Lt au taux dintrt sans risque r. Pour ce faire, on utilise lquation martingale (8.1.5) ainsi
que la fonction gnratrice des moments (2.2.10). On obtient alors une expression pour le
paramtre de drive neutre au risque RN :
ert = E [exp(Lt )] = E [exp(R1 + . . . + Rt )]
= MR1 +...+Rt (1) = (MR (1))t

t
eRN
=
(1 2 /2)


eRN
r = ln
(1 2 /2)
2
= RN ln(1 )
2
2
RN = r + ln(1 ).
2

(8.1.6)

On obtient ainsi le paramtre de correction de la drive partir de lquation martingale


(8.1.6) :
= ln(1

2
).
2

(8.1.7)

Cette galit impose une contrainte aux paramtres et qui doit respecter la condition
+

2
< 1.
2

(8.1.8)

On obtient ensuite la fonction caractristique de la mesure neutre au risque Q pour LT en


remplaant par RN :
(, LT ) =

exp (i (ln (St ) + (T t) (r + )))


(1 i + ( 2 2 ) /2) (T t)

(8.1.9)

La distribution neutre au risque des rendements est donc Rt GAL(r+ ln(1 2 /2), , , ).

89

8.2

Aperu du modle de Black-Scholes

tant donn limportance du modle de Black-Scholes en finance, on se doit de le prsenter


comme outil de rfrence lorsque lon veut le remplacer. Ce modle est bas sur les quatre
hypothses suivantes :
1. Les rendements ont une distribution normale de moyenne et variance 2 , ou, de manire
quivalente, le processus de prix {S(t)} est un mouvement brownien gomtrique de
drive et de volatilit .
2. Une obligation zro-coupon au taux dintrt sans risque r existe sur le march.
3. Le march est complet et sans friction. Une position prise sur ce march peut tre
couverte de manire continue.
4. La vente dcouvert est autorise, de plus tous les actifs sont infiniment divisibles.
En utilisant lquation martingale (8.1.5), on obtient la distribution neutre au risque des
rendements, qui est normale avec une moyenne r

2
2

et une variance 2 .

partir de cette information, on peut driver la formule de Black-Scholes pour le prix dune
option dachat ou de vente (8.1.4) europenne :
C(S(t), K, T ) = (1 ) S(t) (2 ) KB(t, T )

 

2
ln S(t)
+
r
+
(T t)
K
2

1 =
T t

2 = 1 T t

(8.2.1)

P (S(t), K, T ) = (2 )KB(t, T ) (1 )S(t).

(8.2.2)

Lavantage de ce modle est que toutes les donnes requises pour valuer le prix doptions sur
des actifs cots sur les marchs boursiers, lexception de la volatilit, sont accessibles auprs
de fournisseurs dinformations financires. Comme les options sont ngocies sur les marchs
financiers, on a aussi accs leur prix, ce qui permet dextrapoler la valeur de la volatilit
implicite. Cest pour cette raison que le modle, bien quil soit bas sur des hypothses trs
restrictives, est toujours utilis comme point de rfrence.

8.3

Mthodes dvaluation pour options europennes

Le modle de Black-Scholes est un des seuls qui prsentent une forme analytique simple pour
le prix des options. Bien quon puisse en driver une pour plusieurs modles en utilisant les
quations diffrentielles stochastiques et le calcul dto, les rsultats sont souvent difficiles
utiliser. On prfrera alors utiliser des mthodes numriques pour calculer le prix des options.

90

8.3.1

Mthode de Heston

Lapproche utilise par Heston (1993) est de calculer directement lesprance de la crance
ventuelle associe loption de vente europenne P (S(t), K, T t) sous la mesure neutre au
risque Q :
Z

max (K S(T ), 0) dFS(T )


Z K
Z K
= B(t, T )K
dFS(T ) B(t, T )
S(T ) dFS(T )

P (S(t), K, T ) = B(t, T )

(8.3.1)

= B(t, T )KFS(t) (K) S(t)GS(t) (K).

(8.3.2)

On dfinit la fonction de rpartition FS(t) (K) de la variable alatoire S(t) K sous la mesure
Q. On dfinit aussi la fonction de rpartition GS(t) (K) sous une autre mesure quivalant Q.
Soit F () la fonction caractristique de S(T ) sous Q, celle de cette mesure est alors dfinie
comme suit :
G () =

F ( i)
.
F (i)

(8.3.3)

Cest une transforme dEsscher de paramtre h = 1 de la mesure Q. On remarquera la


forme de (8.3.2) qui est trs similaire la formule du prix de loption de vente du modle de
Black-Scholes (8.2.2).
Les fonctions de rpartition FS(t) (K) et GS(t) (K) peuvent tre values partir de (A.2.11)
ou de la mthode du point de selle.
Carr et Madan (1999) notent quon ne peut pas inverser lapproximation (A.2.11) en utilisant
la mthode de la transforme de Fourier rapide. Cependant, lapproche de la mthode du point
de selle na pas t considre, bien quelle puisse fournir une solution analytique dans plusieurs
situations, en particulier pour la distribution de Laplace asymtrique gnralise (3.4.3).

8.3.2

Mthode de Carr et Madan

La mthode de Heston ncessite lvaluation de deux probabilits, donc deux inversions de


fonctions caractristiques. Carr et al. (1998) ont dvelopp une mthode qui ne ncessite
quune seule inversion, dcrite par Epps (2007). Cette mthode ncessite cependant la slection
dun paramtre damortissement D par ttonnement afin dobtenir de bons rsultats. Elle
utilise lexpression de la crance ventuelle amortie 1 de loption dachat, construite partir
de lexpression (8.1.3) :
CD (S(t), k, T ) = eD k C(S(t), k, T )
Z
D k
= e B(t, T )
(es(T ) ek )dFs(T ) .

(8.3.4)
(8.3.5)

1. traduction de langlais damped

91

On applique la transforme de Fourier :


FCD () = B(t, T )

( i(1 + D ) )
.
(D + i)(1 + D + i)

(8.3.6)

Ce rsultat est invers et amplifi 2 pour retrouver le prix de loption :


C(S(t), k, T ) = eD k F 1 (FCD ())
Z
eD k ik
=
e
(FCD )() d
2

Z
eD k ik
e
(FCD )() d
=

(par symtrie).

(8.3.7)

On peut utiliser la mthode de la transforme de Fourier rapide (section A.3) pour retrouver
les prix doptions en se rfrant Carr et Madan (1999).
On doit donc discrtiser (8.3.7) et effectuer des changements de variables pour obtenir la
forme (A.3.1). On fixe le nombre de points N (idalement une puissance de deux) et le pas
de discrtisation. On dfinit lincrment pour le vecteur ku , u = 1, . . . , N des logarithmes
des prix dexercice :
=

2
.
N

(8.3.8)

La valeur maximale b de ce prix dexercice sera :


b=

N
.
2

(8.3.9)

Enfin, on obtient la suite des points dvaluation de la fonction caractristique j = (j 1).


Lensemble de ces substitutions permet dobtenir une expression qui est de la forme requise
pour appliquer la mthode de la transforme de Fourier rapide.
N
eD k X ij k
C(S(t), ku , T )
e
(FCD )(j )

j=1

N
eD k X i(j1)(u1) ibj

e
e (FCD )(j ).

(8.3.10)

j=1

Cest essentiellement une intgration par la mthode du trapze. On suggre dimplmenter


la correction de Simpson, qui permet une intgration plus prcise tout en conservant le mme
nombre de points de discrtisation. On obtiendra alors la formule suivante :
N

eD k X i(j1)(u1) ibj

C(S(t), ku , T )
e
e (FCD )(j ) 3 + (1)j + j1 .

3
j=1

2. traduction de langlais amplified

92

(8.3.11)

On peut par la suite calculer un prix doption pour chaque prix dexercice en utilisant une
mthode dinterpolation (splines cubiques par exemple).

8.3.3

Prix dexercice hors du cours

Lintgration numrique de (8.3.7) pose problme quand lchance T t est petite, ou encore
le prix dexercice K est hors du cours (k > ln(S(t))). Dans ce contexte particulier, Carr et
Madan (1999) dveloppent une formule alternative lquation (8.3.7) pour valuer le prix de
loption dachat :
C(S(t), k, T ) =

1
k)
sinh(D

eik (FC )() d.

(8.3.12)

La transforme de Fourier de lexpression du prix de loption dachat europenne est exprime


sous la forme
) ( + i )
T ( iD
T
D
D
2


er(T t) ( i)
1

.
T () = er(T t)
1 + i
iv
( i)

FC =

(8.3.13)

peut tre diffrent du paramtre qui a t


On note que ce paramtre damortissement D
D

utilis prcdemment.
Lexpression utiliser pour la mthode de la transforme de Fourier rapide devient
N

C (S(t), ku , T )

X


1
ei(j1)(u1) eibj (FC )(j ) 3 + (1)j + j1 .

D
sinh(D k)
3
j=1

(8.3.14)
Les paramtres N, , et j prennent les valeurs utilises pour valuer le prix dans la situation
o le titre est dans le cours (8.3.11).

8.3.4

Critique de la mthode de Carr-Madan

Un paramtre damortissement D infrieur la valeur optimale (lorsque compar avec la


mthode de Heston ou dEpps) aura tendance surestimer le prix des options dachat europennes. Itkin (2005) dmontre que pour certaines rgions de lespace des paramtres, lintgrale (8.3.7) a un comportement trs irrgulier. De plus, il dcrit plusieurs restrictions pour
D qui, dans plusieurs cas, ne permettent pas destimation convergente.

8.3.5

Mthode dEpps

Epps (2007) propose une mthode qui, contrairement celle de Carr et Madan, ne ncessite pas
de paramtre damortissement et qui ne requiert aussi quune seule inversion de la fonction

93

caractristique. Pour ce faire, on se base sur lexpression de loption de vente dveloppe


prcdemment (8.3.1), qui est ensuite exprime sous la forme du logarithme, la manire de
(8.1.3). Aprs lutilisation de la formule dinversion (A.2.8), on obtient le rsultat suivant :
Z

FS(T ) (s)es ds

E [max(K ST ; 0)] =

K
1
=

2
2

lim

c c

eis
()d es ds.
i
{z
}

(8.3.15)

a(c,s)

La formule dinversion implique que lorsque | limc a(c, s)| = |1 2FS(t) (s)| 1, pour toute
valeur  > 0, c existe telle que lon a le rsultat suivant :


|sups 1 2FS(t) (s) a(c , s) | < .

(8.3.16)

Dans cette situation, |a(c, s)es | es (1 + ) lorsque la constante c est suffisamment grande.
Comme la fonction es est intgrable sur le support (, k), le thorme de convergence
domine de Lebesgue (section A.5.1) implique que lon peut poser lgalit suivante :
Z

a(c, s)es ds

lim a(c, s)e ds = lim

c
Z k Z c

e(1i)s
()dds.
i

= lim

De plus, comme la limite de la double intgrale prcdente est gale K 2E [max(K ST ; 0)]
qui appartient lintervalle [K, K], le thorme de Fubini (section A.5.2) permet dinverser
lordre dintgration :
Z

lim

eis
()dds = lim
c
i

K
=
lim
c

e(1i)s ds

()
d
i

K i
()d.
i + 2

(8.3.17)

En remplaant le rsultat (8.3.17) dans lquation de dpart (8.3.15), on obtient ainsi une
expression particulirement simple pour le prix de loption de vente :


Z c
1
1
i ()
P (S(t), K, T ) = B(t, T )K

d .
K
2 2 c
(i + )

(8.3.18)

Cependant, puisque la forme ne se prte pas lutilisation de lalgorithme de la transforme


de Fourier rapide, on a recours une procdure dintgration numrique.

94

8.4
8.4.1

Particularits
Option sur actions avec dividendes

Lorsquune option a, pour titre sous-jacent, une action qui verse des dividendes, on doit en
tenir compte dans lvaluation de son prix. Si lon considre que la valeur au march de laction
S (t) a t value avec la mthode de lactualisation des flux financiers futurs, on doit tenir
compte de la valeur actualise des dividendes qui seront verss avant lchance de loption et
la soustraire de ce prix.
Parfois, les dividendes ne sont pas fixes, mais proportionnels la valeur de laction la date
ex-dividende avec un taux . Soit n(T ) le nombre de dates ex-dividende dans lintervalle ]t, T ],
le prix initial S(t) considr pour le calcul de la valeur de loption est alors dfini comme suit :
S(t) = S (t)(1 )n(T ) .

(8.4.1)

Lorsque lon considre un indice compos de plusieurs titres, on peut prendre un dividende
vers de manire continue un taux q. Dans ce cas, le prix initial S(t) sera
S(t) = S (t)eq(T t) .

8.4.2

(8.4.2)

Options sur contrats terme et taux de change

Black (1976) (p.177) dmontre que le prix dune option sur un contrat terme a le mme
prix que sur une action dont le taux de dividende quivaut au taux sans risque. On peut donc
utiliser les rsultats (8.4.1) et (8.4.2) en posant q = r.
De mme, on peut valuer le prix dune option sur une monnaie trangre en considrant le taux
sans risque tranger rf comme un taux de dividende q = rf . Selon la Banque des Rglements
Internationaux, cest le type doptions le plus transig sur les marchs non rglements en date
de 2005, mme sil est moins tudi que les autres.

95

Chapitre 9

Exemple dapplication
On considre un chantillon S1 form de lensemble des prix S1 (t) la fermeture du titre
Abbey National entre le 31 juillet et le 8 octobre 1991. La table C.1 prsente lensemble des
50 observations. Cet chantillon a notamment t tudi prcdemment par Buckle (1995).

9.1

Description des donnes

On value tout dabord les rendements quotidiens R1 laide de lquation (1.2.2). On obtient
alors 49 observations du processus des rendements R(t), que lon prsente la figure 9.1 sous
forme de srie chronologique.
On numre dabord quelques proprits de cet chantillon qui pourront complter lanalyse.
la table 9.1, on prsente quelques statistiques dordre. De plus, la table 9.2, on retrouve
quelques valeurs relatives aux premiers moments.
Statistique dordre
Minimum
1er quartile
Mdiane
3e quartile
Maximum

Valeur
-0.027500
-0.009790
-0.003260
0.006620
0.043400

Table 9.1: Statistiques dordre de lchantillon R1

On prsente maintenant la distribution des rendements sous la forme dune courbe de densit
la figure 9.2.
laide du test de normalit dEpps-Pulley (Section 7.1.2), on vrifie si la distribution des
rendements R1 est significativement diffrente de la normale. On fixe le seuil de tolrance
= 5%.

97

0.01
0.03

0.01

0.00

R(t)

0.02

0.03

0.04

Rendements

10

20

30

40

50

Figure 9.1: Reprsentation en srie chronologique de lchantillon R1


Statistique
Moyenne
Variance
Coefficient dasymtrie
Coefficient daplatissement

Valeur
0.000206
0.000169
0.977563
4.597114

Table 9.2: Valeurs relatives aux premiers moments de lchantillon R1

On value dabord la statistique EPT (7.1.3), puis la statistique modifie EPT (7.1.5) tant
donn que T > 10. La table 9.3 prsente les rsultats.
Statistique
EPT
EPT
ZT
p

Valeur
0.626033
0.635568
2.44824
0.007178

Table 9.3: Test de normalit dEpps-Pulley pour R1

tant donn que la valeur p est infrieure au seuil , on rejette lhypothse de normalit de
lchantillon R1 . On peut vrifier cette affirmation laide du graphique de comparaison des

98

0.20
0.00

0.05

0.10

0.15

f(R)

0.25

0.30

0.35

Distribution des rendements quotidiens

Figure 9.2: Distribution de la variable alatoire R1

quantiles empiriques avec ceux de la loi normale prsent la figure 9.3.

9.2

Estimation

Dans cette section, on estime les paramtres de la distribution de Laplace asymtrique gnralise pour lchantillon de donnes centres et rduites R1 , laide des mthodes :
des moments gnralise itrative (Section 4.2.4)
destimation gaussienne de Whittle (table 5.1)
de lquation destimation optimale de Crowder (Section 5.1) et
de lquation destimation optimale modifie (Section 5.2).
On value dabord le vecteur de paramtres initiaux 0 laide des quations (6.1.2). On
effectue ensuite une premire optimisation laide de chacune des trois mthodes afin de
pouvoir valuer la matrice de pondration qui servira la seconde. La table 9.4 prsente les
paramtres obtenus 1 .
On obtient la matrice de variance-covariance des paramtres pour les mthodes bases sur
une quation destimation (5.1.4) en valuant linverse de la variance-covariance des lments
composant celle-ci (5.1.3b) et le gradient (5.1.3a) :

99

Normal QQ Plot

Sample Quantiles

Theoretical Quantiles

Figure 9.3: Graphique Quantile-Quantile


Mthode
Paramtres initiaux
Moments gnralise
Estimation gaussienne
quation destimation optimale
quation destimation optimale modifie

-0.612081
-0.641646
-0.776204
-0.660300
-0.711439

0.515932
0.625908
0.581154
0.645678
0.606642

0.325854
0.326366
0.385120
0.376654
0.362932

1.878388
1.965995
2.015437
1.753069
1.960299

Table 9.4: Paramtres 1 de la premire optimisation

Pour la mthode destimation gaussienne :

1.13756e 03 0.00207546

2.07546e 03 0.00984423
ST (1 ; R1 ) =
9.17316e 04
0.00234062

7.46064e 06
0.00124328

0.000917316 7.46064e 06

0.002340623 1.24328e 03
(9.2.1)
0.003399880 8.38932e 04

0.000838932 2.60840e 04

Pour la mthode de lquation destimation optimale :

1.47029e 03 0.00212833 0.00133597

2.12833e 03 0.01115599 0.00277669


ST (1 ; R1 ) =
1.33597e 03
0.00277669 0.00396182

2.84688e 05
0.00195192 0.00118855

100

2.84688e 05

1.95192e 03

1.18855e 03

4.92502e 04

(9.2.2)

Pour la mthode de lquation destimation optimale modifie

1.03165e 03 0.00146603 0.001145269

1.46603e 03 0.00812868 0.001989247


ST (1 ; R1 ) =
1.14527e 03
0.00198925 0.003435163

6.63861e 05
0.00117588 0.000833622

6.63861e 05

1.17588e 03
(9.2.3)
8.33622e 04

2.71162e 04

On peut ainsi construire des intervalles de confiance pour les paramtres estims. On utilise
un seuil de tolrance de = 5% :
Pour la mthode destimation gaussienne :
Borne infrieure

Valeur estime

Borne suprieure

-0.8328

-0.7762

-0.7197

0.4148

0.5812

0.7475

0.2874

0.3851

0.4829

1.9884

2.0154

2.0425

Pour la mthode de lquation destimation optimale :


Borne infrieure

Valeur estime

Borne suprieure

-0.7246

-0.6603

-0.5960

0.4686

0.6457

0.8228

0.2711

0.3767

0.4822

1.7159

1.7531

1.7903

Pour la mthode de lquation destimation optimale modifie :


Borne infrieure

Valeur estime

Borne suprieure

-0.7653

-0.7114

-0.6576

0.4555

0.6066

0.7578

0.2647

0.3629

0.4612

1.9327

1.9603

1.9879

laide de linverse de la variance-covariance des conditions de moments et des quations


destimation, on peut effectuer une seconde optimisation afin dobtenir des estimateurs convergents. Pour la mthode des moments gnralise, on utilisera plutt une procdure itrative.
Les paramtres prsents la table 9.5 sont donc ceux obtenus avec la convergence de lalgorithme itratif de la section 4.2.4 avec un critre darrt  = 107 (4.2.23).
Pour la mthode des moments gnralise, puisque lon utilise une procdure itrative, prsenter la premire matrice de variance-covariance des paramtres nest pas pertinent. On obtient
celle la convergence de lalgorithme (4.2.35) en valuant linverse de la variance-covariance

101

Mthode
Moments gnralise
Estimation gaussienne
quation destimation optimale
quation destimation optimale modifie

-0.640067
-0.775071
-0.658697
-0.712450

0.625431
0.581413
0.646516
0.606193

0.324311
0.384342
0.376251
0.363196

1.973623
2.016619
1.750685
1.961614

Table 9.5: Paramtres 1 de la premire optimisation

des conditions de moments (4.2.19) et le gradient (4.2.25). On obtient donc :

0.00203708

0.00438553
ST (OP T ; R1 ) =
0.00174636

0.00154237

0.00438553 0.00174636 0.00154237

0.01207044 0.00239640 0.00384905


.
0.00239640 0.00220402 0.00104816

0.00384905 0.00104816 0.00127406

(9.2.4)

Pour les mthodes bases sur une quation destimation, on obtient, pour la seconde optimisation, les variances-covariances suivantes :
Pour la mthode destimation gaussienne :

0.00206602 0.000919367 7.53773e 06

2.06602e 03 0.00983078 0.002332240 1.24238e 03


(9.2.5)
ST (2 ; R1 ) =

9.19367e

04
0.00233224
0.003395736
8.36472e

04

7.53773e 06
0.00124238 0.000836472 2.60254e 04
1.13314e 03

Pour la mthode de lquation destimation optimale :

0.00212557 0.00134221 2.89119e 05

2.12557e 03 0.01116770 0.00277803 1.96072e 03


ST (2 ; R1 ) =
0.00277803 0.00396652 1.19169e 03
1.34221e 03

2.89119e 05
0.00196072 0.00119169 4.95537e 04

1.47327e 03

(9.2.6)

Pour la mthode de lquation destimation optimale modifie :

0.00146899 0.001142696 6.60715e 05

1.46899e 03 0.00812703 0.001987649 1.17298e 03


(9.2.7)
ST (2 ; R1 ) =
1.14270e 03
0.00198765 0.003432414 8.32388e 04

6.60715e 05
0.00117298 0.000832388 2.70299e 04
1.03121e 03

On peut donc construire des intervalles de confiance :


Pour la mthode des moments gnralise :

102

Borne infrieure

Valeur estime

Borne suprieure

-0.715736

-0.640067

-0.564397

0.441236

0.625431

0.809627

0.245602

0.324311

0.403020

1.913780

1.973623

2.033466

Pour la mthode destimation gaussienne :


Borne infrieure

Valeur estime

Borne suprieure

-0.8315

-0.7751

-0.7186

0.4152

0.5814

0.7476

0.2866

0.3843

0.4820

1.9896

2.0166

2.0437

Pour la mthode de lquation destimation optimale :


Borne infrieure

Valeur estime

Borne suprieure

-0.7230

-0.6587

-0.5943

0.4693

0.6465

0.8237

0.2707

0.3763

0.4818

1.7134

1.7507

1.7880

Pour la mthode de lquation destimation optimale modifie :


Borne infrieure

Valeur estime

Borne suprieure

-0.7663

-0.7124

-0.6586

0.4551

0.6062

0.7573

0.2650

0.3632

0.4614

1.9341

1.9616

1.9892

En utilisant la proprit (2.2.18), on retrouve les paramtres, correspondants aux donnes


p
R(t) = V ar[R1 ]R (t) + E[R1 ], t = 1, . . . , 50, prsents la table 9.6.
Mthode
Moments gnralise
Estimation gaussienne
quation destimation optimale
quation destimation optimale modifie

-0.008119
-0.009875
-0.008361
-0.009060

0.008134
0.007562
0.008409
0.007884

0.002983
0.003535
0.003460
0.003340

1.973623
2.016619
1.750685
1.961614

Table 9.6: Paramtres des donnes R1

103

9.3

Approximation

On effectue lapproximation des fonctions de densit et de rpartition pour un ensemble de


points r {0.03, 0.02, 0.01, 0, 0.01, 0.02, 0.03} laide de la mthode du point de selle.
On utilise les paramtres obtenus par la mthode des moments gnralise.
On rsout dabord lquation du point de selle (3.3.10). On illustre graphiquement cette quation pour r = 0.01 la figure 9.4 :

Figure 9.4: quation du point de selle pour r = 0.01

Le point de selle prend alors une valeur de s = 56.050951 dans cette situation. En utilisant
lapproximation de premier ordre fR,1 (r) (3.3.12) de la fonction de densit, et en comparant le
rsutat avec la fonction de densit fR (r) (2.2.26), on obtient les rsultats prsents la table
9.7. Dans les deux cas, la fonction de densit a t normalise laide de lintgrale (3.3.13a).

r
-0.03
-0.02
-0.01
0.00
0.01
0.02
0.03

Densit

fR,1 (r)
fR (r)
1.561365
2.065547
9.038616 10.702896
31.216317 37.581108
33.015869 31.073988
15.941633 12.450742
5.988373
4.120017
2.026838
1.246205

Erreur relative

(fR,1 (r) fR (r))/fR (r)


-0.244091
-0.155498
-0.169361
0.062492
0.280376
0.453483
0.626409

Table 9.7: Approximation de la densit de R1

On value ensuite la valeur de la fonction de rpartition laide de lapproximation de premier


ordre FR,1 (r) (3.3.20) . On compare celle-ci la valeur de la fonction de rpartition obtenue
en intgrant numriquement la fonction de densit. Les rsultats sont prsents la table 9.8.

104

r
-0.03
-0.02
-0.01
0.00
0.01
0.02
0.03

Fonction de rpartition
FR,1 (r)
FR (r)
0.007402
0.011577
0.048942
0.064944
0.249911
0.292034
0.625225
0.681167
0.857830
0.889832
0.951508
0.965916
0.984393
0.990080

Erreur relative
(FR,1 (r) FR (r))/FR (r)
-0.360606
-0.246402
-0.144241
-0.082126
-0.035965
-0.014916
-0.005744

Table 9.8: Approximation de la fonction de rpartition de R1

9.4

Graphiques

On illustre graphiquement, aux figures 9.5 et 9.6, la fonction de densit de la distribution


de Laplace asymtrique gnralise avec les paramtres estims par la mthode des moments
gnralise et la mthode de lquation destimation optimale. La table 9.9 dcrit chacune des
courbes.
Abbrviation
Emp.
Norm.
Estim.
Pt selle o.1
FFT

Description
Donnes empiriques.
Densit de la distribution normale ayant les mmes moyenne et variance
que la variable alatoire R.
Densit de la distribution de Laplace asymtrique gnralise avec les
paramtres estims.
Approximation de premier ordre avec la mthode du point de selle.
Transforme de Fourier rapide.
Table 9.9: Courbes de densit

On remarquera au passage que la mthode du point de selle ncessite une normalisation. La


valeur de lintgrale c (3.3.13a) pour les quatre mthodes se trouve la table 9.10.
Mthode
Moments gnralise
Estimation gaussienne
quation destimation optimale
quation destimation optimale modifie

Valeur de lintgrale c
0.920148
0.932246
0.917326
0.925781

Table 9.10: Valeur de lintgrale de lapproximation de la densit par la mthode du point


de selle

105

0.7

Densit de R*

0.6

Courbes
Emp.
Estim.
Pt selle o.1
Norm.
FFT

0.5

f(r)

0.4

0.3

0.2

0.1

0.0

r
Figure 9.5: Densit de R1 selon la mthode des moments gnralise

106

0.7

Densit de R*

0.6

Courbes

0.5

0.4

f(r)

0.3

0.2

0.0

0.1

Emp.
Estim.
Pt selle o.1
Norm.
FFT

r
Figure 9.6: Densit de R1 selon la mthode de lquation destimation optimale

107

9.5

Tests statistiques

On effectue le test du 2 en utilisant sept classes optimales dtermines par lalgorithme du


logiciel GNU R. On obtient la fonction de rpartition partir de la fonction caractristique en
utilisant la formule dinversion (A.2.11). On se rappelle que cet algorithme produit surtout des
erreurs aux extrmits de la distribution. Par contre, ce test donne davantage dimportance aux
classes ayant un plus grand nombre de donnes par construction. On utilisera donc linversion
plutt que la mthode du point de selle. On obtient la statistique Q6 prsente la table 9.11
partir de la dfinition (7.2.4). On utilise un seuil de tolrance = 5%.
Mthode
Moments gnralise
Estimation gaussienne
quation destimation optimale
quation destimation optimale modifie

Valeur de la statistique Q6
0.484919
0.473527
0.531888
0.494769

Table 9.11: Test du 2

Ce test ne permet pas de rejeter lhypothse de la distribution de Laplace asymtrique gnralise avec les paramtres obtenus pour aucune des mthodes destimation.
On effectue maintenant le test de Kolmogorov-Smirnov. Comme celui-ci est bas sur la fonction
de rpartition, on utilisera la mme mthode que prcdemment, impliquant linversion de la
fonction caractristique. On value la fonction de rpartition en chaque point de lchantillon
R1 et lon obtient la statistique D49 prsente la table 9.12 laide de la dfinition (7.2.9).
En utilisant un seuil de tolrance de = 5%, on obtient une valeur critique de 0.194286.
Mthode
Moments gnralise
Estimation gaussienne
quation destimation optimale
quation destimation optimale modifie

Valeur de la statistique D49


0.0684329
0.0784436
0.0758317
0.074668

Table 9.12: Test de Kolmogorov-Smirnov


Encore une fois, on ne peut pas rejeter lhypothse de la distribution de Laplace asymtrique
gnralise avec les paramtres estims pour chacune des mthodes.
Ces deux tests sont approximatifs, puisque les paramtres nont pas t estims en minimisant
la statistique utilise. Cependant, on obtient un test asymptotiquement exact en utilisant
une statistique de distance minimale base sur la fonction gnratrice des moments, tel que
dvelopp la section 7.2.3. Avec un seuil de tolrance de = 5%, on obtient une valeur
critique de 67.5048. Les statistiques obtenues sont prsentes la table 9.13.

108

Mthode
Moments gnralise
Estimation gaussienne
quation destimation optimale
quation destimation optimale modifie

Valeur de la statistique T d(F49 , F )


0.226891
0.110573
0.074020
0.108625

Table 9.13: Test de distance minimale bas sur la fonction gnratrice des moments

On ne peut pas rejeter lhypothse de la distribution de Laplace asymtrique gnralise avec


les paramtres estims pour chacune des mthodes avec ce test.

9.6

valuation doptions

titre dexemple, on valuera une option europenne dont les diffrentes caractristiques
figurent la table 9.14.
Caractristique
Type
chance (T )
Valeur actuelle du titre (S(0))
Prix dexercice (K)
Taux sans risque annuel (rf )

Valeur
Option de vente
30 jours
299
entre 95% et 105% de la valeur actuelle
5%

Table 9.14: Caractristiques de loption

partir des paramtres de la table 9.6, en utilisant lquation martingale applique la


distribution de Laplace asymtrique gnralise (8.1.6), on obtient lensemble correspondant
pour la mesure neutre au risque. On rappelle que celle-ci nest pas unique tant donn que le
processus de Laplace est un processus de sauts. La table 9.15 prsente ces paramtres.

Moments gnralise
Estimation gaussienne
quation destimation optimale
quation destimation optimale modifie

-0.005824
-0.007062
-0.005993
-0.006487

0.008134
0.007562
0.008409
0.007884

0.002983
0.003535
0.003460
0.003340

1.973623
2.016619
1.750685
1.961614

Table 9.15: Paramtres neutres au risque

On prsente les graphiques de la valeur du prix de loption de vente pour les mthodes des
moments gnralise et de lquation destimation optimale aux figures 9.7 et 9.8. On peut
facilement remarquer le manque de prcision de lapproche de Carr-Madan, qui sapproche
de la courbe de Black-Scholes lorsque le titre est dans le cours et qui se met osciller ds

109

que le titre est hors le cours. Les mthodes de Epps et de Heston donnent des rsultats trs
similaires, et lapproximation du point de selle dordre 1 est trs prcise dans ce contexte.

12

11

Prix de l'option

10

Courbes

Epps
CarrMadan FFT
Heston normale
Heston pt. selle
BlackScholes

294

296

298

300

302

304

Prix d'exercice
Figure 9.7: Prix de loption selon les paramtres estims avec la mthode des moments
gnralise

110

12

11

Prix de l'option

10

Courbes

Epps
CarrMadan FFT
Heston normale
Heston pt. selle
BlackScholes

294

296

298

300

302

304

Prix d'exercice
Figure 9.8: Prix de loption selon les paramtres estims avec la mthode de lquation
destimation optimale

111

Conclusion
En guise de conclusion, jaimerais tout dabord effectuer un retour sur les diffrents lments
introduits au dbut du premier chapitre, concernant le risque de modlisation. Le modle
prsent nen est pas exempt, bien au contraire. Cependant, il ncessite moins dhypothses
restrictives que les autres modles prsents pour tre valide, bien quil exige toujours lindpendance des observations. Il tient compte de la possibilit de sauts tout en conservant une
composante de mouvement alatoire, ce qui dcrit adquatement les observations empiriques
ce jour. Comme tout modle paramtrique, il reste dpendant du nombre et de la qualit des
donnes disponibles. tant donn que lutilisation dalgorithmes doptimisation numrique est
invitable, il subsiste un risque important autour de lestimation des paramtres et de lapproximation de la distribution. De plus, tant donn quil nexiste pas de mesure neutre au
risque unique, larbitrage de modle reste possible et doit tre considr. Lutilisation dun
chantillon de donnes instables travers le temps peut produire des rsultats inattendus,
surtout au niveau de la distribution de la volatilit historique, un aspect qui pourra tre approfondi ultrieurement. Enfin, subsiste toujours le risque derreurs de nature informatique
qui pourraient produire de faux rsultats.
Ce retour permet de constater quil y a toujours place lamlioration des outils dvelopps.
Entre autres, il pourrait tre pertinent dtudier les diffrences entre le comportement court
et long terme du modle. En se basant sur la thorie de lutilit, on pourrait dvelopper
une meilleure approche pour dterminer les paramtres de la distribution neutre au risque.
Il pourrait aussi tre intressant de dvelopper des mesures de risque cohrentes pour les
processus de Lvy, notamment avec les avances de celles bases sur lentropie. Lextension
multivarie de ce modle na toujours pas t dveloppe dans la littrature, alors il pourrait
tre pertinent de sy attarder, entre autres pour tudier les titres indiciels et optimiser la
composition de portefeuilles. Enfin, il pourrait tre intressant daborder le problme inverse
de lestimation des paramtres partir des prix des produits drivs observs sur les marchs
financiers.

113

Annexe A

lments de thorie des probabilits


A.1

Dfinitions de base

Une variable alatoire est une variable dont la valeur est dtermine par une exprience alatoire. On associe une probabilit chacune des valeurs possibles. On appelle vnement tout
ensemble de ralisations possible de lexprience alatoire. Lentiret de tous les vnements
se nomme lensemble fondamental et est note .
Une probabilit associe un vnement A doit satisfaire un ensemble de trois axiomes
(Dodge, 2004).
1. Une probabilit est une valeur comprise entre 0 et 1 :
0 P (A) 1.

(A.1.1)

2. La probabilit de lvnement correspondant lensemble fondamental est 1 :


P () = 1.

(A.1.2)

3. Pour chaque squence dvnements mutuellement exclusifs A1 , A2 , . . . :


" #

[
X
P
Ai =
P (Ai ).
i=1

(A.1.3)

i=1

Le respect de ces conditions devra notamment tre vrifi lors de lutilisation de mthodes
numriques.
Toujours selon Dodge (2004), on dfinit :
1. La densit, note fX (x), permet de dterminer la probabilit quune variable alatoire X
prenne une valeur dans un intervalle fix [a, b]. En intgrant cette fonction sur lintervalle
[a, b], on obtient cette probabilit :
Z
P (a X b) =

fX (x)dx.

(A.1.4)

115

2. La fonction de rpartition, note FX (x), dune variable alatoire est dfinie comme la
probabilit que celle-ci prenne une valeur infrieure ou gale un certain nombre b R :
Z

FX (b) = P (X b) =

fX (x)dx.

(A.1.5)

A.2

Transformes dune variable alatoire

Les transformes dune variable alatoire rsultent de lapplication dun oprateur intgral, ou
noyau, sur la fonction de densit.
Certaines dentre elles permettent de dterminer entirement leur distribution. Parmi cellesci, on retrouve la fonction caractristique et les fonctions gnratrices des moments et des
cumulants, qui sont les plus couramment utilises.
Certaines transformes permettent de modifier la distribution dune variable alatoire. Parmi
celles-ci, la transforme dEsscher, qui est employe en actuariat et en finance, est aussi troitement lie au concept dutilit en sciences conomiques.

A.2.1

La fonction caractristique

Transforme de Fourier
La transforme de Fourier est une opration qui transforme une fonction g() en une autre
f (x) par lintgration, sur son domaine, du produit eix g() :
Z
F(g) : x 7 f (x) =
eix g() d.

(A.2.1)

On dfinit aussi la transforme de Fourier inverse , qui permet de retrouver la fonction initiale
g() partir de la transforme f (x) :
g() = F

1
(f (x)) =
2

eix f (x) dx.

(A.2.2)

Dfinition
La fonction caractristique est dfinie comme tant la transforme de Fourier inverse de la
densit , dans le cas continu, ou de masse de probabilit , dans le cas discret. Cest donc une
application directe de (A.2.2) qui sexprime par lintgrale de Riemann-Stieltjes :
Z
X (s) =
eisx dFX (x).

Cette intgrale est toujours convergente, comme le dmontre Stuart et Ord (1987).

116

(A.2.3)

Les moments
On dfinit le moment dordre r dune distribution de probabilits comme tant la quantit
reprsente par lesprance de la puissance r dune variable alatoire :
Z
r
E[X ] =
xr dFX (x).

(A.2.4)

La fonction caractristique, lorsquelle est diffrenciable, permettra de gnrer les moments de


la distribution en utilisant la proprit suivante (Lukacs, 1960) :
Z
dr X (s)
r
eisx xr dFX (x).
=i
dsr

En posant s = 0 par la suite, on obtient, pour les diffrentes drives, lquation suivante :
 r

d X (s)
= ir E[X r ].
dsr
s=0
Ce qui nous permet de dfinir les diffrents moments de la distribution partir de la fonction
caractristique :
E[X r ] = (i)r

A.2.2

dr X (s)
dsr


.

(A.2.5)

s=0

Inversion de la fonction caractristique

La densit
On obtient la densit de la variable alatoire X en calculant la transforme de Fourier (A.2.1)
de la fonction caractristique suivante :
1
fX (x) =
2

eisx X (s)ds.

(A.2.6)

On peut utiliser lintgration numrique si lintgrale na pas de solution analytique, la mthode


de la transforme de Fourier rapide (section A.3) ou encore la mthode du point de selle.
La fonction de rpartition
On peut obtenir directement lexpression de la fonction de rpartition, sans passer par lintgration de la densit de probabilit, en utilisant le thorme de Gil-Pelaez (1951) :
Z isx
1
e X (s) eisx X (s)
1
FX (x) = +
ds.
2 2 0
is

(A.2.7)

On peut exprimer cette intgrale sous la forme suivante lorsque la densit f (x) est strictement
continue (Epps, 2007, p.66) :
FX (x) =

1
1

2 2

eisx
(s)ds.
is

(A.2.8)

117

Cette forme est moins approprie pour lintgration numrique, mais sera utile dans plusieurs
calculs. On prfrera la ramener la forme suivante avec le thorme 2 de Wendel (1961) :


Z
1 1 Im eisx X (s)
FX (x) =
ds.
(A.2.9)
2 0
s
Cette fonction peut tre difficile intgrer de manire efficace numriquement, surtout lorsquon lvalue en des points situs aux extrmits de la distribution. On peut alors privilgier
lgalit donne par le thorme 4 de Shephard (1991), qui utilise le noyau de Fejr afin de
rduire lerreur dintgration, pour
Z n
1
1
FX (x) =
lim
2 2 n 0

obtenir le rsultat suivant :



 isx
h
e X (s) eisx X (s)
si
ds.
1
is
| {z n }

(A.2.10)

Noyau de Fejr

De mme, en utilisant le raisonnement qui permet de passer de la dfinition de la transforme (A.2.7) celle de son inverse (A.2.9), on obtient, pour le rsultat (A.2.10), lexpression
suivante :
1 1
FX (x) =
lim
2 n

nh



s i Im eisx X (s)
1
ds.
n
s

(A.2.11)

On peut alors obtenir une approximation en fixant la borne dintgration suprieure n qui
dfinit la prcision dsire. Certains logiciels dintgration numrique prennent en charge les
bornes infinies.
La fonction caractristique permet didentifier la distribution dune somme de variables alatoires indpendantes Z = X1 , . . . , Xn , appele produit de convolution et not Z = X1 . . .Xn :
Z (s) = X1 +...+Xn (s) =

n
Y

Xi (s).

(A.2.12)

i=1

Lorsque les variables alatoires sommes sont aussi identiquement distribues, la fonction
caractristique de Z est la ne puissance de celle de X :
Z (s) = X1 +...+Xn (s) = [X (s)]n .

(A.2.13)

Cette fonction est donc une solution de rechange intressante utiliser lorsque aucune forme
analytique pour la densit ou la fonction de rpartition pour une distribution donne nexiste.

A.2.3

La fonction gnratrice des moments

La fonction gnratrice des moments MX (s) est dfinie comme tant la transforme de Laplace
inverse de la densit :

MX (s) =

118

esx dFX (x).

(A.2.14)

Cette intgrale, contrairement (A.2.3), ne converge pas toujours, ce qui signifie que certaines
distributions nont pas de fonction gnratrice des moments. Comme son nom lindique, cette
fonction permet de gnrer les moments de la distribution de la variable X, ce qui se fait
essentiellement de la mme manire quavec la dfinition (A.2.5). Par contre, on na pas
liminer le terme complexe, ce qui a pour avantage de simplifier les calculs :
E[X r ] =

dr MX (s)
dsr


.

(A.2.15)

s=0

La fonction gnratrice des moments peut aussi tre obtenue partir de la fonction caractristique :
MX (s) = (is).

(A.2.16)

Ceci permet den dduire quelles possdent des caractristiques communes, notamment le
produit de convolution.

A.2.4

La fonction gnratrice des cumulants

La fonction gnratrice des cumulants KX (s) est dfinie comme le logarithme de la fonction
gnratrice des moments :
KX (s) = ln MX (s).

(A.2.17)

Cette fonction est utilise pour gnrer les cumulants, des quantits troitement lies aux
moments, qui peuvent leur tour tre utiliss dans le cadre de mthodes destimation paramtrique. Parmi celles-ci, on retrouve la mthode des cumulants, dont lobjectif est de former
un systme dquations o les valeurs empiriques et thoriques de ces quantits sont gales.
Les valeurs empiriques peuvent tre obtenues partir des moments chantillonnaux (Stuart
et Ord, 1987) :
1 = m
K
1

(A.2.18a)

2 = m
K
02 m
21
3 =
K

m
03

4 =
K

m
04

(A.2.18b)

3m
1m
02

3m
02
2

4m
1m
03

2m
21

(A.2.18c)
+

12m
21 m
02

6m
41 .

(A.2.18d)

On remarquera aussi la forme de la premire drive de cette dernire, qui sera utilise pour
estimer la densit et la fonction de rpartition avec la mthode du point de selle :
M 0 (s)
dKX (s)
0
= KX
(s) = X .
ds
MX (s)

(A.2.19)

119

A.2.5

La transforme dEsscher

La transforme dEsscher est utilise pour transformer une fonction de densit en une autre
laide dun coefficient exponentiel h :
ehx f (x)
.
hx
e f (x)dx

f (x; h) = R

(A.2.20)

Lorsque lon ne dispose pas dune forme analytique de la densit, on peut exprimer la transforme dEsscher par sa fonction gnratrice des moments :
MX (s; h) =

A.3

MX (s + h)
.
MX (h)

(A.2.21)

La transforme de Fourier rapide

tant donn limportance de la transforme de Fourier et de son inverse en sciences physiques, plusieurs algorithmes ont t dvelopps afin den effectuer lintgration numrique.
Ces algorithmes se regroupent sous lappellation de transforme de Fourier rapide.
Lexistence de ces algorithmes favorise lutilisation de la fonction caractristique et de ses proprits, notamment pour lagrgation de risques en actuariat, ou encore le calcul de probabilits
pour des distributions nayant pas de forme explicite pour la fonction de rpartition.
Ces algorithmes numriques sont utiliss respectivement pour calculer de manire optimise
des sommes de la forme
f(xu ) =

N
X

(j ) e

2i
(j1)(u1)
N

u = 1, . . . , n.

(A.3.1)

j=1

j) =
(

N
X

f (xu ) e

2i
(j1)(u1)
N

j = 1, . . . , n.

(A.3.2)

u=1

Par exemple, pour valuer lintgrale (A.2.6) afin dobtenir la valeur de la densit sur un certain
domaine [a, b], on devra discrtiser celle-ci sur nombre N de points de discrtisation.On dfinit
alors les diffrents paramtres de ces deux algorithmes :
=

ba
N ,

le pas de discrtisation pour la variable alatoire u

= (j 1), la variable de transformation

120

2
N ,

le pas de discrtisation pour la variable de transformation

c=

N
2 ,

la borne suprieure dintgration

On obtient alors une sommation de la forme (A.3.1) :

fF F T (xu )

N
1 X ij (u1) icj
e
(c + (j 1)),
e
2

(A.3.3a)

N
1 X i 2 (j1)(u1) icj
e N
e
(c + (j 1)).
2

(A.3.3b)

j=1

j=1

Plusieurs logiciels danalyse numrique possdent une implmentation de la mthode de la


transforme de Fourier rapide. Essentiellement, cest une fonction fF F T (Xu ) qui prend comme
argument un vecteur de valeurs, appel signal, et qui en retourne un autre, de mme longueur,
le spectre de frquences. En statistique, la fonction caractristique empirique constitue le
signal et la densit, le spectre de frquences. Le signal Xu est dfini comme suit, partir des
constantes dfinies prcdemment :
Xu = eij (u1) (c + (j 1)) .

(A.3.4)

La somme (A.3.3a) devient alors


N
1 X
fF F T (Xu )
Xu eicj .
2

(A.3.5)

j=1

On recouvre la densit aux points xu = a + (j 1), j = 1, . . . , N en appliquant la transformation suivante au vecteur fF F T (Xu ) :
f (xu ) =

A.4
A.4.1

1 icxu
fF F T (Xu ).
e
N

(A.3.6)

Processus de Lvy
Dfinition et proprits

Le processus de Lvy, tel que prsent par Mikosch et al. (2001), est une classe gnrale
de processus stochastiques regroupant entre autres les processus de Poisson composs et les
processus de Wiener. Il est dfini comme continu droite, limit gauche (cdlg), ayant pour
point de dpart lorigine et ayant des incrments indpendants et homognes. Il est infiniment
divisible, tout processus de Lvy peut ainsi tre considr comme une convolution de plusieurs
autres. Cette proprit est trs intressante dans un contexte de rendements financiers, car
la mme distribution pourra tre utilise avec nimporte quel intervalle dchantillonnage des
prix.

121

Reprsentation de Lvy-Khintchine
Le processus de Lvy est gnralement reprsent par sa fonction caractristique sous la forme
de Lvy-Khintchine :
h
i
E eiX(t) = exp

ait
|{z}

composante de drive

1 2 2
t
|2 {z }

composante de diffusion

Z
+t
|

= exp

ix

e
R\{0}

1 ixI|x|<1 (dx)
{z
}

(A.4.1)

composante de saut


t() .

(A.4.2)

() est appel lexposant caractristique de lincrment de longueur 1 (X(t + 1) X(t)). Un


processus de Lvy est souvent dcrit par son triplet gnrateur (a, 2 , ). Cette description
permettra de classer certains processus de Lvy selon deux catgories :
Si 2 = 0, {X(t)} est un processus de sauts
Si a = 0 et 2 = 0, alors le processus {X(t)} est un processus de sauts purs
Llment (dx) de la composante de saut est appel la mesure de Lvy. Un exemple de
processus de Lvy reprsent sous la forme de Lvy-Khintchine qui ne fait pas partie de ces
deux catgories est dfini par le modle de Press (1.3.12).
Reprsentation de Lvy-It
La dcomposition de Lvy-It est une reprsentation alternative dcrivant la trajectoire dune
ralisation du processus. Cette dernire a une interprtation intressante en finance dcrite
par Applebaum (2004) :
X(t) =

at + B2 (t)
{z
}
|
mouvement brownien
Z
+
xN (t, dx) t(dx)
|x|<1
|
{z
}

martingale de sauts purs de carr intgrable

Z
+
|x|>1

xN (t, dx)
{z
}

(A.4.3)

processus de Poisson compos

= X1 (t) + X2 (t) + X3 (t).

122

(A.4.4)

La portion mouvement brownien (X1 (t)) dcrit le comportement gnral du processus, en


spcifiant le rendement espr a et la volatilit du titre 2 . La premire intgrale (X2 (t))
dcrit le bruit caus par les transactions financires quotidiennes qui font varier un peu le
prix, alors que la seconde (X3 (t)) introduit les sauts occasionns par des vnements plus
rares, comme les catastrophes naturelles et les crises politiques. Dans les deux cas, N (t, dx)
est une mesure alatoire de Poisson.

A.4.2

Processus subordonn

On considre les processus de Lvy {X(t)} et {Z(t)}. Celui qui suit est dfini comme tant
un processus subordonn et aussi un processus de Lvy, comme le dmontrent Sato (1999) et
Schoutens (2003) :
{Y (t)} = {X (Z(t))}.

(A.4.5)

Les processus de Lvy les plus couramment utiliss en finance sont des mouvements browniens
subordonns. Ils sont plus faciles manipuler et permettent nanmoins de reprsenter les
phnomnes de queues longues prsents dans les distributions de rendements. Une bonne
introduction ce sujet est faite par Kyprianou (2007).
Si () est lexposant caractristique du processus {X(t)} et (), celui du processus subordonn {Z(t)}, alors celui du processus {Y (t)} prend la forme suivante :
() = () i()
= (i()).

(A.4.6)

La fonction caractristique du processus {Y (t)} est alors


Y (t) () = et(i()) .

(A.4.7)

La densit de la variable alatoire Y (t) sobtient laide de la formule de lesprance conditionnelle :




fY (t) (y) = E fX(t) (y|Z(t) = z)
Z
=
fX(t) (y|Z(t) = z) fZ(t) (z)dz.

(A.4.8)

A.5

Thormes dintgration

Ces deux thormes sont prsents sans dmonstration afin de complmenter la dmonstration
de la mthode dEpps de la section 8.3.5. La dmonstration de ceux-ci ncessite des connaissances en thorie de lintgration. On peut retrouver davantage dexplications sur ceux-ci dans
Teschl (2004).

123

A.5.1

Thorme de convergence domine de Lebesgue

Le thorme de convergence domine de Lebesgue est un des principaux lments de la thorie


de lintgration. Il sert dmontrer quune fonction est intgrable, sachant quune autre lest
aussi et quelle rpond certaines conditions.
Soit (fn )nN , une suite de fonctions relles ou complexes intgrables dans un intervalle I qui
convergent vers une fonction f :
f (x) = lim fn (x).

(A.5.1)

On suppose quune fonction g intgrable dans lintervalle I existe telle que pour toute valeur
de n et pour tout point x I o elle est dfinie, la valeur absolue de fn (x) est infrieure ou
gale g(x) :
n N, x I , |fn (x)| g(x).

(A.5.2)

Alors, la fonction f est intgrable dans lintervalle I .

A.5.2

Thorme de Fubini

Le thorme de Fubini permet, entre autres, dinverser lordre dintgration lorsque certaines
conditions sont remplies.
Soit une fonction f continue sur le rectangle R suivant :
R = {(x, y)|a x b, c y d} .

(A.5.3)

on peut inverser lordre dintgration :




Z Z
Z Z
Z
f (x, y) d( )(x, y) =
f (x, y) d(y) d(x) =
f (x, y) d(x) d(y).
XY

(A.5.4)
Il est possible de gnraliser cet nonc en utilisant la thorie de la mesure.

124

Annexe B

lments de statistique mathmatique


B.1

Loi faible des grands nombres

La loi faible des grands nombres est un rsultat important en probabilit, car il permet de
dfinir la notion destimateur convergent. Soit une suite de variables alatoires indpendantes
et identiquement distribues {XT }
T =1 ayant une esprance E [X] et une variance V [X] finies.
Selon la loi faible des grands nombres, pour tout nombre rel strictement positif , la probabilit
que la diffrence entre la moyenne empirique YT =

X1 +X2 ++XT
T

et lesprance E [X] soit

suprieure la valeur tend vers 0 lorsque T tend vers linfini.

lim P (|YT E [X]| ) = 0,

T +

> 0

(B.1.1)

On dit alors que la suite destimateurs {YT }


T =1 converge en probabilit vers lesprance E [X].
Lestimateur de lesprance YT est alors convergent.

B.2

Thorme central limite

Le thorme central limite est un rsultat fondamental en probabilit qui nonce le rle de
la distribution normale. Il dmontre que toute somme de variables alatoires indpendantes et
identiquement distribues suit approximativement une loi normale. Ce rsultat permet entre
autres didentifier la distribution limite dun estimateur convergent.

125

B.2.1

Cas univari

Soit une suite dobservations X1 , . . . , XT dun chantillon alatoire dune distribution de


moyenne et de variance 2 :
!
T
X
1
YT =
Xt T
T t=1


T
=
XT .

(B.2.1)

Alors, cette variable alatoire converge en distribution vers une variable alatoire normale
centre rduite :
L

YT N (0, 1).

B.2.2

(B.2.2)

Cas multivari

On peut aussi gnraliser ce thorme pour des observations multivaries. On considre alors
une srie dobservations multivaries X1 , . . . , XT o

Xt(1)
.
.
Xt =
. ,
Xt(k)

t = 1, . . . , T.

(B.2.3)

On dfinit maintenant la variable alatoire correspondante :


P


T 
t=1 Xt(1)

YT =

T P
T

..
.
.



t=1 Xt(k)

(B.2.4)

Dans cette situation, la variable alatoire converge en distribution vers une variable alatoire
de distribution normale multivarie centre de matrice de variance-covariance :

L
T (YT ) Nk (0, )

(B.2.5)

(1,1) (1,k)
.
..
..
.
=
.
.
.
,
(k,1) (k,k)

126

avec (j,k)

V ar X  ,
1(j)
=

Cov X , X
1(j)

1(k)

(j = k)


, (j 6= k).

B.3

Mthode delta multivarie

Dans le cas univari, on utilise la mthode delta pour valuer la distribution dune fonction
dun estimateur, en supposant que la distribution de cet estimateur est asymptotiquement
normale de variance connue.
Dans le cas multivari, on estime la distribution dune fonction dun vecteur destimateurs,
dont la distribution asymptotique est normale multivarie, avec une matrice de variancecovariance .
On a donc, pour un estimateur convergent T , en appliquant le thorme central limite, le
rsultat suivant :

L
T (T 0 ) N (0, ).

(B.3.1)

On cherche la distribution dune fonction h(T ). On dveloppe cette fonction sous la forme
dune srie de Taylor et en conservant seulement les deux premiers termes :
h(T ) h(0 ) + [h(0 )]0 (T 0 ).

(B.3.2)

On a donc, aprs quelques manipulations, que la variance de la fonction h(T ) est approximativement
 
h
i
0

[h(0 )] .
V ar h(T ) [h(0 )]
T
La distribution de la fonction h(T ) est alors asymptotiquement

 

L
0

[h(0 )] .
h(T ) N h(0 ), [h(0 )]
T

(B.3.3)

(B.3.4)

127

Annexe C

Donnes
Ce tableau prsente lchantillon de donnes utilises au chapitre 9.
Table C.1: Prix du titre Abbey National (penny sterling) du 31 juillet au 8 octobre 1991
Date
31/07
01/08
02/08
05/08
06/08
07/08
08/08
09/08
12/08
13/08

Prix
296
296
300
302
300
304
303
299
293
294

Date
14/08
15/08
16/08
19/08
20/08
21/08
22/08
23/08
26/08
27/08

Prix
294
293
295
287
288
297
305
307
307
304

Date
28/08
29/08
30/08
02/09
03/09
04/09
05/09
06/09
09/09
10/09

Prix
303
304
304
309
309
309
307
306
304
300

Date
11/09
12/09
13/09
16/09
17/09
18/09
19/09
20/09
23/09
24/09

Prix
296
301
298
295
295
293
292
297
294
293

Date
25/09
26/09
27/09
30/09
01/10
02/10
03/10
04/10
07/10
08/10

Prix
306
303
301
303
308
305
302
301
297
299

129

Bibliographie
Milton Abramowitz et Irene A. Stegun : Handbook of Mathematical Functions : with
Formulas, Graphs, and Mathematical Tables, volume 55. Dover Publications, 1965.
David Applebaum : Lvy Processes : From Probability to Finance and Quantum Groups.
Notices of the American Mathematical Society, 51(11):13361347, 2004.
Louis Bachelier : Thorie de la spculation. Gauthier-Villars, 1900.
Joseph Berkson : Minimum Chi-square, not Maximum Likelihood ! The Annals of Statistics,
pages 457487, 1980.
Nicholas H. Bingham et Rdiger Kiesel : Risk-Neutral Valuation : Pricing and Hedging of
Financial Derivatives. Springer, 2004.
Fischer Black : The Pricing of Commodity Contracts. Journal of Financial Economics, 3
(1):167179, 1976.
Fischer Black et Myron Scholes : The Pricing of Options and Corporate Liabilities. The
Journal of Political Economy, pages 637654, 1973.
D. J. Buckle : Bayesian Inference for Stable Distributions. Journal of the American Statistical
Association, 90(430):605613, 1995.
Ronald W. Butler : Saddlepoint Approximations with Applications, volume 22. Cambridge
University Press, 2007.
Peter P. Carr, Eric C. Chang et Dilip B. Madan : The Variance Gamma Process and
Option Pricing. European Finance Review, 2(1):79105, 1998.
Peter P. Carr et Dilip B. Madan : Option Valuation Using the Fast Fourier Transform.
Journal of Computational Finance, 2(4):6173, 1999.
Martin Crowder : On Consistency and Inconsistency of Estimating Equations. Econometric
Theory, pages 305330, 1986.

131

Martin Crowder : On Linear and Quadratic Estimating Functions. Biometrika, 74(3):591


597, 1987.
Henry E. Daniels : Saddlepoint Approximations in Statistics. The Annals of Mathematical
Statistics, pages 631650, 1954.
Emanuel Derman : Model Risk. Rapport technique, Goldman Sachs, 1996.
Yadolah Dodge : Statistique : Dictionnaire Encyclopdique. Springer Verlag France, 2004.
Thomas W. Epps : Pricing Derivative Securities. World Scientific Publishing Company
incorporated, 2007.
Thomas W. Epps et Lawrence B. Pulley : A Test for Normality Based on the Empirical
Characteristic Function. Biometrika, 70(3):723726, 1983.
Brian Everitt et Anders Skrondal : The Cambridge Dictionary of Statistics, volume 4.
Cambridge University Press, 2006.
Eugene F. Fama et Kenneth R. French : Common Risk Factors in the Returns on Stocks
and Bonds. Journal of Financial Economics, 33(1):356, 1993.
Andrey Feuerverger et Philip McDunnough : On the Efficiency of Empirical Characteristic Function Procedures. Journal of the Royal Statistical Society. Series B (methodological),
pages 2027, 1981.
Robert Fox et Murad S. Taqqu : Large-sample Properties of Parameter Estimates for Strongly Dependent Stationary Gaussian Time Series. The Annals of Statistics, 14(2):517532,
1986.
J. Gil-Pelaez : Note on the Inversion Theorem. Biometrika, 38(3-4):481482, 1951.
Christian Gourieroux et Alain Monfort : Statistique et Modles conomtriques : Notions
Gnrales, Estimation, Prvision, Algorithmes, volume 1. Economica, 1989.
Alastair R. Hall : Generalized Method of Moments. Oxford University Press, 2005.
James Douglas Hamilton : Time Series Analysis, volume 2. Cambridge University Press,
1994.
Lars Peter Hansen : Large Sample Properties of Generalized Method of Moments Estimators.
Econometrica, pages 10291054, 1982.
Norbert Henze : An Approximation to the Limit Distribution of the Epps-Pulley Test Statistic
for Normality. Metrika, 37(1):718, 1990.

132

Steven L. Heston : A Closed-Form Solution for Options with Stochastic Volatility with
Applications to Bond and Currency Options. Review of Financial Studies, 6(2):327343,
1993.
David V. Hinkley et Nagesh S. Revankar : Estimation of the Pareto Law from Underreported Data : A Further Analysis. Journal of Econometrics, 5(1):111, 1977.
Robert V. Hogg et Allen Craig : Introduction to Mathematical Statistics. Macmillan, 1978.
Andrey Itkin : Pricing Options with VG Model Using FFT. arXiv preprint physics/0503137,
2005.
Wai Wan Tsang Jingbo Wang et George Marsaglia : Evaluating Kolmogorovs Distribution. Journal of Statistical Software, 8(18):14, 2003.
Samuel Kotz, Tomasz J. Kozubowski et Krzystof Podgrski : The Laplace Distribution
and Generalizations : A Revisit with Applications to Communications, Economics, Engineering, and Finance. Progress in Mathematics Series. Birkhuser, 2001.
Ioannis A. Koutrouvelis : A Goodness-Of-Fit Test of Simple Hypotheses Based on the
Empirical Characteristic Function. Biometrika, 67(1):238240, 1980.
Tomasz J. Kozubowski et Krzysztof Podgrski : A Class of Asymmetric Distributions.
Actuarial Research Clearing House, 1:113134, 1999.
Tomasz J. Kozubowski et Krzysztof Podgrski : Asymmetric Laplace Laws and Modeling
Financial Data. Mathematical and Computer Modeling, 34(9):10031021, 2001.
Andreas E. Kyprianou : Introductory Lectures on Fluctuations of Lvy Processes with Applications. Springer, 2007.
Robert Lugannani et Stephen Rice : Saddle Point Approximation for the Distribution of the
Sum of Independent Random Variables. Advances in Applied Probability, pages 475490,
1980.
Eugene Lukacs : Characteristic Functions, volume 4. Griffin London, 1960.
Andrew Luong et Mary E. Thompson : Minimum-Distance Methods Based on Quadratic
Distances for Transforms. Canadian Journal of Statistics, 15(3):239251, 1987.
Dilip B. Madan et Eugene Seneta : The Variance Gamma Model for Share Market Returns.
Journal of Business, pages 511524, 1990.
Benoit Mandelbrot : The Variation of Certain Speculative Prices. Journal of Business,
pages 394419, 1963.

133

Robert C. Merton : Option Pricing when Underlying Stock Returns Are Discontinuous.
Journal of Financial Economics, 3(1):125144, 1976.
Thomas Mikosch, Sidney I. Resnick et Ole E. Barndorff-Nielsen : Lvy Processes :
Theory and Applications. Birkhuser, 2001.
Wesley C. Mitchell : A Critique of Index Numbers of the Prices of Stocks. The Journal of
Political Economy, pages 625693, 1916.
Whitney K. Newey et Daniel McFadden : Large Sample Estimation and Hypothesis Testing.
Handbook of Econometrics, 4:21112245, 1994.
Whitney K. Newey et Kenneth D. West : Hypothesis Testing with Efficient Method of
Moments Estimation. International Economic Review, 28(3):777787, 1987.
Peter D. Praetz : The Distribution of Share Price Changes. Journal of Business, pages
4955, 1972.
S. James Press : A Compound Events Model for Security Prices. Journal of Business, pages
317335, 1967.
Ken-Iti Sato : Lvy Processes and Infinitely Divisible Distributions. Cambridge Studies in
Advanced Mathematics. Cambridge University Press, 1999.
Wim Schoutens : Lvy Processes in Finance. Wiley, 2003.
David Scott et Christine Yang Dong : variancegamma : The Variance Gamma Distribution,
2012. URL http://CRAN.R-project.org/package=VarianceGamma. Consult le 24 janvier
2014.
Eugene Seneta : Fitting the Variance Gamma Model to Financial Data. Journal of Applied
Probability, pages 177187, 2004.
Samuel Sanford Shapiro et Martin B. Wilk : An Analysis of Variance Test for Normality
(Complete Samples). Biometrika, 52(3/4):591611, 1965.
Neil G. Shephard : From Characteristic Function to Distribution Function : A Simple
Framework for the Theory. Econometric Theory, 7(04):519529, 1991.
Murray R. Spiegel et John Liu : Schaums Mathematical Handbook of Formulas and Tables,
volume 1000. McGraw-Hill, 1999.
Alan Stuart et J. Keith Ord : Kendalls Advanced Theory of Statistics, Vol. 1. Oxford
University Press, 1987.

134

Gerald Teschl : Topics in Real and Functional Analysis, 2004. URL http://www.mat.
univie.ac.at/~gerald/ftp/book-fa/index.html. Consult le 24 janvier 2014.
Christian Walter : Lvy-Stability Under Addition and Fractal Structure of Markets : Implications for the Actuaries and Emphasized Examination of MATIF National Contract. In
Proceedings of the 5th AFIR colloquium. International Actuarial Association, 1995.
J. G. Wendel : The Non-Absolute Convergence of Gil-Pelaez Inversion Integral. The Annals
of Mathematical Statistics, 32(1):338339, 1961.
Jacob Wolfowitz : The Minimum Distance Method. The Annals of Mathematical Statistics,
pages 7588, 1957.
Jeffrey M. Wooldridge : Econometric Analysis of Cross Section and Panel Data. MIT
press, 2001.

135

Contrat de partage
Cette cration est mise disposition selon le contrat Attribution - Partage dans les Mmes
Conditions 4.0 International de Creative Commons disponible ladresse http://creativecommons.
org/licenses/by-sa/4.0/deed.fr
En vertu de ce contrat, vous tes autoris :
Partager copier, distribuer et communiquer le matriel par tous moyens et sous tous
formats
Adapter remixer, transformer et crer partir du matriel pour toute utilisation, y
compris commerciale.
LOffrant ne peux retirer les autorisations concdes par la licence tant que vous appliquez les
termes de cette licence.

Selon les conditions suivantes :

Attribution Vous devez crditer lOeuvre, intgrer un lien vers la licence et


indiquer si des modifications ont t effectues lOeuvre. Vous devez indiquer ces
informations par tous les moyens possibles mais vous ne pouvez pas suggrer que
lOffrant vous soutient ou soutient la faon dont vous avez utilis son Oeuvre.
Partage lidentique Dans le cas o vous effectuez un remix, que vous transformez, ou crez partir du matriel composant lOeuvre originale, vous devez diffuser
lOeuvre modifie dans les mme conditions, cest--dire avec la mme licence avec
laquelle lOeuvre originale a t diffuse.
Aucune autre restriction Vous ntes pas autoris appliquer des conditions lgales
ou des mesures techniques qui restreindraient lgalement autrui utiliser lOeuvre dans les
conditions dcrites par la licence.

137

S-ar putea să vă placă și