Documente Academic
Documente Profesional
Documente Cultură
Premi`
ere partie
Probabilit
es
Introduction
La theorie des probabilites a pour objectif de modeliser des experiences o`
u plusieurs issues
sont possibles, mais o`
u leur realisation nest pas determinee `a lavance (par exemple un lance
de des), ceci en vue devaluer les risques ou de mettre sur pieds des strategies pour faire face
aux aleas. La theorie des probabilites ne va pas permettre de predire quelle issue va se realiser,
mais quelle chance a chaque issue de se realiser.
La theorie des probabilites et par extension les statistiques a des applications dans de
nombreux domaines :
1. La biologie et la m
edecine : reperage de sequences ADN, tests de medicaments,
evaluation du risque de propagation de virus ...
2. La finance (Les banques) : evaluation de produits financiers (options ...), matrise des
risques lies `a des investissements ...
3. Industries : aeronautique, automobile, chimie ...
4. Economie : prevision de croissance, sondages, controle de gestion ...
5. Les jeux : Loto, Casinos ...
Tous ces champs dapplications sont en lien etroit avec linformatique : developpement et utilisation de logiciels de simulations et de logiciels de traitements statistiques, bases de donnees
...
Probabilit
es
Introduction
1 Ev`
enements Probabilit
e et Variables al
eatoires
1.1 Lespace des issues, lensemble des ev`enements . . . . . . . . . . . . . . . . . . .
1.2 Definition et Proprietes dune probabilite . . . . . . . . . . . . . . . . . . . . . .
1.3 Variables Aleatoires Discr`etes . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
5
6
7
2 Ind
ependance et probabilit
es conditionnelles
11
2.1 Independance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Probabilites conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3 Variables Al
eatoires Discr`
etes - Moyenne - Variance
3.1 Esperance (Moyenne) dune variable aleatoire discr`ete .
3.2 La Variance et la Covariance . . . . . . . . . . . . . . .
3.3 Lois classiques . . . . . . . . . . . . . . . . . . . . . . .
3.4 Fonction generatrice . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
17
17
19
21
23
4 Variables Al
eatoires Continues
25
4.1 Definition dune variable aleatoire absolument continue . . . . . . . . . . . . . . 25
4.2 Esperance et variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.3 Variables aleatoires continues usuelles . . . . . . . . . . . . . . . . . . . . . . . . 27
5 Th
eor`
emes limites
33
5.1 Loi des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.2 Theor`eme de la limite centrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
II
Statistiques
37
7 Estimateurs, vraisemblance
7.1 Definition dun estimateur et ses proprietes . . .
7.2 Estimateur des param`etres dune loi normale, X
7.3 Estimateur dune proportion, X B(p) . . . .
7.4 Estimateur du maximum de vraisemblance . . .
. . . . . .
N(, )
. . . . . .
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
43
43
43
45
45
8 Intervalles de confiance
47
8.1 Intervalle de confiance pour les param`etres dune loi normale N(, ) . . . . . . 47
8.2 Intervalle de confiance pour le param`etre dune loi de Bernoulli B(p) . . . . . . 50
Chapitre 1
Ev`
enements Probabilit
e et Variables
al
eatoires
Dans un premier temps, on va associer `a chaque issue possible un nombre entre 0 et 1 qui
traduit notre estimation des chances que cette issue a de se realiser : on appelle ce nombre
la probabilite de cette issue. On appelle ev`enement un ensemble dissues. La probabilite
quon associe a` un ev`enement est la somme des probabilites de chaque issue de cet ensemble.
Typiquement, la question est de determiner la probabilite dun ev`enement, et la difficulte est
dune part de decrire lexperience de facon commode afin denumerer toutes les issues possibles
et leur probabilite respective, et dautre part de decomposer lev`enement considere en issues.
1.1
Avant de calculer les probabilites dev`enements, il faut definir lespace des issues de facon
commode et compl`ete. Cet espace comprendra toutes les issues possibles du jeu, ou
de lexp
erience al
eatoire que lon consid`
ere, meme eventuellement celles qui ne nous
interessent pas, a priori. Dans chaque situation, lespace des issues sera not
e (grand
omega), alors que les issues seront not
ees (petit omega).
Exemple 1.1.1. On consid`ere un de `a 6 faces, numerotees de 1 `a 6. On suppose que le de
est equilibre, ce qui veut dire que les 6 faces ont la meme chance de sortir. Lensemble des
issues possibles dun lancer est = {1, 2, 3, 4, 5, 6}. Une issue possible est {3} cest `a dire la
face 3 sort. Un evenement est par exemple On obtient un nombre pair que lon peut ecrire
{2, 4, 6}.
Exemple 1.1.2. On consid`ere le meme de, sauf que sur la sixi`eme face, le nombre 6 a ete
remplace par 5. Il y a donc deux faces o`
u 5 est inscrit. Lensemble des issues est ici =
{1, 2, 3, 4, 5}. Levenement on obtient un nombre pair secrit {2, 4}.
On consid`ere des experiences avec un nombre fini ou denombrable dissues. On note cet
ensemble dissues et F lensemble des
ev
enements. F est lensemble des parties de .
5
1.2
D
efinition et Propri
et
es dune probabilit
e
1. P () = 0.
= 1.
2. Pour tout evenement A, P (A) + P (A)
3. Pour tous evenements quelconques A et B,
P (A B) = P (A) + P (B) P (A B).
4. Si A et B sont deux evenements tels que A B alors P (A) P (B).
Exemple 1.2.3. Reprenons lexemple 1.1.1, etant donne que le de est equilibre on pense pour
ce cas `a une probabilite comme `a une fonction p sur , telle que p(1) + ... + p(6) = 1 et on
associe `a chaque issue la probabilite 1/6. En utilisant le second point de la definition dune
probabilite on calcule facilement la probabilite de lev`enement A =on obtient un nombre pair.
En effet A = {2} {4} {6}, les 3 issues qui composent A
etant 2 a
` 2 disjointes 1 ,
P (A) = P (2) + P (4) + P (6) = 1/6 + 1/6 + 1/6 = 1/2. Si on veut maintenant calculer la
probabilite de lev`enement obtenir un nombre impair, on peut utiliser le petit 4. de lexemple
1.1.5 et la propriete 2. de la Proposition 1.2.2
Pour lexemple 1.1.2, comme le de est equilibre, les faces 1, 2, 3 et 4 ont chacune la probabilite 1/6 de sortir, alors que P (5) = 2/6. Quelle est la probabilite quun nombre pair sorte ?
Lexemple suivant a pour but de manipuler la propriete 3. de la Proposition 1.2.2
Exemple 1.2.4. Toujours sur lexemple 1.1.1, soit A = {2, 4, 6}, B = {5, 6}, C = {3},
calculons de deux facon differentes :
1. On se rappelle du 1. de lexemple 1.1.5 et on a donc P (A B) = P ({2, 4, 5, 6}) et comme
chacun des ev`enements {2}, {4}, {5} et {6} sont deux `a deux disjoints P (A B) = P (2) +
P (4) + P (5) + P (6) = 4/6 = 2/3.
2. On utilise la propriete 3. de la Proposition 1.2.2. On a vu dans lexemple precedent que
P (A) = 1/2, il est facile de voir que P (B) = 1/6 + 1/6 = 1/3 et que dapres le petit 2. de
lExemple 1.1.5, A B = {6} et donc que P (A B) = 1/6. Ainsi on obtient P (A B) =
P (A) + P (B) P (A B) = 1/2 + 1/3 1/6 = 2/3.
1.3
1.3.1
Variables Al
eatoires Discr`
etes
D
efinition et Notations
Definition 1.3.1. Une fonction sur a` valeurs reelles est appelee variable aleatoire.
Notation Les variables aleatoires seront notees par des lettres majuscules, X, Y, .... Les valeurs
quelles prennent lorsquune issue se realise sont notees par des lettres minuscules. Par exemple
on pourra ecrire x `a la place de X().
1. en effet on ne peut obtenir quun unique chiffre lors dun lance !
Exemple 1.3.2. Donnons un premier exemple elementaire de variable aleatoire. Une variable
de Bernoulli de param`etre p [0, 1] est une variable aleatoire qui prend soit la valeur 0 avec
une probabilite 1 p soit la valeur 1 avec une probabilite p, on lutilise souvent pour decrire une
experience aleatoire ayant 2 issues possibles. Un autre exemple, que lon reprendra en detail en
TD, on consid`ere le jete de deux des simultanement. On peut definir une variable aleatoire qui
est egale `a la somme des deux des.
1.3.2
Definition 1.3.3. Soit P une probabilite sur un espace des issues . Soit X une variable
aleatoire definie sur . Lorsqu`a chaque valeur xi (1 i n) de X on associe les probabilites pi
de levenement X = xi , on dit que lon definit la loi de probabilite PX de la variable aleatoire
X.
Remarque 1.3.4. Pour connatre la loi dune variable al
eatoire, il faut connatre
lensemble de ses valeurs possibles et la probabilit
e avec laquelle elle r
ealise chaque
valeur.
Exemple 1.3.5. Une variable de Bernoulli X de param`etre p a pour loi :
Valeur de X xi
pi P (X = xi )
0
1
1-p p
o`
u p est compris entre 0 et 1. Ce tableau se lit de la facon suivante : p0 P (X = 0) = 1 p et
p1 P (X = 1) = p. Par convention on notera X B(p) lorsque X suit une loi de Bernoulli.
On remarque que si p = 1 alors X est constante egale `a 0.
Prenons maintenant un exemple un peu plus complique,
Exemple 1.3.6. on consid`ere 2 jetes successifs dune pi`ece de monnaie equilibree. On definit
une variable aleatoire X qui compte le nombre de face que lon a obtenu. Sur deux lances de
pi`eces X peut prendre soit la valeur 0 qui correspond `a lev`enement la pi`ece nest jamais tombe
sur face, soit la valeur 1 qui correspond au cas o`
u la pi`ece est tombe une fois sur face soit
la valeur 2 si on obtient deux fois face. Etant donne que la pi`ece est equilibree on obtient pour
X la loi suivante :
xi
0
1
2
P (X = xi ) 1/4 1/2 1/4
On remarque bien entendu que P (X = 0) + P (X = 1) + P (X = 2) p0 + p1 + p2 = 1.
Remarque 1.3.7. Bien que tr`es elementaire ce dernier exemple sous entend lindependance
des deux lances. La notion dind
ependance qui est intuitive ici sera explicite dans le chapitre
suivant. On pourrait par exemple supposer que lon lance une seconde fois la pi`ece que si on a
obtenu face au premier coup, les deux lances ne sont alors plus independants et la loi de X est
donnee par :
xi
0
1
2
P (X = xi ) 1/2 1/4 1/4
8
1.3.3
Fonction de r
epartition
Proposition 1.3.8. La loi dune variable aleatoire X est caracterisee par sa fonction de
repartition FX definie par :
FX :
R [0, 1]
x 7 P (X x)
Remarque 1.3.9. FX est par definition une fonction en escalier, qui est constante entre deux
valeurs successives prises par la variable aleatoire X et qui fait un saut en chacune de ses
valeurs. On retrouve donc sur le graphe de FX dune part les valeurs prises par X ainsi que les
probabilites dobtenir les valeurs.
Il est
equivalent de connatre la loi de X ou sa fonction de r
epartition.
Exemple 1.3.10. Reprenons lexemple 1.3.6, la fonction de repartition de X est donnee par
le graphe suivant :
FX (x)
1
P(X=2)
3/4
P(X=1)
1/4
P(X=0)
1.3.4
Fonction indicatrice
{0, 1}
1 si A
w 7
0 si
/A
Remarque 1.3.13. La fonction indicatrice 11A est une variable aleatoire de Bernoulli de param`etre p = P (A).
10
Chapitre 2
Ind
ependance et probabilit
es
conditionnelles
2.1
2.1.1
Ind
ependance
Cas de deux
ev`
enements ou deux variables al
eatoires
(2.1)
Exemple 2.1.2. On sinteresse `a deux lances dun de. On suppose que ces deux lances sont
independants, cest `a dire que le resultat du lance du premier de na aucune influence sur le
lance du second de. Ainsi les evenements A = {On obtient 2 au premier lance} et par exemple
B = {On obtient 5 au second lances} sont independants. En terme de probabilite cela se traduit
par :
P (A B) = P (A)P (B) = (1 \ 6) (1 \ 6).
(2.2)
(2.3)
(2.4)
2.1.2
jI
iI
(2.6)
(2.7)
(2.8)
(2.9)
Si on lance 3 fois successivement et independamment une pi`ece de monnaie et que lon souhaite
calculer la probabilite de levenement {P, F, P } {on obtient Pile au premier lance,Face au
second et Pile au dernier} , par independance on a :
P ({P, F, P }) = P (P )P (F )P (P ) = 1/8.
(2.10)
iI
12
Exemple 2.1.9. Supposons que pour tout 1 i 8, Xi suit une loi de Bernoulli de param`etre
p et supposons que la suite {X1 , X2 , , X8 } soit independante, soit I = {1, 3, 6, 8} on a
!
\
P
{Xi = 1}
P (X1 = 1, X3 = 1, X6 = 1, X8 = 1)
iI
jI
2.2
2.2.1
Probabilit
es conditionnelles
D
efinitions et propri
et
es
P (A B)
.
P (B)
P (A B)
= 1/2.
P (B)
On donne maintenant le resultat suivant que lon verifie ensuite sur un exemple simple :
13
(2.14)
Proposition 2.2.3. Soient A et B deux evenements independants et tel que P (B) > 0, alors
P (A|B) = P (A)
(2.15)
Exemple 2.2.4. On utilise les memes notations que pour lexemple precedent. Si on sinteresse
a deux lances independants dune pi`ece de monnaie, independant signifiant que quel que soit le
`
resultat du premier lance on lance une seconde fois la pi`ece, on a donc P (A) = P (B) = 1/2 de
plus P (A B) = 1/4, ainsi
P (A|B) =
P (A B)
= 1/2.
P (B)
(2.16)
2.2.2
Probabilit
e totale et Th
eor`
eme de Bayes
Comme nous lavons dej`a mentionne au debut de ce cours il est parfois utile de decomposer
un evenement en sous ensemble dev`enements elementaires afin den calculer la probabilite avec
plus de facilite. La proposition suivante va dans ce sens.
On commence par donner la definition dune partition de
Definition 2.2.5. P
On appellera partition de toute suite (Ai , i I) verifiant Ai Aj =
pour tout i 6= j et iI P (Ai ) = 1.
Exemple 2.2.7. Supposons quon dispose de deux urnes contenant des boules blanches et
noires. La premi`ere urne contient 100 boules, dont 99 blanches. La deuxi`eme urne contient
100 boules, dont 10 blanches. Un jeu consiste `a choisir une urne au hasard et `a tirer une boule
dans cette urne. Notons B levenement On a tire une boule blanche, on va donner une partition de cet ev`enement. Soient A1 = {On a tire dans la premi`ere urne} et A2 = {On a tire
dans la deuxi`eme urne}, on a = A1 A2 de plus A1 A2 = , on peut donc ecrire que
B = B A1 B A2 , et ainsi
P (B) = P (B A1 ) + P (B A2 )
= P (B|A1 )P (A1 ) + P (B|A2)P (A2 ).
Il est facile de voir que P (A1 ) = 1/2 et P (A2) = 1/2, de plus P (B|A1) = 99/100 et P (B|A2 ) =
1/10. On en deduit donc que P (B) = 109/200.
Proposition 2.2.8. Formule de Bayes. Soit (Ai , i I) une partition finie ou denombrable
de , et soit B tel que P (B) > 0. Pour tout i, on a
P (Ai )P (B|Ai )
.
jI P (B|Aj )P (Aj )
P (Ai |B) = P
14
(2.18)
Exemple 2.2.9. On reprend lexercice precedent, et lon cherche `a calculer P (A1 |B), par la
formule de Bayes on a :
P (A1 |B) =
P (A1 ) P (B|A1 )
P (B|A1)P (A1 ) + P (B|A2 )P (A2 )
Dapr`es lexemple precedent P (B) = 109/200 et P (B|A1 ) = 99/100, on en deduit P (A1 |B) =
99/109.
15
16
Chapitre 3
Variables Al
eatoires Discr`
etes Moyenne - Variance
Dans ce chapitre on va introduire de nouvelles notions pour les variables aleatoires. Ces
nouvelles notions sappuient sur les definitions et exemples du paragraphe 1.3.
3.1
Esp
erance (Moyenne) dune variable al
eatoire discr`
ete
La moyenne ou esperance est une valeur qui sert `a avoir une idee de la valeur typique dune
variable aleatoire. Elle nest en generale pas suffisante pour comprendre comment se comporte
cette variable aleatoire mais donne une premi`ere indication. Son avantage est quelle est tr`es
facile `a calculer dans la majorite des cas.
3.1.1
D
efinition et premiers exemples
X()P () existe.
Pn
i=1
x2
p2
pi xi p1 x1 + p2 x2 + + pn xn .
17
xn
pn
1
2
3
4
5
6
1/6 1/6 1/6 1/6 1/6 1/6
11()P () +
11()P ()
= P (A).
= 1 P (A) + 0 P (A)
Ainsi lesp
erance de 11A est
egale a
` P (A).
3.1.2
Propri
et
es de lesp
erance (moyenne)
2. E(X+Y)=E(X)+E(Y).
Dautres proprietes elementaires que lon utilise frequemment sont
Proposition 3.1.9. Soit a R, alors
18
1. E(a)=a,
2. X 0 E(X) 0,
3. X Y E(X) E(Y ).
(3.2)
3.2
La Variance et la Covariance
Comme nous lavons dit precedemment la moyenne nest pas suffisante pour avoir une bonne
idee du comportement dune variable aleatoire. La variance mesure un ecart (quadratique)
moyen de la variable aleatoire par rapport `a cette moyenne. On dit quelle mesure une dispersion
de la variable par rapport `a sa moyenne.
On commence par definir le second moment dune variable aleatoire
Definition 3.2.1. Soit un espace fini ou denombrable, P une probabilite sur , et X une
variable aleatoire. On appelle second moment de X la quantite
X
E(X 2 ) =
X 2 ()P ().
(3.3)
X 2 ()P () existe.
Definition 3.2.3. La variance dune variable aleatoire X, telle que E(X 2 ) < , et notee
var(X) est le nombre positif suivant
var(X) = E((X E(X))2 )
(3.4)
Remarque 3.2.4. Dans la pratique on utilise la definition suivante qui est en fait une simple
consequence de la definition precedente :
var(X) = E(X 2 ) (E(X))2 .
19
(3.5)
E(X ) =
n
X
x2i pi ,
i=1
n
X
V ar(X) =
i=1
x2i pi (
(3.6)
n
X
xi pi )2 .
(3.7)
i=1
(3.8)
On introduit maintenant une nouvelle valeur la covariance elle mesure la correlation entre
deux variables aleatoires.
Definition 3.2.8. Soient X et Y deux variables aleatoires, on a
Cov(X, Y ) = E((X E(X))(Y E(Y )).
(3.9)
(3.10)
3.3
3.3.1
Lois classiques
Loi de Bernoulli B(p)
Nous avons dej`a beaucoup parle des variables de Bernoulli, cest une variable aleatoire tr`es
elementaire prenant deux valeurs differentes. Dans ce paragraphe nous resumons ses principales
proprietes.
Soit X B(p), la loi de X est donn
ee par P (X = 1) = p et P (X = 0) = 1 p.
Proposition 3.3.1.
E(X) = p,
V ar(X) = p(1 p).
3.3.2
Definition 3.3.2. Soient (X1 , X2 , , Xn ) n N variables aleatoires independantes de Bernoulli,Pchacune de ces variables ayant pour param`etre p, la variable aleatoire Sn definie par
Sn = ni=1 Xi suit une loi binomiale de param`etres n et p, on note Sn B(n, p). De plus la
loi de Sn est donnee par : pour tout k {1, 2, , n}
P (Sn = k) = Cnk pk (1 p)nk
o`
u Cnk =
n!
.
(nk)!k!
(3.11)
0.2
P(X=k)
0.15
0.1
0.05
7
k
10
11
12
13
(3.12)
(3.13)
Un exemple typique o`
u une variable binomiale apparat est le suivant :
Exemple 3.3.4. On effectue n lances dune pi`ece de monnaie equilibree, on definit Sn la
variable aleatoire qui va compter le nombre de fois ou la pi`ece tombe sur F ace. Pour comprendre
pourquoi Sn suit une loi binomiale on effectue la demarche suivante : on definit X1 la variable
aleatoire qui prend la valeur 1 si la pi`ece tombe sur face lors du premier lance et 0 sinon,
de meme on definit pour tout 2 i n la variable aleatoire Xi qui prend la valeur 1 si la
pi`ece tombe sur face lors du i`eme lanc
Pne. Il apparat clairement que chaque variable Xi suit une
loi de Bernoulli de param`etre 1/2. i=1 Xi compte le nombre de
Pface que lon a obtenu sur n
lances. Chaque lance etant independant les uns des autres Sn = ni=1 Xi suit une loi binomiale
de parametre 1/2 et n.
3.3.3
Loi de Poisson P ()
Commencons par une definition qui donne la loi dune variable de Poisson :
Definition 3.3.5. X suit une loi de Poisson de param`etre si et seulement si pour tout k N
on a :
P (X = k) = e
9
1.4
k
.
k!
(3.14)
x 10
1.2
P(X=k)
0.8
0.6
0.4
0.2
7
k
10
11
12
13
Remarque 3.3.6. Cette variable aleatoire est differente de toutes celles qui ont ete introduites
jusqu`a maintenant car elle prend un nombre infini denombrable de valeurs. On peut verifier
que 3.14 est une mesure de probabilite en montrant que :
+
X
k=0
k
= 1.
k!
(3.15)
3.3.4
(3.16)
(3.17)
Loi G
eom
etrique G(p)
Definition 3.3.8. X suit une loi de geometrique de param`etre p si et seulement si pour tout
k N on a :
P (X = k) = (1 p)k1p.
(3.18)
0.2
P(X=k)
0.15
0.1
0.05
7
k
10
11
12
13
De meme que la loi de Poisson une variable aleatoire qui suit une loi Geometrique prend un
nombre
denombrable de valeur avec une probabilite strictement positive. On verifie que
P+ infinik1
p = 1.
k=0 (1 p)
Proposition 3.3.9. Si X G(p)
1
E(X) = ,
p
1p
V ar(X) =
.
p2
3.4
(3.19)
(3.20)
Fonction g
en
eratrice
Definition 3.4.1. Soit X une variable aleatoire `a valeurs dans N. La fonction generatrice GX
de X est donnee par
X
GX (t) = E(t ) =
+
X
tk P (X = k).
(3.21)
k=0
Remarque 3.4.2. De facon generale, G est definie pour tout t [1, +1], GX (t) existe si et
seulement si la serie de terme generale tk P (X = k) est absolument convergente.
Proposition 3.4.3. La fonction generatrice dune variable aleatoire X `a valeurs dans N caracterise sa loi. Autrement dit, si X et Y sont deux variables `a valeurs dans N,
GX = GY k N, P (X = k) = P (Y = k).
(3.22)
(3.23)
(3.24)
Plus generalement,
Proposition 3.4.6. Soient X1 , X2 Xn des variables aleatoires independantes, alors
GPni=1 Xi (t) =
n
Y
GXi (t).
(3.25)
i=1
24
(3.26)
Chapitre 4
Variables Al
eatoires Continues
Les variables aleatoires que nous avons etudiees jusqu`a maintenant prenaient un nombre fini
ou denombrable de valeurs. Il est tr`es souvent interessant, en particulier dans les applications
industrielles, de considerer des variables aleatoires `a valeurs continues dans un espace infini non
denombrable. Par exemple, en finance on modelise le prix dune action par une variable aleatoire
`a valeurs continues dans R+ . En physique on peu modeliser la trajectoire dune particule dans
un fluide par une variable aleatoire `a valeur dans R3 ... La definition dune variable aleatoire
continue fait appel `a des concepts abstraits avances que nous nintroduirons pas ici, nous nous
limiterons donc aux variables aleatoires absolument continues que nous pourrons definir a` partir
de leur densite.
4.1
D
efinition dune variable al
eatoire absolument continue
Definition 4.1.1. On dira quune fonction f est une densite de probabilite si elle est continue
(sauf eventuellement en un nombre denombrable de points), positive et si
Z
f (t)dt = 1
(4.1)
R
Definition 4.1.2. On appellera variable aleatoire continue X toute variable aleatoire a` valeurs
dans R, telle que pour tout x R
Z x
P (X x) =
f (t)dt
(4.2)
o`
u f est une densite de probabilite.
On dit que f est la densit
e de probabilit
e de X.
Proposition 4.1.3. Si X est de densite f ,
1. pour tout x R, P (X = x) = 0,
25
Ry
x
f (t)dt.
Exemple 4.1.5.
f (x) =
1
0
si x [0, 1]
si 0
/ [0, 1]
Il est clair que cette fonction est positive et continue sauf en 0 et en 1 cest `a dire en un nombre
denombrable de points donc la condition 1. de la Remarque precedente est verifiee. La condition
2. est egalement verifiee sans difficulte. f est donc bien une densite de probabilite. Si on cherche
a calculer la probabilite que X soit comprise entre 1/6 et 1/3, cest `a dire P (X [1/6, 1/3])
`
P (1/6 X 1/3) on doit effectuer le calcul suivant
P (X [1/6, 1/3]) =
4.2
1/3
f (t)dt =
1/6
1/3
dt = 1/6.
(4.3)
1/6
Esp
erance et variance
Dans ce paragraphe on rappelle des notions que lon a dej`a vues pour des variables aleatoires
discr`etes.
Definition 4.2.1. Soit X une variable de densite f .
1. Lesperance ou moyenne est donnee par :
Z
E(X) =
tf (t)dt,
(4.4)
t2 f (t)dt,
(4.5)
E(X ) =
(4.6)
Remarque 4.2.2. Bien entendu ces definitions sont soumises `a la condition dexistence des
integrales.
26
(4.7)
(4.8)
(4.9)
4.3
Variables al
eatoires continues usuelles
Comme pour les variables aleatoires discr`etes nous allons maintenant definir un certain
nombre de variables aleatoires continues usuelles, en tracer la densite et en donner lesperance
et la variance.
4.3.1
La loi uniforme
La loi uniforme a dej`a ete introduite dans nos differents exemples, on en donne ici une
definition un peu plus generale :
Definition 4.3.1. X suit une loi uniforme si et seulement si il existe a et b deux reels tels que
a < b, et
1
si x [a, b]
ba
f (x) =
0
si x
/ [a, b]
Le cas a = 0 et b = 1 est celui que lon a traite dans lExemple 4.14.
Proposition 4.3.2.
b+a
,
2
b2 + ab + a2
,
E(X 2 ) =
3
(b a)2
.
V ar(X) =
12
E(X) =
27
f (x)
1
2
4.3.2
La loi de Cauchy
Definition 4.3.3. X suit une loi de Cauchy si et seulement si pour tout x R sa densite f
est donnee par
f (x) =
1
(1 + x2 )
0.3
0.25
f(x)
0.2
0.15
0.1
0.05
0
6
0
x
4.3.3
La loi Normale
Definition 4.3.5. X suit une loi Normale reduite centree (X N(0, 1)) si et seulement si
pour tout x R sa densite f est donnee par
1
x2
f (x) = e 2
2
0.35
0.3
f(x)
0.25
0.2
0.15
0.1
0.05
0
6
0
x
Proposition 4.3.6. Soit X une v.a. suivant une loi normale reduite centree :
E(X) = 0,
E(X 2 ) = 1,
V ar(X) = 1.
On definit maintenant une loi normale de moyenne m et variance 2 quelconque :
Definition 4.3.7. X suit une loi normale X N(m, ) si et seulement si pour tout x R sa
densite f est donnee par
f (x) =
1
2 2
(xm)2
2 2
Sur le graphe ci-dessous on a dessine 3 densites normales de meme variance mais avec trois
moyennes differentes :
29
0.35
m=2
m=0
m=2
0.3
f(x)
0.25
0.2
0.15
0.1
0.05
0
6
0
x
Sur le graphe ci-dessous on a dessine 3 densites normales de meme moyenne mais avec trois
variances differentes :
Densite d une loi normale centree a differentes variances
0.8
0.7
sigma=0,5
sigma=1
sigma=2
0.6
f(x)
0.5
0.4
0.3
0.2
0.1
0
6
0
x
Proposition 4.3.8. Soit X une v.a. suivant une loi normale de moyenne m et de variance
2 :
E(X) = m,
E(X 2 ) = 2 + m2 ,
V ar(X) = 2 .
4.3.4
La loi exponentielle
Definition 4.3.9. X suit une loi exponentielle de param`etre ssi pour tout x R sa densite
f est donnee par
f (x) = ex 11[0,+[
30
0.5
Proposition 4.3.10. Soit X une v.a. suivant une loi exponentielle de param`etre :
1
,
2
E(X 2 ) = 2 ,
1
V ar(X) = 2 .
E(X) =
31
32
Chapitre 5
Th
eor`
emes limites
Dans ce chapitre nous allons etudier deux resultats fondamentaux en theorie des probabilites
qui sont utilises quasi systematiquement pour des probl`emes de statistiques.
5.1
Reprenons le lance dune pi`ece de monnaie equilibree. Etant donne que lon a une chance
sur deux dobtenir face lors dun lance, on a envie de dire qu`a la fin de n lances de cette
pi`ece on va obtenir, `a peu-pr`es, n/2 fois face et n/2 fois pile. Le but de cette premi`ere partie
est de montrer ce resultat est dinterpreter le terme `a peu-pr`es en terme de probabilite.
5.1.1
Moyenne empirique
n
X
Xi ,
(5.1)
i=1
(5.2)
Proposition 5.1.1. On a :
1. E(Sn ) = E(X1 ),
2. V ar(Sn ) =
var(X1 )
.
n
Exemple 5.1.2. On sinteresse ici au nombre de faces obtenues apr`es n lances dune pi`ece
equilibree. On a vu dans lExemple 3.3.4, que le nombre de faces obtenues Sn suit une loi
binomiale de param`etres 1/2 et n. Dapr`es la Proposition 3.3.3 on a : E(Sn ) = n 1/2 et
V ar(Sn ) = n/4. Par linearite de lesperance (Proposition 3.1.7), on a E(Sn ) = 1/nE(Sn ) =
33
1/2. Par la Proposition 3.2.4, 1. on a V ar(Sn ) = n12 V ar(Sn ) = 1/(4n). On remarque que lon a
bien E(Sn ) = E(X1 ) et V ar(Sn ) = V ar(X1 )/n. On remarque egalement que E(Sn ) = n/2 est
bien conforme `a notre intuition : si on a une chance sur deux dobtenir un certain resultat lors
dune experience et que lon reit`ere de mani`ere independante cette experience n fois, alors en
moyenne on obtiendra le resultat n/2 fois. En fait la Loi faible des grands nombres (paragraphe
5.2.3) nous dira que lon a plus que cela.
5.1.2
In
egalit
e de Markov et de Chebyshev
Ce paragraphe a pour but de donner les outils pour demontrer la loi faible des grands
nombres. La preuve de ce resultat dont nous donnerons la demonstration est basee sur une
inegalite tr`es utilisee en theorie des probabilite lin
egalit
e de Chebyshev.
Proposition 5.1.3. In
egalit
e de Markov Soit X une v.a. positive telle que E(X) < +,
pour tout c > 0 on a
P (X > c)
E(X)
.
c
(5.3)
Preuve
En guise dexemple et etant donne la simplicite de la preuve de cette proposition, nous en
donnons les arguments ici. On a :
X = X11Xc + X11X<c ,
(5.4)
X X11Xc .
(5.5)
(5.6)
5.1.3
V ar(X)
.
2
(5.7)
Th
eor`
eme 5.1.5. Soit (Xi , i N) une suite de variables aleatoires independantes de meme loi
telles que V ar(X1 ) < . Pour tout > 0,
lim P (|Sn E(X1 )| ) = 1.
n+
o`
u Sn a ete definie en 5.2.
34
(5.8)
Remarque 5.1.6. Ce resultat dit la chose suivante : avec une probabilite qui tend vers 1 quand
n tend vers linfini la moyenne empirique Sn des (Xi , i n) tend vers la moyenne dune des
variables Xi , qui ont toute la meme moyenne puisque de meme loi. Pour notre lance de pi`ece
cela signifie quavec une probabilite qui tend vers 1, si on fait n lances on obtiendra bien a`
peu-pr`es (`a n pr`es, o`
u est petit) n/2 fois face.
La preuve est extremement simple moyennant linegalite de Chebytshev :
Preuve
On applique linegalite de Chebytshev `a X = Sn . En utlisant la Proposition 5.2.1 on obtient :
(V ar(X1 ))2
P (|Sn E(X1 )| > )
.
n2
(5.9)
Par hypoth`ese V ar(X1 ) < +, la probablite ci-dessus tend donc vers 0 quand n tend vers
avec
linfini. Pour terminer on utilise le fait que pour tout evenement A, P (A) = 1 P (A)
A = {|Sn E(X1 )| }.
5.2
5.2.1
Th
eor`
eme de la limite centrale
Le r
esultat
Le theor`eme suivant est fondamental tant en theorie des probabilites quen statistiques. On
commence par enoncer ce theor`eme. Notons
2 V ar(X1 ),
E(X1 ).
(5.10)
(5.11)
Th
eor`
eme 5.2.1. Soit (Xi , i N) une suite de variables aleatoires independantes de meme loi
telles que 2 < . Pour tout a, b R, tels que a < b
Sn
lim P a < n
< b = P (a < Z < b),
n+
(5.12)
o`
u Sn a ete definie en 5.2 et Z N(0, 1).
On peut egalement ecrire ce resultat sous la forme :
Sn n
< b = P (a < Z < b).
lim P a <
n+
n
(5.13)
Intuitivement, ce resultat montre que pour n grand, Sn suit une loi normale N(n, n).
Ce que lon remarque est que ce resultat ne depend pas de la loi des Xi , ce resultat est donc
universel pour toute somme de variables aleatoires independantes de meme loi.
35
5.2.2
Pour terminer nous donnons les deux resultats dapproximation suivants, tr`es utilise dans les
calculs
Approximation par une loi normal
Proposition 5.2.2.
1. Soit X une variable aleatoire suivant une loi binomialep
B(n, p), si n
suffisamment grand (n > 100), np > 10 et n(1 p) > 10, alors X N(np, np(1 p)).
Approximation par une loi de Poisson
Proposition 5.2.3.
1. Soit X une variable aleatoire suivant une loi binomiale B(n, p), si
n suffisamment grand (n > 50) et p tr`es petit (np 10), alors X P (pn).
36
Deuxi`
eme partie
Statistiques
37
Chapitre 6
Introduction et lois usuelles
Le but de la statistique est de traiter des donnees (en general en grand nombre) en vue den
tirer une information utile. Ces donnees proviennent dun sondage, de mesures, etc..., et sont
donc des realisations dun phenom`ene aleatoire.
La demarche de la statistique est donc en quelque sorte linverse de celle des probabilites.
En probabilite, on se donne une variable X de loi connue P , et on tire de ce mod`ele des informations sur les realisations de cette variable (observation la plus probable, probabilite pour
quune observation soit dans un certain ensemble, ... etc).
En statistique, la donnee de base est la donnee dune realisation X de la variable aleatoire X
de loi inconnue P supposee appartenir `a un certain ensemble de probabilites. A partir dune
observation X(), on essaie davoir des informations sur la loi. Par exemple connatre le param`etre p dune loi binomiale.
La famille des lois possibles est ce que lon appelle le mod`ele statistique. Le mod`ele statistique
decrit linformation dont on dispose a priori sur le ph`enom`ene aleatoire considere et lensemble
des param`etres inconnus. Il decrit tout ce quon ignore sur le phenom`ene aleatoire.
Exemple 6.0.4. Un chimiste veut connatre la concentration en acetone dun certain produit.
Pour cela, il prel`eve dix echantillons de ce produit, dont il determine la concentration. Il obtient
ainsi dix mesures (x1 , ..., x10 ) probablement differentes de , chaque dosage etant entache
derreurs. Il a donc observe le vecteur aleatoire X = (X1 , ,X10 ) avec Xi = + i , o`
u i
represente les erreurs de dosage. Il dispose des informations a priori suivantes :
la loi de chaque i est independante de (les erreurs de dosage ne dependent pas de la
concentration du produit) ;
les variables aleatoires i sont independantes (les erreurs de mesure faites lors dun dosage
ne se repercutent pas sur les dosages suivants) ;
les i ont meme loi (la methode de dosage utilisee est toujours la meme) ;
la moyenne des i est nulle (la methode de dosage nintroduit pas une erreur systematique) ;
la variance 2 des i est connue (on connat la precision de la methode de dosage utilisee).
Il suppose de plus que la loi commune des i est la loi normale (de moyenne , et de variance
2 ). Cette hypoth`ese peut se justifier par le Theor`eme de la Limite Centrale, si lon consid`ere
que les erreurs de dosage proviennent de laccumulation dun grand nombre de petites erreurs
39
6.1
Loi du Chi-deux `
a n degr
es de libert
e (2n)
Cette loi joue un role important dans les tests statistiques et lestimation de la variance.
Soit n N
Definition 6.1.1. Soient X1 , X2 , , Xn , n variables aleatoires independantes de meme loi
normale centree reduite X1 N(0, 1) alors
n
X
i=1
Xi2 2n
Remarque 6.1.2.
Une variable aleatoire suivant une loi du 2n est toujours positive. La densite de cette loi est
donnee par
f2n (x) = cn xn/21 exp(x/2)
R +
o`
u cn est telle que 0 f2n (x)dx = 1.
On donne maintenant quelques proprietes :
6.2
Loi de Student `
a n degr
es de libert
e (stn)
Elle joue un role important dans lestimation par intervalle de confiance. Elle est symetrique,
de moyenne nulle et de param`etre n qui est aussi appele nombre de degres de liberte. Le graphe
de la densite de cette loi depend du param`etre n, il est en general plus aplati que celui dune
loi normale N(0, 1).
40
Remarque 6.2.2.
La densite de cette loi est donnee par
o`
u cn est telle que
R +
X
Z=p
stn .
Y /n
(n+1)/2
fstn (x) = cn 1 + x2 /n
fstn (x)dx = 1.
41
42
Chapitre 7
Estimateurs, vraisemblance
Soit X une variable aleatoire dont la loi L est fonction dun param`etre , soit (X1 , X2 , , Xn )
un echantillon de X, cest `a dire une suite de variables aleatoires independantes et ayant la
meme loi que X. n est la taille de lechantillon, n N. Enfin notons (x1 := X1 (), x2 :=
X2 (), , xn := Xn ()) une realisation de la suite (X1 , X2 , , Xn ).
7.1
D
efinition dun estimateur et ses propri
et
es
Definition 7.1.1. Un estimateur de est une certaine fonction, notee Kn , des variables
aleatoires (X1 , X2 , , Xn ).
Remarque 7.1.2. On peut avoir plusieurs estimateurs pour un meme param`etre. On appelle
erreur destimation la difference Kn .
Ci-dessous on donne quelques proprietes possibles pour un estimateur :
Definition 7.1.3.
2)
3)
4)
5)
7.2
On suppose que X suit une loi normale de moyenne E(X) = et de variance V ar(X) = 2 .
43
7.2.1
Estimateur de
X
n := 1
X
Xi ,
n i=1
(7.1)
1X
xi .
xn =
n i=1
Proposition 7.2.2.
n ) = , V (X
n) = 1 2.
E(X
n
7.2.2
Estimateurs de 2
Tn2
1X
:=
(Xi )2 ,
n i=1
(7.2)
t2n
1X
=
(xi )2 .
n i=1
Sn2
1X
n )2 ,
=
(Xi X
n i=1
44
(7.3)
s2n
Proposition 7.2.8.
1X
(xi xn )2 .
=
n i=1
n1 2
.
n
Exemple 7.2.9. Montrer la propriete precedente.
E(Sn2 ) =
Il y a un second estimateur que lon peut egalement utiliser pour 2 , sa definition est donnee
par
Sn2 =
n
S2,
n1 n
(7.4)
cet estimateur est utilise en general si n est petit. On a alors le resultat suivant :
Proposition 7.2.11. Sn2 est un estimateur sans biais de 2 .
Ce resultat se deduit directement
ete 7.2.8.
q de la Propri
q
n
2
Notation : on notera Sn := Sn et sn := n1
s2n .
7.3
Pour ce paragraphe on suppose que X suit une loi de Bernoulli de param`etre p ainsi (Xi
B(p), i n), le param`etre `a estimer est alors p. Le resultat est le suivant
7.4
n
Y
i=1
f (xi , ),
(7.5)
n
Y
P (X = xi ),
(7.6)
i=1
7.4.1
(7.7)
Loi normale
Soit X une v.a. suivant une loi normale N(, ), (X1 , X2 , , Xn ) une suite dobservations
i.i.d. de meme loi que X, on a
Proposition 7.4.2. Lestimateur du maximum de vraisemblance de est donne par
Pn
= i=1 Xi .
M
n
Exemple 7.4.3. Montrer la proposition.
7.4.2
Loi de poisson
Soit X une v.a. suivant une loi normale P (), (X1 , X2 , , Xn ) une suite dobservations
i.i.d. de meme loi que X, on a
Proposition 7.4.4. Lestimateur du maximum de vraisemblance de est donne par
Pn
= i=1 Xi .
M
n
Exemple 7.4.5. Montrer la proposition.
7.4.3
Loi binomiale
Soit X une v.a. suivant une loi binomiale B(n, p), (X1 , X2 , , Xn ) une suite dobservation
i.i.d. de meme loi, et X1 suivant une loi de Bernoulli de param`etre p , on a
Proposition 7.4.6. Lestimateur du maximum de vraisemblance de p est donne par
Pl
p = i=1 Xi .
M
n
Exemple 7.4.7. Montrer la proposition.
46
Chapitre 8
Intervalles de confiance
Les estimateurs definis au chapitre precedent, peuvent servir `a donner une estimation ponctuelle du param`etre que lon cherche `a estimer. Il suffit pour cela de calculer une realisation
de ces estimateurs. Cependant il nest pas tr`es realiste de donner une unique valeur pour le
param`etre que lon cherche `a estimer. On va donc definir un intervalle de confiance. Dans ce
chapitre nous garderons les memes notations que dans le chapitre precedent.
Definition 8.0.8. On appelle Intervalle de confiance pour le param`etre de niveau 1 (ou
de seuil ), un intervalle qui a la probabilite 1 de contenir la vraie valeur de .
En quelque sorte, I1 est un intervalle de confiance (de niveau 1 ) pour si
P ( I1 ) = 1 .
On peut dej`a faire la remarque suivante :
Remarque 8.0.9. Plus le niveau de confiance est eleve, plus la certitude est grande sur le fait
que I1 . Nous verrons quen contre-partie plus 1 sapproche de 1 plus lintervalle de
confiance est grand, ce qui donne un resultat plus s
ur mais moins precis.
Nous allons maintenant donner des intervalles de confiance pour les param`etres de certaines
lois usuelles que lon a vues dans le cours de probabilite. On utilisera labreviation I.C. pour
intervalle de confiance.
8.1
8.1.1
On distingue plusieurs cas, suivant si n est grand ou petit et est connu ou pas.
Cas connu
n N(, /n) ou encore Z :=
On sait dans ce cas que X
resultat suivant :
47
n
X
/ n
n + u1/2 ,
I1 = xn u1/2 , x
n
n
(8.1)
n.
o`
u u1/2 est lunique reel qui verifie P [|Z| u1/2 ] = 1 et xn une realisation de X
On peut interpreter I1
de la facon suivante : avec une probabilite de 1 , le param`etre
P Xn u1/2 Xn + u1/2 = 1 ,
n
n
ou encore `a celle-ci :
n + u1/2
n u1/2 , X
= 1 .
P X
n
n
i
h
n + u1/2 a` lI.C donne par 8.13
n u1/2 , X
On passe alors de lintervalle aleatoire X
n
n
n
X
stn1 ,
Sn / n 1
(8.3)
I1 = xn stn1 ()
,x
n + stn1 ()
,
n1
n1
(8.4)
n.
o`
u stn1 () est lunique reel qui verifie P [|Z | stn1 ()] = 1 et xn une realisation de X
48
Cas inconnu, n grand Si n est grand alors dapr`es la Propriete 1.2.3 du chapitre 1, on peut
se passer de la loi de Student et faire une approximation par la loi normale, on obtient alors
Proposition 8.1.3. Lintervalle de confiance pour de niveau 1 est donne par :
sn
sn
I1 = xn u1/2 , x
n + u1/2 ,
n
n
(8.5)
n.
o`
u u1/2 est lunique reel qui verifie P [|Z| u1/2 ] = 1 et xn une realisation de X
8.1.2
On distingue 2 cas, suivant si est connue ou pas. Notons que dans la realite le cas o`
u
est connue est inexistant.
Cas connue Pour donner un intervalle de confiance pour il faut un estimateur, etant
P
connu on utilise Tn2 = n1 ni=1 (Xi )2 definie au chapitre 7. On sait dapr`es le chapitre 1 que
Z :=
nTn2
2n .
2
(8.6)
(8.7)
o`
u kn (1 /2) est lunique reel qui verifie P [Z kn (1 /2)] = 1 /2, kn (/2) est lunique
reel qui verifie P [Z kn (/2)] = /2 et t2n une realisation de Tn2 .
Preuve
h
i
2
nTn2
n
On cherche un intervalle I kn (1/2)
, tel que
, knnT
(/2)
P 2 I = 1 .
(8.8)
(8.9)
(8.10)
Cas inconnue Pour donner un intervalle de confiance pour il faut un estimateur, etant
P
n )2 definie au chapitre 7. On sait dapr`es les chapitres 6
connu on utilise Sn2 = n1 ni=1 (Xi X
et 7 que
Z :=
nSn2
2n1 .
2
(8.11)
8.2
Dans cette section on suppose que Xi B(p). Pour lintervalle de confiance suivant, il faut
que les conditions de la Proposition (du cours de Probabilites) soient verifiees :
Proposition 8.2.1. Si n 100, np > 10 et n(1 p) > 10, alors lintervalle de confiance pour
p de niveau 1 est donne par :
"
#
r
r
xn (1 xn )
xn (1 xn )
p
I1 = xn u1/2
,
(8.13)
,x
n + u1/2
n
n
n,
o`
u u1/2 est lunique reel qui verifie P [|Z| u1/2 ] = 1 et xn une realisation de X
(Z N(0, 1)).
Preuve
Laissee en exercice.
50