Sunteți pe pagina 1din 4

Probabilités et inférence statistique: partie 1

Formulaire

1 Probabilités

Pn n n n!
Binôme de Newton : (x + y)n = xk y n−k , où
 
k=0 k k = k!(n−k)! .

Formule de probabilité totale : si B1 , . . . , Bk ∈ A forment une partition de Ω et que P [Bi ] 6= 0 ∀i, alors
P [A] = ki=1 P [A|Bi ]P [Bi ].
P

Formule de Bayes : si B1 , . . . , Bk ∈ A forment une partition de Ω et que P [A] 6= 0 et P [Bi ] 6= 0 ∀i, alors
P [Bj |A] = P [A|Bj ]P [Bj ]/( ki=1 P [A|Bi ]P [Bi ]) pour tout j = 1, . . . , k.
P

2 Variables aléatoires

La fonction de répartition F d’une variable aléatoire X est définie par F (x) = P [X ≤ x]. On a P [a < X ≤
b] = F (b) − F (a), P [X > a] = 1 − F (a) et P [X = x] = F (x) − F (x− ), où F (x− ) = lim z<x F (z).
z→x

P
(i) Si la v.a. X est discrète, de distribution (xi , pi = P [X = xi ]), i ∈ I, E[g(X)] = i∈I g(xi )pi .
R∞
(ii) Si la v.a. X est continue, et admet la fonction de densité f , E[g(X)] = −∞ g(x) f (x)dx.

Soit k ∈ {1, 2, . . .}
Le moment non centré d’ordre k de X est µ′k,X = E[X k ].
Le moment centré d’ordre k de X est µk,X = E[(X − µ′1,X )k ].
La moyenne (ou espérance mathématique) de X est µX = µ′1,X = E[X].
La variance de X est σX 2 = Var[X] = E[(X − µ )2 ] = E[X 2 ] − (µ )2 .
X X
3/2
Le coefficient d’asymétrie de X est γ1,X = µ3,X /(µ2,X ) = µ3,X /σX 3 .

Le coefficient d’aplatissement de X est γ2,X := (µ4,X /(µ2,X )2 ) − 3 = (µ4,X /σX


4 ) − 3.

La fonction génératrice des moments de X est t → M (t) = E[etX ].

Inégalité de Tchebychev : ∀a > 0, P [|X − µX | > a σX ] ≤ 1/a2 .

1
X est de distribution de Bernoulli de paramètre p(∈ [0, 1]) (notation : X ∼ Bern(p)) si X peut prendre les
valeurs 0 et 1, avec P [X = k] = pk (1 − p)(1−k) , où k ∈ {0, 1}. Dans ce cas, E[X] = p, Var[X] = p(1 − p) et
M (t) = 1 − p + pet .

X est de distribution binomiale de paramètres n (∈ N0 ) et p (∈ [0, 1]) (notation : X ∼ Bin(n, p)) si X peut
prendre les valeurs 0, 1, . . . , n − 1, n, avec P [X = k] = nk pk (1 − p)n−k , où k ∈ {0, 1, . . . , n − 1, n}. Dans


ce cas, E[X] = np, Var[X] = np(1 − p) et M (t) = (1 − p + pet )n .

X est de distribution de Poisson de paramètre λ (∈ R+ 0 ) (notation : X ∼ Poi(λ) ou X ∼ P(λ)) si X peut


prendre les valeurs 0, 1, 2, . . ., avec P [X = k] = e λk /(k!), où k ∈ {0, 1, 2, . . .}. Dans ce cas, E[X] = λ,
−λ
t
Var[X] = λ et M (t) = eλ(e −1) .

X est de distribution géométrique de paramètre p (∈ (0, 1)) (notation : X ∼ Geom(p)) si X peut prendre les
valeurs 1, 2, . . ., avec P [X = k] = (1 − p)k−1 p, où k ∈ {1, 2, . . .}. Dans ce cas, E[X] = 1/p, Var[X] =
(1 − p)/p2 et M (t) = pet /(1 − (1 − p)et ).

X est de distribution uniforme sur (a, b) (−∞ < a < b < ∞) (notation : X ∼ Unif(a, b)) si X admet la
1
fonction de densité x 7→ f (x) = b−a pour x ∈ (a, b) (et f (x) = 0 ailleurs). Dans ce cas, E[X] = (a + b)/2,
Var[X] = (b − a) /12 et M (t) = (e − eta )/(t(b − a)) pour t 6= 0 (et M (0) = 1).
2 tb

X est de distribution exponentielle de paramètre λ (∈ R+0 ) (notation : X ∼ Exp(λ)) si X admet la fonction


1 −x/λ
de densité x 7→ f (x) = λ e pour x ≥ 0 (et f (x) = 0 ailleurs). Dans ce cas, E[X] = λ, Var[X] = λ2 et
M (t) = 1/(1 − λt).

X est de distribution normale de paramètres µ (∈ R) et σ 2 (∈ R+ 2


0 ) (notation : X ∼ N (µ, σ )) si X admet la
(x−µ)2 1 2 t2
densité x 7→ f (x) = σ1 ϕ( x−µ
σ )=
√ 1 e− 2σ 2 . Dans ce cas, E[X] = µ, Var[X] = σ 2 et M (t) = eµt+ 2 σ .
2πσ2

X est de distribution lognormale de paramètres µ (∈ R) et σ 2 (∈ R+ 2


0 ) (notation : X ∼ LN (µ, σ )) si ln X ∼
((ln x)−µ)2
N (µ, σ 2 ). Dans ce cas, la fonction de densité de X est x 7→ f (x) = √1 e− 2σ 2 pour x ≥ 0 (et
x 2πσ2
2
µ+ σ2 σ2 2µ+σ2
f (x) = 0 ailleurs), E[X] = e et Var[X] = (e − 1)e .

X est de distribution de Student à ν degrés de liberté (ν ∈ N0 ) (notation : X ∼ tν ) si X admet la fonction de


densité x 7→ f (x) = Γ((ν+1)/2)

Γ(ν/2) νπ
(1 + x2 /ν)−(ν+1)/2 . Dans ce cas, E[X] = 0 pour ν > 1 et Var[X] = ν/(ν − 2)
pour ν > 2.

X est de distribution chi-carré à k degrés de liberté (k ∈ N0 ) (notation : X ∼ χ2k ) si X admet la fonction


k k
de densité x 7→ f (x) = (2 2 Γ( k2 ))−1 x 2 −1 e−x/2 pour x ≥ 0 (et f (x) = 0 ailleurs), où x 7→ Γ(x) =
R ∞ x−1 −t
0 t e dt. Dans ce cas, E[X] = k, Var[X] = 2k et M (t) = (1 − 2t)−k/2 pour t < 21 .

X est de distribution de Fisher-Snedecor (F) à k1 et k2 degrés de liberté (k1 , k2 ∈ N0 ) (notation : X ∼ Fk1 ,k2 )

2
r
k2
(k x)k1 k
si X admet la fonction de densité x 7→ f (x) = (x B( k21 , k22 ))−1
1 2
(k1 x+k2 )k1 +k2
pour x ≥ 0 (et f (x) = 0
R 1 x−1
ailleurs), où (x, y) 7→ B(x, y) = 0 t (1 − t)y−1 dt. Dans ce cas, E[X] = k2k−2 2
pour k2 > 2 et Var[X] =
2k22 (k1 +k2 −2)
k1 (k2 −2)2 (k2 −4)
pour k2 > 4.

3 Vecteurs aléatoires

La fonction de répartition F d’un vecteur aléatoire (X, Y ) est définie par F (x, y) = P [X ≤ x, Y ≤ y]. On a
P [a1 < X ≤ b1 , a2 < Y ≤ b2 ] = F (b1 , b2 ) − F (a1 , b2 ) − F (b1 , a2 ) + F (a1 , a2 ).

(i) Si le v.a. (X, Y ) est discret, de distribution (xi , yj , pij = P [X = xi , Y = yj ]), i ∈ I, j ∈ J :

X X
pi• := P [X = xi ] = P [(X, Y ) = (xi , yj )] = pij
j∈J j∈J
X X
p•j := P [Y = yj ] = P [(X, Y ) = (xi , yj )] = pij
i∈I i∈I
XX
E[g(X, Y )] = g(xi , yj )pij
i∈I j∈J
X
E[g(X, Y )|X = xi ] = g(xi , yj )P [Y = yj |X = xi ]
j∈J

(ii) Si le v.a. (X, Y ) est continu, et admet la fonction de densité (x, y) 7→ f (x, y) :
Z ∞
f X (x) = f (x, y) dy
−∞
Z ∞
f Y (y) = f (x, y) dx
−∞
Z ∞ Z ∞
E[g(X, Y )] = g(x, y) f (x, y) dy dx
−∞ −∞
Z ∞
E[g(X, Y )|X = x] = g(x, y) f Y |[X=x] (y) dy
−∞

E[E[Y |X]] = E[Y ]


E[Var[Y |X]] = Var[Y ] − Var[E[Y |X]]

2
La covariance entre X et Y est σXY = Cov[X, Y ] = E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X]E[Y ].
Var[X + Y ] = Var[X] + Var[Y ] + 2 Cov[X, Y ]
Si X ⊥⊥ Y , Cov[X, Y ] = 0

3
Cov[X, Y ]
La corrélation entre X et Y est ρXY = Corr[X, Y ] = p p .
Var[X] Var[Y ]

La fonction de régression mreg , qui minimise l’erreur quadratique moyenne E[(Y − m(X))2 ], est donnée par
x 7→ mreg (x) = E[Y |X = x], et E[(Y − mreg (X))2 ] = E[Var[Y |X]].

La fonction de régression linéaire mreglin , qui minimise l’erreur quadratique moyenne E[(Y − m(X))2 ] parmi
les fonctions de la forme x 7→ m(x) = αx + β, est donnée par x 7→ mreglin (x) = ρXY σσX Y
x + µY − αXY µX .

Le v.a. Z = (X, Y ) est de loi normale bivariée de paramètres µ1 , µ2 , σ12 , σ22 , ρ si Z admet la fonction de densité

(x − µ1 )2 (x − µ1 ) (y − µ2 ) (y − µ2 )2
 
1
1 − − 2ρ +
f (x, y) = p
2
e 2(1 − ρ ) σ12 σ1 σ2 σ22 .
2πσ1 σ2 1 − ρ2
Ici, µ1 = E[X], µ2 = E[Y ] ∈ R, σ12 = Var[X], σ22 = Var[Y ] ∈ R+ 0 , et ρ = Corr[X, Y ] ∈ (−1, 1).
Si (X, Y ) est un vecteur aléatoire de loi normale, alors X ⊥⊥ Y ⇔ Cov[X, Y ] = 0.

S-ar putea să vă placă și