Documente Academic
Documente Profesional
Documente Cultură
DE
STATISTIQUES
INFERENTIELLES.
DESIGNATION PAGE
INTRODUCTION 3
I. RAPPELS D’ELEMENTS D’INDUCTION STATISTIQUE 5
I.1. Echantillon d’une variable aléatoire 5
I.2. Loi du Khi-Deux 6
I.3. Loi de Fischer Snedecor 7
I.4. Loi de Student. 7
II. ESTIMATIONS STATISTIQUES 10
II.1. Définitions 11
II.2. Propriétés relatives aux échantillons de petites tailles 11
II.3. Propriétés relatives aux échantillons de grandes tailles 13
II.4. Estimation par la méthode du maximum de vraisemblance 14
II.5. Estimation par intervalles 16
III. TESTS D’HYPOTHESE 19
III.1. Définitions 19
III.2. Evaluation du test 21
III.3. Types d’erreurs de décision 22
III.4. Courbe caractéristique d’efficacité, puissance d’un test 24
III.5. Tests entre hypothèses simples : méthode de NEYMAN et
PEARSON 26
BIBLIOGRAPHIE 28
2
INTRODUCTION
La statistique descriptive selon Wikipédia est la branche des
statistiques qui regroupe les nombreuses techniques utilisées pour décrire un
ensemble relativement important de données.
1
JM GANKOU et R. NANTCHOUANG
3
La statistique descriptive est une méthode de description et non une théorie. Elle
permet de décrire et non d’expliquer. On parle de statistiques uni variées pour
lesquelles un ensemble de variables (couleur des yeux) peuvent être observées dans
une population (ensemble d’individus) et, de statistiques bi variées lorsque deux
variables statistiques (x et y) sont définies sur un ensemble Ω. L’intérêt de cette étude
est de savoir si on peut expliquer y par x.
Dans le souci d’avoir les informations sur les individus que constituent la population
d’un pays par exemple, les administrateurs ont ressenti la nécessité de connaitre les
caractéristiques qui leurs sont propres. C’est ainsi que la statistique connue
auparavant comme « arithmétique d’Etat » est née et trouve sa justification actuelle.
De nos jours, le champ d’application de la statistique a largement dépassé ce stade,
mais son objet est resté fondamentalement le même : décrire par rapport à un
ensemble de caractéristiques, une population ou un échantillon précis. Il s’agira de
construire des groupes (population, échantillon) homogènes à partir des valeurs
observées de critères, puis de dénombrer chacun de ces groupes. Nous faisons
allusion ici à une méthodologie élaborée à travers des modèles statistiques qui, par
une formalisation, permettra de préciser les concepts, leur notation, les calculs
possibles et leurs propriétés.
4
I. RAPPEL D’ELEMENTS D’INDUCTION STATISTIQUE
En fait, l’on étudie ces conclusions dans le but d’en fournir une formulation appropriée.
De ce fait, la démarche analytique implique :
L’observation des structures dans leur globalité est souvent couteuse. On cherchera
ainsi à étudier des sous-ensembles des unités les composant c'est-à-dire des
échantillons aux fins de caractériser ces structures. On aura aussi à définir et à étudier
les échantillons d’une variable aléatoire pour laquelle il est nécessaire de connaitre la
loi de probabilité.
Echantillon de taille n :
Soit donnée une population comprenant un nombre fini noté n d’éléments que l’on
étudie relativement à un caractère mesurable réel X. La spécification de la proportion
𝐹(𝑥), 𝑥 𝜖ℝ des éléments pour lesquels 𝑋 < 𝑥. Cette spécification permet de déterminer
sans ambiguïté la population à étudier.
5
On définit une expérience 𝜀 consistant au choix au hasard d’un élément de l’ensemble.
1
Si on veut caractériser la variance qui est inconnue, alors elle s’écrit 𝜎̂ 2 = 𝑛 ∑(𝑥𝑖 − 𝜇)2
̂2
𝑛𝜎 ∑(𝑥𝑖 −𝑥̅ )2 2
La variable associée sera définie par = ~𝒳𝑛−1
𝜎2 𝜎2
2
Et, 𝑉𝑎𝑟(𝒳𝑛2 ) = ∫𝑅∗ (𝑈 − 𝐸(𝑈)) 𝑓(𝑈)𝑑𝑈 = 2𝑛
+
6
La somme de variable de 𝒳 2 définit une variable de 𝒳 2 , et le degré de liberté
𝒳𝑛2 −𝑛
Pour Paul LEVY, lorsque 𝑛 → ∞, alors ~𝒩(0,1) et, l’approximation
√2𝑛
𝑄 /𝑣
𝐹 = 𝑄1 /𝑣1 suit une loi de Fischer-Snedecor à
2 2
b)- Caractéristiques :
La fonction de la loi 𝐹(𝑣1 , 𝑣2 ) est :
𝑣 +𝑣 𝑣1
Γ( 1 2 2 ) 𝑣 𝑥 2
−1
f(x) = 𝑣 𝑣 ( 1 )𝑣1 /2 𝑣1+𝑣2 𝑠𝑖 𝑥 > 0 (0 𝑠𝑖𝑛𝑜𝑛)
Γ( 21 )Γ( 22 ) 𝑣2 𝑣
(1+𝑣1 𝑥) 2
2
Espérance mathématique :
𝑣1
Son espérance n’existe que si 𝑣2 ≥ 3 𝑒𝑡 𝑣𝑎𝑢𝑡 , . Sa variance n’existe que si
𝑣2 −2
𝑆𝑖 𝑇 𝑠𝑢𝑖𝑡 𝑢𝑛𝑒 𝑙𝑜𝑖 𝑑𝑒 𝑆𝑡𝑢𝑑𝑒𝑛𝑡 à 𝑣 𝑑𝑒𝑔𝑟é𝑠 𝑑𝑒 𝑙𝑖𝑏𝑒𝑟𝑡é 𝑎𝑙𝑜𝑟𝑠 𝑇 2 𝑠𝑢𝑖𝑡 𝑢𝑛𝑒 𝑙𝑜𝑖 𝑑𝑒 𝐹𝑖𝑠𝑐ℎ𝑒𝑟 𝐹(1, 𝑣).
7
Soient 𝑍 𝑒𝑡 𝑄 deux variables aléatoires indépendantes telles que 𝑍 suit 𝒩(0,1) et
𝑄 suit 𝒳 2 (𝑣). Alors la variable aléatoire.
𝑍
𝑇= suit une appelée 𝒍𝒐𝒊 𝒅𝒆 𝑺𝒕𝒖𝒅𝒆𝒏𝒕 à 𝒗 𝒅é𝒈𝒓é𝒔 𝒅𝒆 𝒍𝒊𝒃𝒆𝒓𝒕é, 𝒏𝒐𝒕é𝒆 𝑺𝒕(𝒗).
√𝑄/𝑣
8
Remarque : pour 𝑣 = 1, la loi de Student s’appelle loi de Cauchy, ou loi de Lorentz.
Contrairement à la loi normale centrée réduite, la loi de Student dépend du nombre de
degré de liberté. En outre, c’est une loi exacte c’est-à-dire une loi non asymptotique.
Cette loi est utilisée dans la théorie des tests et d’estimation dans l’analyse des petits
échantillons.
9
II. ESTIMATIONS STATISTIQUES
Par meilleur, l’on veut dire une estimation qui satisfait à des propriétés dites optimales
à savoir :
10
II.1. Définition :
11
∑𝑋 1
En effet, 𝐸 (𝑋̅) = 𝐸 ( 𝑖 ) = ∑ 𝐸(𝑥𝑖 ). Or, les 𝑥𝑖 sont les variables aléatoires
𝑛 𝑛
1 1
̅) =
de même loi que X de la sorte que, 𝐸(𝑋 ∑ 𝜇 = 𝑛𝜇 = 𝜇, (𝑐𝑞𝑓𝑑)
𝑛 𝑛
∑(𝑋𝑖 −𝑋̅)
TAF : Vérifions aussi que 𝑆 2 = est un estimateur sans biais, c’est-à-dire
𝑛−1
𝐸(𝑆 2 ) = 𝜎 2 ?
(𝑛−1) (𝑛−1) 𝑛
𝐸[ 𝑆 2 ] = 𝑛. Soit en principe 𝐸(𝑆 2 ) = 𝑛, ⟹ 𝐸(𝑆 2 ) = 𝜎2 ≠ 𝜎2
𝜎2 𝜎2 𝑛−1
ESTIMATEUR EFFICACE :
D’un point de vue d’une grandeur relative, un estimateur est dit efficace s’il est parmi
les estimateurs sans biais, celui qui a la plus petite variance.
On parle aussi de risque lors des comparaisons d’estimateurs. On peut comparer aussi
bien des estimateurs sans biais que des estimateurs avec biais. On note :
Si l’on définit deux estimateurs 𝜃̂1 𝑒𝑡 𝜃̂2 sous la base du risque, on dira
ESTIMATEUR OPTIMAL
12
𝜃̂ 𝑒𝑠𝑡 𝑝𝑟é𝑓é𝑟é à 𝜃̃ au sens de la variance si l’on vérifie que 𝑉𝑎𝑟(𝜃̂) ≤ 𝑉𝑎𝑟(𝜃̃ ), ∀𝜃. Un
tel estimateur n’est pas nécessairement efficace. Mais si un estimateur sans biais est
optimal, alors il est unique et est efficace.
ESTIMATEUR BLUE :
L’estimateur asymptotiquement sans biais est un estimateur pour lequel on vérifie que,
pour 𝑛 → ∞, 𝑎𝑙𝑜𝑟𝑠 𝑙𝑖𝑚[𝐸(𝜃̂) − 𝜃] → 0. C'est-à-dire dont le biais s’annule à la limite.
∑(𝑋𝑖 −𝑋̅) 2 𝑛 𝑛
𝑆2 = ⟹ 𝐸(𝑆 2 ) = 𝜎 2 𝑙𝑜𝑟𝑠𝑞𝑢𝑒 𝑛 ⟶ ∞, 𝑒𝑡 ⟶ 1 ⟹.
𝑛−1 𝑛−1 𝑛−1
𝐿𝐼𝐶𝑅
𝑙𝑜𝑟𝑠𝑞𝑢𝑒 𝑛 ⟶ ∞, 𝑎𝑙𝑜𝑟𝑠 = 1.
𝑉𝑎𝑟
13
Estimateur convergent :
La condition nécessaire mais non suffisante est donnée par lim 𝐸𝑄𝑀(𝜃̂) = 0.
𝑛→∞
Remarques :
𝑒 −(𝑥−𝜃)
Exemple : considérons donnée une variable et 𝑓(𝑥, 𝜃) = { , 𝑥 ≥ 𝜃.
0, 𝑠𝑖𝑛𝑜𝑛.
𝜕𝑙𝑜𝑔𝐿 𝜕2 𝑙𝑜𝑔𝐿
La dérivée première = 𝑛, 𝑒𝑡 𝑙𝑎 𝑑é𝑟𝑖𝑣é𝑒 𝑠𝑒𝑐𝑜𝑛𝑑𝑒 = 0.
𝜕𝜃 𝜕𝜃2
∑(𝑥 −𝑥̅ )2 ̂2
𝑛𝜃
𝜃̂ 2 = 𝑖 . La variable associée 2
~𝒳(𝑛−1) .
𝑛 𝜃2
14
̂2
𝑛𝜃 𝑛−1
Aussi, on détermine : 𝐸 (
𝜃2
) = 𝑛 − 1 ⟹ 𝐸(𝜃̂ 2 ) = 𝑛 𝜃̂ 2 ≠ 𝜃̂ 2 ⟹ on a un
estimateur qui est biaisé. (Cas de petits échantillons)
Exemple :
𝑒 −𝜃 𝜃𝑥
𝑓(𝑥, 𝜃) = , 𝑥 ≥ 𝑂, 𝜃 ≥ 0.
𝑥!
𝑒 −𝑛𝜃 𝜃∑ 𝑥𝑖
𝐿(𝑥, 𝜃) = ∏𝑛𝑖=1 𝑓(𝑥𝑖 , 𝜃) = ∏𝑛 𝑥𝑖 !
15
𝜕𝑙𝑜𝑔𝐿 ∑ 𝑥𝑖 1
= 0 ⟹ −𝑛 + ̂ = 0, 𝑙 ′ 𝑜𝑛 𝑡𝑖𝑟𝑒 𝑞𝑢𝑒 𝜃̂ = ∑ 𝑥𝑖 = 𝑥̅ .
𝜕𝜃2 𝜃 𝑛
𝜕2 log 𝐿 ∑ 𝑥𝑖 𝑛
𝜕𝜃2
=
𝜃2
( 𝜃 = 𝜃̂) = − 𝑥̅ < 0.
1 1
𝑉𝑎𝑟𝜃̂𝑖 ≥ =
𝜕𝑙𝑜𝑔𝑓(𝑥𝑖 , 𝜃) 2 𝜕𝑙𝑜𝑔𝑓(𝑥𝑖 , 𝜃)
𝐸( ) −𝐸( )
𝜕𝜃 𝜕𝜃 2
16
Généralement, l’on se fixe un niveau de confiance, lequel permet d’évaluer la marge
d’erreur et cela étant donné la distribution d’échantillonnage de la statistique
considérée.
La construction de ces intervalles peut être illustrée à l’aide des deux exemples
suivants :
∑𝑥
Soit la statistique 𝑋̅ = 𝑛 𝑖 . On suppose 𝜎 2 connu et fini donc, la statistique suit une loi
𝜎2
normale. Donc, 𝒳~𝒩 (𝜇, ). En effet, il nous faut une fonction pivotante d’abord pour
𝑛
(𝑋̅−𝜇)√𝑛
𝑃 [−𝑍𝛼/2 ≤ ≤ 𝑍𝛼/2 ] ≃ 1 − 𝛼 , soit par réarrangement :
𝜎
𝜎 𝜎
𝑃 [𝑋̅ − 𝑍𝛼/2 ≤ 𝜇 ≤ 𝑋̅ + 𝑍𝛼/2 ] ≃ 1 − 𝛼, et l’intervalle de confiance est
√𝑛 √𝑛
𝜎 𝜎
𝐼𝐶 = 𝑋̅ ± 𝑍𝛼/2 , et le terme d’erreur 𝜀 = 𝑍𝛼/2 .
√𝑛 √𝑛
17
Exemple 2 : IC de la variance d’une loi normale 𝒩(𝜇, 𝜎 2 )
1
Soit la moyenne : ∑ 𝑥𝑖 = 𝑋̅ . 𝑒𝑡 la variance inconnue ; alors, l’estimateur ponctuel
𝑛
1 (𝑛−1)𝑆 2 (𝑛−1)𝑆 2
centré 𝑆 2 = 𝑛 ∑(𝑥𝑖 − 𝑋̅)2 et 2
~ 𝒳(𝑛−1) . La pivotale appropriée ici est si
𝜎2 𝜎2
𝛼 se distribue équitablement.
𝛼 𝛼
𝛼1 = 𝛼2 =
2 2
𝑋12 𝑋22
(𝑛−1)𝑆 2
La confiance s’exprime par : 𝑃 [𝒳12 ≤ ≤ 𝒳22 ] = 1 − 𝛼. Le réarrangement
𝜎2
(𝑛−1)𝑆 2 (𝑛−1)𝑆 2
conduit à : 𝑃 [ ≤ 𝜎2 ≤ ] = 1 − 𝛼.
𝒳12 𝒳22
18
III. TESTS D’HYPOTHESES
Les hypothèses peuvent être émises par rapport aux paramètres de population. Le
test est dans ce cas dit « test paramétrique ».
Lorsque les hypothèses sont émises par rapport à la forme des distributions de
population, l’analyse porte sur des « tests non paramétriques ».
La démarche analytique des tests suppose que l’on teste 𝐻0 par rapport à une
alternative. Ceci nous amène à spécifier une hypothèse alternative que l’on notera 𝐻1 :
Exemple :
Supposons qu’une entreprise qui reçoit d’un fournisseur un lot de pièces qui doivent
respecter des normes définies. Suivant qu’une pièce satisfait ou non aux normes, elle
pourra être classée sans ambiguïté en pièces « bonnes » ou pièces « défectueuses ».
Sachant tout le soin apporté par le fournisseur, le client ne peut pas raisonner que
toutes les pièces soient bonnes. Ainsi, est-il disposé à accepter le lot si 𝜋, la proportion
de pièces défectueuses n’excède pas un seuil de tolérance noté 𝜋0 .
19
𝐻0 : 𝜋 = 𝜋0 → 𝑑é𝑐𝑖𝑠𝑖𝑜𝑛 0(𝐷0 ) : accepter le lot
Une hypothèse H est dite simple si elle porte sur un seul élément 𝜃 de l’ensemble de
tous les paramètres de la population ou alors elle caractérise la distribution donnée en
termes d’un seul nombre, sinon l’hypothèse est dite composite ou multiple.
Exemple :
𝜋 ≤ 𝜋0
Alors que : { 𝜇 > 𝜇0 expriment des hypothèses multiples.
𝜇 ≠ 𝜇0
20
III.2. Evaluation du test :
iii. Une décision est prise au vue des indications des règles étudiées.
Implicitement, l’évaluation d’un test revient à subdiviser l’espace
d’échantillonnage en deux régions notées 𝐶 𝑒𝑡 𝐶 ′ telles que :
Exemple :
Pour un échantillon de taille n=10, on veut déterminer la région critique selon que :
21
La distribution se rapprochant de celle de Bernoulli, on a : si X est la variable analysée,
alors 𝑓(𝑥, 𝜋) = 𝜋 2 (1 − 𝜋)1−𝑥 x prenant les valeurs 1 et 0 selon que la pièce est bonne
ou défectueuse.
𝐶 = [𝑦𝑖 ; 𝑦 = ∑ 𝑥𝑖 ], 𝑖 = 0, 1, 2
Dans l’évaluation d’un test, il peut s’avérer que l’on rejette une hypothèse nulle qui est
vraie ou au contraire ne pas la rejeter alors qu’elle est fausse. En théorie des tests,
ces deux erreurs sont analysées en termes de risque de décision.
𝐻0 𝐻1
Hypothèse
𝐻0 Décision correcte Risque 1ère espèce : 𝛼
vraie
𝐻1 Risque 2ème espèce : 𝛽 Décision correcte
Niveau approprié de 𝛼 et 𝛽.
𝛼 et 𝛽 étant des probabilités qui doivent prendre des valeurs comprises entre 0 et 1.
D’autres parts, étant relatifs aux mêmes tests, doivent être définis simultanément. On
𝛼 = 0, 𝛽 = 0
a donc deux extrêmes. {
𝛼 = 1, 𝛽 = 1.
Le premier cas extrême implique une évidence parfaite alors que le second implique
l’erreur totale. Le premier est presque impossible et cela du fait que l’on base la
décision sur l’aléa.
22
Le deuxième cas également aussi presqu’impossible dans la mesure où dans
l’échantillonnage, l’on tient compte de la distribution de la variable considérée. Il existe
un ensemble de couple (𝛼, 𝛽) réalisable en éliminant ces deux cas extrêmes qui
peuvent être représentés par le graphique ci-dessous :
(0, 0) 1/2 1
𝛼
Dans la pratique, on se fixe un niveau pour 𝛼 minimisant celui de 𝛽 par rapport à celui
de 𝛼. On considère 𝛼 = 5% 𝑒𝑡 𝛼 = 1%.
23
III.4. Courbe caractéristique d’efficacité, puissance d’un test :
Définitions :
On appelle puissance d’un test, la probabilité de prendre une décision correcte, c'est-
à-dire de correctement rejeter 𝐻0 : 𝑃[(𝑥1 , 𝑥2 , … . , 𝑥𝑛 )𝜖𝐶; 𝐻1 ] = ∏(𝐶, 𝜃) on note
𝜋(𝑐, 𝜃1 )𝑒𝑡 𝜋(𝑐, 𝐻1 ) qui est probabilité de rejeter correctement 𝐻0 .
Courbe d’efficacité :
𝐻𝑜: 𝜇 = 𝜇0 𝑒𝑡
Supposons {
𝐻1 : 𝜇 > 𝜇0
(𝑐−𝜇)√𝑛
Soit en unité centré réduite (UCR) 𝛽 = 𝑃 [𝑧 < ]. La puissance du test en fonction
𝑆
du paramètre envisagé. Dans le cas 𝐻1 est composite, 𝛽 varie avec le paramètre étudié
24
Exemple :
de fabrication, il peut diminuer dans une proportion importante le temps requis pour la
production.
normalement réduit à un taux moyen d’au moins 8% avec un écart type de 0,32%. En
𝐻𝑜: 𝜇 = 𝜇0 = 0,08
Solution : {
𝐻1 : 𝜇 > 0,08
Soit en UCR
(0,084 − 0,08)√4
𝛼 = 𝑃 [𝑍 > ] = 𝑃[𝑍 > 2,5] = 1 − 𝑃[𝑍 < 2,5] = 1 − 0,9938 = 0,0062
0,0032
(0,08−𝜇)√4
En UCR, 𝛽 = [𝑍 ≤ ] . Soit ℎ(𝜇) la probabilité d’être la région critique,
0,0032
alors
(0,084−𝜇)√4 (0,084−𝜇)√4
ℎ(𝜇) = 𝑃 [𝑍 > ] = 1 − 𝑃 [𝑍 ≤ ] = 1 − 𝛽.
0,0032 0,0032
25
III.5. Tests entre hypothèses simples ; méthode de NEYMAN et
PEARSON.
On suppose donné X, une variable réelle dont la distribution suit une loi de
densité de probabilité 𝑓(𝑥, 𝜃) avec 𝜃 inconnu. Pour le paramètre inconnu, on suppose
les deux hypothèses suivantes, lesquelles doivent être comprises entre
𝐻0 : 𝜃 = 𝜃0 ; 𝐻1 : 𝜃 = 𝜃1 .
𝐿(𝑥;𝜃0 )
𝐶𝛼 = {(𝑥1 , 𝑥2 , … . , 𝑥𝑛 ); ≤ 𝑘𝛼 },
𝐿(𝑥;𝜃1 )
𝛼 = 𝑃[(𝑥1 , 𝑥2 , … . , 𝑥𝑛 )𝜖𝐶𝛼 ]
𝐻0 : 𝜇 = 𝜇0
On veut pour le test suivant { , déterminer la meilleure région critique,
𝐻1 : 𝜇 = 𝜇1
c'est-à-dire, le test le plus puissant admettant C comme région critique.
−1 2 −1𝑛 −1 2
1
En effet, 𝑓(𝑥; 𝜃) = 𝑒 2 (𝑥−𝜇) ⟹ 𝐿(𝑥; 𝜃) = (2𝜋) 2 𝑒 2 (𝑥−𝜇)
√2𝜋
−1𝑛 −1
∑ (𝑥𝑖 −𝜇0 )2
Pour, 𝐿(𝑥; 𝜇0 ) = (2𝜋) 2 𝑒2 et
−1𝑛 −1
∑ (𝑥𝑖 −𝜇1 )2
𝐿(𝑥; 𝜇1 ) = (2𝜋) 2 𝑒2
1
𝐿(𝑥;𝜇0 ) [∑ (𝑥𝑖 −𝜇1 )2 −∑ (𝑥𝑖 −𝜇0 )2 ]
Alors le rapport de vraisemblance nous donne :
)
= 𝑒2 ,
𝐿(𝑥; 𝜇1
26
𝐿(𝑥;𝜇0 ) 1
𝑙𝑜𝑔 = [∑ (𝑥𝑖 − 𝜇1 )2 − ∑ (𝑥𝑖 − 𝜇0 )2 ] ≤ 𝑙𝑜𝑔𝑘𝛼
𝐿(𝑥; 𝜇1 ) 2
𝑛
(𝜇0 − 𝜇1 ) ∑ 𝑥𝑖 ≤ 𝑙𝑜𝑔𝑘𝛼 + (𝜇02 − 𝜇12 ) (1)
2
1er cas : Si (𝜇0 < 𝜇1 ), 𝑎𝑙𝑜𝑟𝑠 (𝜇0 − 𝜇1 ) > 0. en divisant tous termes par (𝜇0 − 𝜇1 ), on
𝑛 𝑛
𝑙𝑜𝑔𝑘𝛼 + (𝜇02 −𝜇12 ) 𝑙𝑜𝑔𝑘𝛼 + (𝜇02 −𝜇12 )
2 2
obtient : ∑ 𝑥𝑖 ≤ Considérons 𝑐= et soit
(𝜇0 −𝜇1 ) (𝜇0 −𝜇1 )
𝑙𝑜𝑔𝑘 1 2
∑ 𝑥𝑖 + (𝜇0 −𝜇12 ) ∑ 𝑥𝑖
𝑛 2
≤ (𝜇0 −𝜇1 )
, 𝑠𝑜𝑖𝑡 ≤ 𝑐.
𝑛 𝑛
𝑙𝑜𝑔𝑘 1
−(𝜇0 − 𝜇1 ) ∑ 𝑥𝑖 ≥ − [ + (𝜇02 − 𝜇12 )] comme plus haut, en divisant par
𝑛 2
𝑙𝑜𝑔𝑘 1 2
∑ 𝑥𝑖 𝑛
+2(𝜇0 −𝜇12 )
−𝑛(𝜇0 − 𝜇1 ), on obtient finalement : ≥ (𝜇0 −𝜇1 )
.
𝑛
FIN.
27
BIBLIOGRAPHIE
1. Graffith, W.E.R. Carter Hills and Georges Judes (1992) : Learning and
28