Sunteți pe pagina 1din 340

Metode statistice

Radu T. Trı̂mbiţaş

9 octombrie 2018
ii
Cuprins

I Calculul probabilităţilor 1
Calculul probabilităţilor – scurt istoric 3

1 Câmpuri de probabilitate 5
1.1 Evenimente şi operaţii cu evenimente . . . . . . . . . . . . . . 5
1.2 Câmp finit de probabilitate . . . . . . . . . . . . . . . . . . . 8
1.3 Câmp infinit de probabilitate . . . . . . . . . . . . . . . . . . 10
1.4 Probabilitate condiţionată. Independenţă . . . . . . . . . . . . 13
1.5 Formula probabilităţii totale. Formula lui Bayes . . . . . . . . 15

2 Scheme clasice de probabilitate 19


2.1 Schema lui Poisson (binomială generalizată) . . . . . . . . . . 19
2.2 Schema binomială . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3 Schema hipergeometrică . . . . . . . . . . . . . . . . . . . . . 21
2.4 Schema lui Pascal . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5 Schema lui Bernoulli cu mai multe stări . . . . . . . . . . . . . 23

3 Variabile aleatoare 25
3.1 Definiţie şi proprietăţi . . . . . . . . . . . . . . . . . . . . . . 25
3.2 Variabile aleatoare discrete . . . . . . . . . . . . . . . . . . . . 26
3.3 Funcţie de repartiţie. Densitate de probabilitate . . . . . . . . 28
3.3.1 Funcţie de repartiţie . . . . . . . . . . . . . . . . . . . 28
3.3.2 Densitate de probabilitate . . . . . . . . . . . . . . . . 31
3.3.3 Funcţii de repartiţie multidimensionale . . . . . . . . . 31
3.4 Caracteristici numerice . . . . . . . . . . . . . . . . . . . . . 32
3.4.1 Caracteristici numerice ale variabilelor aleatoare discrete 33
3.4.2 Caracteristici numerice ale variabilelor aleatoare continue 36
3.4.3 Inegalitatea lui Cebı̂şev . . . . . . . . . . . . . . . . . . 37
3.4.4 Corelaţie . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.4.5 Mod, asimetrie, exces, mediană, cuantile . . . . . . . . 41
3.5 Funcţia caracteristică . . . . . . . . . . . . . . . . . . . . . . . 42

iii
iv CUPRINS

4 Distribuţii de probabilitate clasice 47


4.1 Distribuţii discrete . . . . . . . . . . . . . . . . . . . . . . . . 47
4.1.1 Repartiţia binomială (Bernoulli) . . . . . . . . . . . . . 47
4.1.2 Repartiţia Poisson . . . . . . . . . . . . . . . . . . . . 49
4.1.3 Legea multinomială . . . . . . . . . . . . . . . . . . . . 51
4.2 Distribuţii continue . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2.1 Repartiţia uniformă . . . . . . . . . . . . . . . . . . . . 53
4.2.2 Repartiţia normală . . . . . . . . . . . . . . . . . . . . 54
4.2.3 Familia de repartiţii gama . . . . . . . . . . . . . . . . 59
4.2.4 Repartiţia hi-pătrat . . . . . . . . . . . . . . . . . . . . 61
4.2.5 Familia de repartiţii beta . . . . . . . . . . . . . . . . . 64
4.2.6 Repartiţia Student . . . . . . . . . . . . . . . . . . . . 64
4.2.7 Repartiţia F . . . . . . . . . . . . . . . . . . . . . . . . 69
4.2.8 Distribuţia normală bidimensională . . . . . . . . . . . 72

5 Legea numerelor mari şi legi limită 75


5.1 Convergenţa ı̂n probabilitate . . . . . . . . . . . . . . . . . . . 75
5.2 Legea slabă a numerelor mari . . . . . . . . . . . . . . . . . . 76
5.3 Convergenţa ı̂n repartiţie . . . . . . . . . . . . . . . . . . . . . 79
5.4 Teorema limită centrală . . . . . . . . . . . . . . . . . . . . . 80

II Statistica matematică 83
Statistica – scurt istoric 85

6 Statistică descriptivă 87
6.1 Terminologia de bază . . . . . . . . . . . . . . . . . . . . . . . 88
6.2 Culegerea datelor . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.3 Prezentarea grafică . . . . . . . . . . . . . . . . . . . . . . . . 93
6.4 Repartiţii de frecvenţe . . . . . . . . . . . . . . . . . . . . . . 95
6.4.1 Tabele de frecvenţe . . . . . . . . . . . . . . . . . . . . 95
6.4.2 Reprezentarea grafică a repartiţiilor de frecvenţe . . . . 95
6.4.3 Tipuri de serii statistice . . . . . . . . . . . . . . . . . 96
6.5 Caracterizarea repartiţiilor de frecvenţe . . . . . . . . . . . . . 97
6.5.1 Indicatori de poziţie . . . . . . . . . . . . . . . . . . . 98
6.5.2 Indicatori ai variaţiei . . . . . . . . . . . . . . . . . . . 102
6.6 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
CUPRINS v

7 Teoria selecţiei 115


7.1 Funcţii de selecţie . . . . . . . . . . . . . . . . . . . . . . . . . 115
7.2 Media de selecţie . . . . . . . . . . . . . . . . . . . . . . . . . 115
7.3 Momente de selecţie . . . . . . . . . . . . . . . . . . . . . . . 116
7.4 Funcţia empirică de repartiţie şi teorema lui Glivenko . . . . . 123
7.5 Repartiţii de frecvenţă bidimensionale . . . . . . . . . . . . . . 129

8 Estimaţie 135
8.1 Funcţia de verosimilitate şi statistici suficiente . . . . . . . . . 135
8.2 Funcţii de estimaţie . . . . . . . . . . . . . . . . . . . . . . . . 138
8.2.1 Estimatori absolut corecţi . . . . . . . . . . . . . . . . 139
8.2.2 Estimatori corecţi . . . . . . . . . . . . . . . . . . . . . 140
8.3 Estimaţii eficiente . . . . . . . . . . . . . . . . . . . . . . . . . 141
8.4 Estimatori optimali . . . . . . . . . . . . . . . . . . . . . . . . 150
8.5 Metode de estimaţie punctuală . . . . . . . . . . . . . . . . . 155
8.5.1 Metoda verosimilităţii maxime . . . . . . . . . . . . . . 155
8.5.2 Metoda momentelor . . . . . . . . . . . . . . . . . . . 160
8.5.3 Metoda minimului lui χ2 . . . . . . . . . . . . . . . . . 161
8.6 Metoda intervalelor de ı̂ncredere . . . . . . . . . . . . . . . . . 162
8.6.1 Intervale de ı̂ncredere pentru medie . . . . . . . . . . . 162
8.6.2 Intervale de ı̂ncredere pentru diferenţa a două medii . . 164
8.6.3 Estimarea unei proporţii . . . . . . . . . . . . . . . . . 166
8.6.4 Intervale de ı̂ncredere pentru dispersie şi raportul a două dispersii168

9 Verificarea ipotezelor statistice 171


9.1 Teste asupra unei populaţii . . . . . . . . . . . . . . . . . . . . 174
9.1.1 Testul Z privind media teoretică . . . . . . . . . . . . 174
9.1.2 Testul t (Student) privind media teoretică . . . . . . . 176
9.1.3 Teste asupra proporţiilor . . . . . . . . . . . . . . . . . 179
9.1.4 Testul χ2 asupra dispersiei . . . . . . . . . . . . . . . . 181
9.2 Teste referitoare la două populaţii . . . . . . . . . . . . . . . . 184
9.2.1 Selecţii dependente şi independente . . . . . . . . . . . 184
9.2.2 Teste pentru diferenţa a două medii – selecţii independente185
9.2.3 Teste pentru medii dependente (observaţii perechi) . . 190
9.2.4 Teste pentru două proporţii . . . . . . . . . . . . . . . 191
9.2.5 Teste asupra dispersiilor a două populaţii . . . . . . . . 193
9.3 Puterea unui test şi lema Neyman-Pearson . . . . . . . . . . . 194
9.4 Testul raportului verosimilităţilor . . . . . . . . . . . . . . . . 204
9.5 Testul χ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
9.5.1 Statistica χ2 . . . . . . . . . . . . . . . . . . . . . . . . 208
9.5.2 Teste privind experimentele multinomiale . . . . . . . . 209
vi CUPRINS

9.5.3 Tabele de contingenţă . . . . . . . . . . . . . . . . . . 213


9.6 Teste de concordanţă . . . . . . . . . . . . . . . . . . . . . . . 217
9.6.1 Testul χ2 de concordanţă . . . . . . . . . . . . . . . . . 217
9.6.2 Testul Kolmogorov . . . . . . . . . . . . . . . . . . . . 218

10 Modele liniare şi metoda celor mai mici pătrate 223


10.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
10.2 Modele liniare . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
10.3 Metoda celor mai mici pătrate . . . . . . . . . . . . . . . . . . 226
10.4 Proprietăţi ale estimatorilor . . . . . . . . . . . . . . . . . . . 228
10.5 Inferenţe privind parametrii βi ai regresiei liniare . . . . . . . 232
10.6 Testarea ipotezelor pentru βi . . . . . . . . . . . . . . . . . . . 233
10.7 Inferenţe asupra funcţiilor liniare de parametrii modelului . . . 233
10.8 Predicţia unei valori particulare ı̂n cazul regresiei simple . . . 235
10.9 Corelaţie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
10.10Utilizarea matricelor la modele liniare . . . . . . . . . . . . . . 239
10.11Proprietăţi ale estimatorilor . . . . . . . . . . . . . . . . . . . 241
10.12Inferenţe referitoare la funcţii liniare de parametrii modelului . 242
10.13Predicţia ı̂n regresia multiplă . . . . . . . . . . . . . . . . . . 243
10.14Testarea ipotezei H0 : βg+1 = βg+2 = · · · = βk = 0 . . . . . . . 245

11 Analiză dispersională 253


11.1 Introducere ı̂n tehnicile analizei dispersionale . . . . . . . . . . 253
11.2 Logica ANOVA . . . . . . . . . . . . . . . . . . . . . . . . . . 258
11.3 Aplicaţii ale ANOVA cu un singur factor . . . . . . . . . . . . 260

12 Metode neparametrice 263


12.1 Un model general pentru două selecţii . . . . . . . . . . . . . 264
12.2 Testul semnului . . . . . . . . . . . . . . . . . . . . . . . . . . 266
12.2.1 Cazul unei singure selecţii . . . . . . . . . . . . . . . . 266
12.2.2 Cazul a două selecţii dependente . . . . . . . . . . . . 267
12.2.3 Intervale de ı̂ncredere . . . . . . . . . . . . . . . . . . . 270
12.3 Testul U al lui Mann şi Whitney . . . . . . . . . . . . . . . . . 271
12.4 Testul lui Wilcoxon pentru observaţii perechi . . . . . . . . . 275
12.5 Testul monotoniilor . . . . . . . . . . . . . . . . . . . . . . . . 277
12.6 Corelaţia rangurilor . . . . . . . . . . . . . . . . . . . . . . . . 280

13 Algoritmi probabilişti 285


13.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
13.2 Generatori de numere aleatoare . . . . . . . . . . . . . . . . . 286
13.2.1 Metode analitice de generare a numerelor aleatoare uniforme287
CUPRINS vii

13.3 Algoritmi Las Vegas . . . . . . . . . . . . . . . . . . . . . . . 289


13.4 Algoritmi Monte Carlo . . . . . . . . . . . . . . . . . . . . . . 290

A Funcţiile lui Euler 293


A.1 Funcţia gama a lui Euler . . . . . . . . . . . . . . . . . . . . . 293
A.2 Funcţia beta a lui Euler . . . . . . . . . . . . . . . . . . . . . 294

B Statistici ale ordinii 297

C Tabele pentru principalele distribuţii 303

Bibliografie 329
viii CUPRINS
Partea I

Calculul probabilităţilor

1
Calculul probabilităţilor – scurt
istoric

Bazele Teoriei probabilităţilor au fost puse ı̂n secolul al XVII-lea de Blaise


Pascal (1623-1662) şi Pierre Fermat (1601-1665). Un pasionat jucător de
noroc, cavalerul de Méré, susţinea ı̂n corespondenţa sa cu Pascal că jocurile
de noroc conduc uneori la rezultate care contrazic matematica. Astfel, afirma
el, a arunca un zar de 4 ori pentru a obţine faţa 6 este acelaşi lucru cu a
arunca de 24 de ori câte două zaruri pentru a obţine o dublă de 6. Dacă
aruncăm un zar, avem 6 rezultate posibile (1,2, ..., 6) şi facem 4 ı̂ncercări.
Avem raportul 64 = 23 . Dacă aruncăm două zaruri, avem 36 de cazuri posibile
(perechile de feţe (1,1), (1,2), ..., (6,6)) şi 24 de ı̂ncercări, deci acelaşi raport
24
36
= 32 . Cu toate acestea, cavalerul de Méré a observat că, jucând ı̂n modul
al doilea (cu două zaruri aruncate de 24 de ori) pierde jucând cu un adversar
care alege primul mod (un zar aruncat de 4 ori), ceea ce, credea el contrazice
regulile matematice. Pascal şi Fermat au arătat ı̂nsă că probabilitatea de a
câştiga jocul cu un singur zar este 0.518, iar la jocul cu două zaruri 0.492.
Deşi diferenţa dintre cele două probabilităţi este mică, totuşi la un număr
mare de partide câştigă cel cu probabilitatea mai mare.
O altă problemă, devenită de asemenea celebră, constă ı̂n ı̂mpărţirea mizei
la un joc care este ı̂ntrerupt ı̂nainte de a fi desemnat un câştigător.
Pare curios faptul că nişte savanţi de talia lui Pascal, Fermat sau Huygens
s-au ocupat de astfel de probleme ı̂n aparenţă mărunte. Probabil ei au intuit
importanţa pentru viitor a acestor probleme.
Importanţa acestei noi teorii a fost exprimată explicit pentru prima dată
ı̂n lucrarea postumă ,,Ars conjectandi“ (1713) a matematicianului elveţian
Jakob Bernoulli (1654-1705), care a arătat că este fundamentală pentru stu-
diul fenomenelor de masă. Printr-o teoremă celebră, numită de el ,,legea nu-
merelor mari“, Jakob Bernoulli a stabilit relaţia matematică dintre frecvenţă
şi probabilitate după un număr mare de probe. Această teoremă constituie
unul dintre fundamentele statisticii şi justifică aplicarea Teoriei probabili-
tăţilor ı̂n alte domenii. Lucrările lui Jakob Bernoulli au fost continuate de

3
4

nepoţii săi Nicolas Bernoulli (1687-1759) şi Daniel Bernoulli (1700-1782).


O contribuţie fundamentală a avut matematicianul Abraham de Moivre
(1667-1754), descoperitorul legii normale, lege atribuită pe nedrept altor ma-
tematicieni.
Fondatorul teoriei moderne a probabilităţilor este Pierre Simon Laplace
(1749-1827). În tratatul său Théorie analitique des probabilités“ (1813)

el expune propoziţiile de bază ale acestei teorii, enunţă şi demonstrează ı̂n
anumite cazuri teorema limită centrală şi aplică Calculul probabilităţilor ı̂n
demografie, astronomie şi alte domenii.
Alţi matematicieni din secolul al XIX-lea cu contribuţii decisive la dezvol-
tarea domeniului sunt Karl Friedrich Gauss (1777-1855), Joseph Bertrand
(1822-1900), Henri Poincaré (1854-1912). Trebuie menţionat de asemenea
aportul şcolii ruse de probabilităţi ı̂ntemeiate de Panufti Lvovici Cebı̂şev
(1821-1894), având ca reprezentanţi străluciţi pe Alexandr Mihailovici Lia-
punov (1847-1918) şi Andrei Andreevici Markov (1856-1922).
În secolul nostru s-a realizat axiomatizarea Teoriei probabilităţilor. Au
adus contribuţii ı̂n această direcţie ı̂n ordine cronologică: E. Borel, F. P.
Cantelli, R. von Mises, A. N. Kolmogorov, O. Onicescu, Bruno de Finetti,
V. I. Glivenko, A. Renyi şi alţi matematicieni de seamă.
De asemenea merită amintită contribuţia şcolii româneşti de probabilităţi
fondate de Octav Onicescu şi având ca reprezentanţi de marcă pe Gheorghe
Mihoc, Marius Iosifescu şi alţii.
Capitolul 1

Câmpuri de probabilitate

1.1 Evenimente şi operaţii cu evenimente


Se numeşte experiment un act planificat al cărui rezultat este o mulţime
de date (sau echivalent realizarea unui sistem de condiţii).
Să considerăm experimentul aruncării unui zar. Este vorba evident de o
experienţă aleatoare, al cărui rezultat depinde de o serie de factori ı̂ntâm-
plători. Această experienţă se poate repeta de un număr oarecare de ori.
Fiecare repetare a experienţei se numeşte probă.
Experienţa considerată are o mulţime E de cazuri sau de rezultate posi-
bile:
E = {1, 2, 3, 4, 5, 6}.
Se numeşte eveniment rezultatul unui experiment.
Legat de experienţa de mai sus putem considera diferite evenimente:

• A: apariţia unui număr par;


• B: apariţia unui număr impar;
• C: apariţia unui număr ≤ 3;
• D: apariţia numărului 5, etc...

Fiecare probă atrage după sine fie realizarea, fie nerealizarea oricărui
eveniment. Astfel, dacă la o aruncare a zarului apare faţa 4, atunci eveni-
mentul A s-a realizat, iar evenimentele B,C,D nu s-au realizat. Este clar că
fiecărui eveniment ı̂i corespunde o mulţime de cazuri favorabile, care este o
submulţime a lui E. Aceasta este mulţimea de cazuri care realizează eveni-
mentul considerat.
Astfel:

5
6 Câmpuri de probabilitate

• evenimentului A ı̂i corespunde submulţimea {2, 4, 6} ⊂ E;

• evenimentului B ı̂i corespunde submulţimea {1, 3, 5} ⊂ E;

• evenimentului A ı̂i corespunde submulţimea {1, 2, 3} ⊂ E;

• evenimentului A ı̂i corespunde submulţimea {5} ⊂ E.

Se observă că un eveniment oarecare şi submulţimea lui E asociată eve-


nimentului se determină reciproc şi de aceea nu vom face distincţie ı̂ntre
ele. Vom considera deci fiecare eveniment legat de experienţa ı̂n cauză ca
fiind o submulţime a lui E şi astfel vom scrie A = {2, 4, 6}, B = {1, 3, 5},
C = {1, 2, 3} şi D = {5}.
Evenimentele care au un singur caz favorabil se numesc evenimente
elementare. Prin abuz de limbaj vom numi evenimente elementare şi ele-
mentele mulţimii E.
Mulţimea evenimentelor legate de o experienţă cu un număr finit de cazuri
posibile se va identifica cu familia P(E) a tuturor submulţimilor lui E.
Printre submulţimile lui E se găsesc ∅ şi E. Ele corespund evenimen-
tului imposibil şi respectiv evenimentului sigur. Evenimentul sigur este
evenimentul care se realizează la orice probă. Astfel, la aruncarea unui zar,
evenimentul sigur este apariţia uneia dintre feţele 1, 2, 3, 4, 5, 6. Toate cazurile
posibile ale experienţei sunt cazuri favorabile ale acestui eveniment. Eveni-
mentul imposibil nu se poate realiza la nici o efectuare a experienţei. El
nu are nici un caz favorabil (spunem că mulţimea cazurilor sale favorabile
este ∅).
Spunem că evenimentul A implică evenimentul B, dacă realizarea lui A
atrage după sine realizarea lui B. Aceasta ı̂nsemnă că mulţimea cazurilor
favorabile lui A este inclusă ı̂n mulţimea cazurilor favorabile lui B. La arun-
carea unui zar dacă A = {2, 4, 6} şi B = {1, 3, 5}, atunci A nu implică B, iar
ca relaţie ı̂ntre mulţimi A ⊂ B. Se verifică uşor următoarele relaţii: A ⊂ A,
A ⊂ E, ∀A ∅ ⊂ A.
A ∪ B (A reunit cu B, A sau B) este evenimentul a cărui realizare
constă ı̂n realizarea cel puţin unuia dintre evenimentele A şi B.
A ∩ B (A intersectat cu B, A şi B) este evenimentul a cărui realizare
constă ı̂n realizarea ambelor evenimente A şi B.
Ā sau CA (non A) este evenimentul a cărui realizare constă ı̂n nerealizarea
evenimentului A. Au loc: A = A, Ē = ∅, ∅ ¯ = E, A ∪ A = A ş.a.m.d.
Evenimentele A şi B sunt incompatibile dacă nu se pot realiza ı̂mpreună
la nici o efectuare a experienţei. Scriem A ∩ B = ∅. Aceasta ı̂nseamnă că
realizarea unuia dintre cele două evenimente atrage după sine nerealizarea
1.1. Evenimente şi operaţii cu evenimente 7

celuilalt, adică A ⊂ B̄ ∧B ⊂ Ā. Se verifică uşor echivalenţa relaţiilor A∩B =


∅, A ⊂ B̄, B ⊂ Ā.
Două evenimente care nu sunt incompatibile se numesc compatibile.
Două evenimente sunt compatibile dacă au cel puţin un caz favorabil comun.
Un instrument util pentru studiul relaţiilor dintre evenimente ı̂l constituie
diagramele Euler-Venn.

Exemplul 1.1.1 A = {2, 4, 6}, B = {1, 3, 5}, C = {1, 2, 3}. A şi B sunt
incompatibile, B şi C sunt compatibile, iar A şi C sunt compatibile.

Exemplul 1.1.2 O urnă conţine bile albe şi negre. Cu ajutorul evenimen-
telor:
A: prima bilă extrasă este albă;
B: a doua bilă extrasă este albă,
să se scrie evenimentele:
C: prima bilă extrasă este neagră;
D: cel puţin o bilă este albă;
F: ambele bile sunt negre;
G: o bilă şi numai una este albă.

Soluţie.
C = Ā (contrariul evenimentului prima bilă este albă);

D = A ∪ B (prima bilă este albă sau a doua bilă este albă);
F = Ā ∩ B̄ (prima bilă este neagră şi a doua bilă este neagră);
G = (A ∩ B̄) ∪ (Ā ∩ B) (prima bilă este albă şi a doua bilă este neagră
sau prima bilă este neagră şi a doua bilă este albă).
Fie A ⊂ E un eveniment. Spunem că sistemul de evenimente (A)i=1,n ,
Ai ⊂ E realizează o desfacere a evenimentului A dacăSevenimentele sunt
două câte două incompatibile, Ai ∩ Aj = ∅, i 6= j şi A = ni=1 Ai . Un sistem
de evenimente care realizează o desfacere a evenimentului sigur se numeşte
sistem complet de evenimente (s.c.e).

Exemplul 1.1.3 Evenimentele A şi Ā constituie un sistem complet de eve-


nimente.

Exemplul 1.1.4 Fie E = {e1 , e2 , . . . , en }. Evenimentele Ei = {ei } consti-


tuie un sistem complet de evenimente.
8 Câmpuri de probabilitate

1.2 Câmp finit de probabilitate


În probleme de calculul probabilităţilor intervin ı̂n mod obişnuit operaţii
ı̂ntre evenimentele asociate unui experiment. Se pune problema ca prin astfel
de operaţii să nu ieşim din mulţimea evenimentelor experimentului conside-
rat. Pentru aceasta se asociază fiecărui experiment o mulţime de evenimente
K astfel ı̂ncât dacă se efectuează operaţii cu evenimente din K să obţinem
tot un eveniment din K.

Definiţia 1.2.1 Fie E spaţiul evenimentelor (elementare). O mulţime finită


nevidă de evenimente K ⊂ P(E) se numeşte corp dacă:

1. A ∈ K =⇒ Ā ∈ K;

2. A, B ∈ K =⇒ A ∪ B ∈ K.

Perechea (E, K) se numeşte câmp finit de evenimente.

Exemplul 1.2.2 Fie E = {e1 , e2 , . . . , en }. Luăm K = P(E). Evenimen-


tele Ei = {ei } sunt evenimentele elementare. Orice eveniment A din SmK are
forma A = {ei1 , ei2 , . . . , eim } , 1 ≤ m ≤ n; A se poate scrie ca j=1 Eij .
Evenimentele Eij constituie o desfacere a lui A.

Definiţia 1.2.3 Fie A un eveniment asociat unei experienţe. Dacă ı̂ntr-o


serie de probe evenimentul A s-a realizat de nA ori numim nA frecvenţa
absolută a evenimentului A, iar numărul f (A) = nnA ı̂l numim frecvenţa
relativă a evenimentului A (altă notaţie folosită este fn (A)).

Au loc următoarele proprietăţi ale frecvenţei relative:

1. 0 ≤ f (A) ≤ 1, ∀A;

2. f (E) = 1;

3. f (A ∪ B) = f (A) + f (B), dacă A ∩ B = ∅;

4. f (AB) = f (A) − f (B), dacă B ⊂ A;

5. f (AB) = f (A) − f (A ∩ B);

6. f (A ∪ B) = f (A) + f (B) − f (A ∩ B);

7. f (Ā) = 1 − f (A).
1.2. Câmp finit de probabilitate 9

Verificarea acestor proprietăţi rămâne ı̂n sarcina cititorului.


Se observă că proprietăţile 4–7 sunt consecinţe ale proprietăţilor 1–3.
A. N. Kolmogorov a pus ı̂n 1931 bazele axiomatice ale Teoriei probabilită-
ţilor. A defini o probabilitate ı̂n raport cu o experienţă având un număr finit
de cazuri posibile ı̂nseamnă a asocia fiecărui eveniment A, legat de respectiva
experienţă, un număr P (A), numit probabilitatea evenimentului A. Este
natural să cerem ca P să aibă proprietăţile 1–3 ale frecvenţei.

Definiţia 1.2.4 Se numeşte probabilitate pe câmpul finit de evenimente


(E, K) o aplicaţie P : K −→ R care verifică următoarele axiome:

1. ∀A ∈ K P (A) ≥ 0;

2. P (E) = 1;

3. ∀A, B ∈ K , A ∩ B = ∅, P (A ∪ B) = P (A) + P (B).

Tripletul (E, K, P ) unde (E, K) este un câmp finit de evenimente, iar P o


probabilitate definită pe K se numeşte câmp finit de probabilitate.

Din axiome se deduc proprietăţile:

4. P (AB) = P (A) − P (B) dacă B ⊂ A;

5. P (AB) = P (A) − P (A ∩ B);

6. P (A ∪ B) = P (A) + P (B) − P (A ∩ B);

7. P (Ā) = 1 − P (A); P (∅) = 0.

Demonstraţie.

4. B ⊂ A =⇒ A = B ∪ (AB) =⇒3 P (A) = P (B) + P (AB).

5. AB = A(A ∩ B) ∧ A ∩ B ⊂ A =⇒4 P (AB) = P (A) − P (A ∩ B).

6. A ∪ B = A ∪ (BA) =⇒3 P (AUB) = P (A) + P (BA) =5 P (A) +


P (B) − P (A ∩ B).

7. A ∪ Ā = E =⇒3 P (A) + P (Ā) = 1.


10 Câmpuri de probabilitate

O generalizare a proprietăţii 6 este formula lui Poincare: dacă Ai ∈


K, i = 1, n, are loc

n
! n n n
[ X X X
P Ai = P (Ai ) − P (Ai ∩ Aj) + + P (Ai ∩ Aj ∩ Ak )+
i=1 i=1 i,j=1 i,j,k=1
i<j i<j<k
n
!
\
+ · · · + (−1)n−1 P Ai . (1.1)
i=1

Demonstraţia se poate face prin inducţie completă.

Exemplul 1.2.5 Fie câmpul de evenimente din exemplul 1.2.2. Definim


P (Ei ) = n1 şi obţinem P (A) = m
n
. Regăsim astfel definiţia clasică a probabi-
lităţii.

1.3 Câmp infinit de probabilitate


Până acum am considerat doar experienţe cu un număr finit de rezultate
posibile; se pot da exemple de experienţe cu o infinitate de cazuri posibile
(cardE nu este finit). Să considerăm experimentul de tragere asupra unei
ţinte. Atingerea unui punct este un eveniment care se poate realiza sau nu
ı̂n urma efectuării experienţei. Ţinta, având o infinitate de puncte, avem
de-a face cu o experienţă cu un număr infinit de rezultate. În practică ne
interesează atingerea unei anumite porţiuni a ţintei.

Definiţia 1.3.1 Fie E spaţiul evenimentelor elementare şi K o familie in-


finită de evenimente din P(E). Familia K se numeşte corp borelian sau
σ-corp dacă:

1. A ∈ K ⇒ Ā ∈ K;
S∞
2’. Ai ∈ K, i ∈ N ⇒ i=1 Ai ∈ K.

Perechea (E, K) se numeşte câmp infinit de evenimente.

În cazul infinit se modifică proprietatea 3 a probabilităţii.

Definiţia 1.3.2 Fie câmpul infinit de evenimente (E, K). Aplicaţia P :


K → R se numeşte probabilitate (complet aditivă) peste (E, K) dacă
verifică axiomele:
1.3. Câmp infinit de probabilitate 11

1. ∀A ∈ K P (A) ≥ 0;

2. P (E) = 1;
S P
3’. ∀Ai ∈ K, Ai ∩ Aj = ∅, i, j ∈ I, i 6= j P ( i∈I Ai ) = i∈I P (Ai ),
cardI ≤ ℵ0 .

Tripletul (E, K, P ) se va numi câmp infinit de probabilitate sau câmp


de probabilitate complet aditiv.

Exemplul 1.3.3 Presupunem că E şi submulţimile lui K sunt măsurabile.


Introducem
m(A)
P (A) =
m(E)
unde m este măsura Lebesgue. Dacă E = [a, b] şi A = [a′ , b′ ] ⊂ [a, b], atunci
probabilitatea ca un punct din E să aparţină lui A este

lungimea([a′ , b′ ]) b′ − a′
P (A) = = .
lungimea([a, b]) b−a

Propoziţia 1.3.4 Au loc următoarele proprietăţi:

1. (Subaditivitatea) Fie (E, K, P ) un câmp infinit de probabilitate şi


(Ai )i∈I un sistem de evenimente cel mult numărabil din K. Are loc

! ∞
[ X
P Ai ≤ P (Ai ).
i=1 i=1

T P
2. (Inegalitatea lui Boole) P ( i∈I Ai ) ≥ 1 − i∈I P (Ai ).

3. (Proprietatea de continuitate pentru şiruri descendente) Dacă


(An )n∈N este T un şir descendent de evenimente (A1 ⊃ A2 ⊃ A3 ⊃ . . . ⊃
An ⊃ . . .) şi ∞n=1 An = A, atunci limn→∞ P (An ) = P (A).

4. (Proprietatea de continuitate pentru şiruri ascendente) Dacă


(An )n∈N este unSşir ascendent de evenimente (A1 ⊂ A2 ⊂ . . . ⊂ An ⊂
An+1 ⊂ . . .) şi ∞n=1 An = A, atunci limn→∞ P (An ) = P (A).

Demonstraţie.
12 Câmpuri de probabilitate

1. Pentru fiecare i ∈ N definim evenimentul


i−1
!
[
Bi = Ai \ Ak .
k=1

Se observă că Bi ⊂ Ai , i ∈ N şi



[ ∞
[
Bi = Ai ,
i=1 i=1

iar pentru i 6= j, Bi ∩ Bj = ∅. Conform axiomei 3’ avem


!
X [
P (Bi ) = P Bi
i∈I i∈I

şi deoarece Bi ⊂ Ai obţinem succesiv


! ! !
[ [ [ X X
P Bi = P Ai = P Bi = P (Bi ) ≤ P (Ai ).
i∈I i∈I i∈I i∈I i∈I

2. Conform legilor de Morgan


!
\ [ [
Ai = Ai = E\ Ai
i∈I i∈I i∈I

şi deci ! !
\ [ X 
P Ai =1−P Ai ≤1− P Ai .
i∈I i∈I i∈I
T T
3. Fie A = n∈N An şi Bn = An − A. Este clar că n∈N Bn = ∅ şi că
(Bn )n∈N este un şir descrescător de evenimente din K. Deoarece

P (Bn ) = P (An \A) = P (An ) − P (A),

rezultă că pentru demonstrarea proprietăţii este sufucient să arătăm că

lim P (Bn ) = 0.
n→∞

Să observăm că Bn poate fi scris sub forma

Bn = (Bn \Bn+1 ) ∪ (Bn+1 \Bn+2 ) ∪ . . .


1.4. Probabilitate condiţionată. Independenţă 13

şi, ı̂n virtutea axiomei 3’, rezultă



X
P (Bn ) = P (Bm \Bm+1 ).
m=n

În particular, pentru n = 0, avem


X
P (B0 ) = P (Bn \Bn+1 ).
n∈N

Din ultimele două relaţii rezultă că P (Bn ) reprezintă restul seriei con-
vergente din membrul drept al celei de-a doua relaţii. În consecinţă
P (Bn ) → 0 şi deci relaţia căutată este demonstrată.
4. Considerăm şirul de evenimente Cn = An , care este descrescăscător şi
deci, putem să-i aplicăm proprietatea anterioară, obţinându-se imediat
relaţia căutată.

1.4 Probabilitate condiţionată. Independen-


ţa evenimentelor
Să presupunem că avem două urne: U1 conţinând 5 bile albe şi 6 bile
negre şi U2 conţinân 6 bile albe şi 7 bile negre. Din una din aceste urne (nu
se ştie care) se extrage o bilă. Care este probabilitatea ca bila extrasă să fie
albă?
Nu putem da un răspuns imediat la această ı̂ntrebare. Dacă obţinem informa-
ţia: ,,extragerea s-a făcut din urna U1 “, atunci putem spune că probabilitatea
5 5
ca bila să fie albă este 11 . Să reţinem deci că 11 nu este probabilitatea ca
bila să fie albă, ci probabilitatea ca bila să fie albă, ştiind că extragerea s-a
făcut din urna U1 .
Dacă avem evenimentele:
A: bila extrasă este albă;
B: extragerea se face din urna U1 ;
C: extragerea se face din urna U2 ,
vom scrie:
5
PB (A) = .
11
La fel
6
PC (A) =
13.
Spunem că probabilitatea evenimentului A condiţionată de evenimentul
5 6
B este 11 , iar cea condiţionată de evenimentul C este 13 .
14 Câmpuri de probabilitate

Să considerăm acum experienţa aruncării unui zar. Dacă A = {1, 2, 3} şi
B = {2, 3, 4, 5, 6}, atunci P (A) = 12 şi P (B) = 65 . Să presupunem că acoperim
feţele 2, 3, 4, 5, 6 cu un strat de vopsea roşie. Dacă ı̂n urma aruncării zarului
s-a obţinut o faţă roşie, ştim că s-a realizat B, dar nu ştim ce faţă a apărut.
Ne putem ı̂ntreba care este probabilitatea ca A să se realizeze, după ce am
obţinut informaţia că B s-a realizat. În acest moment nu mai avem 6 cazuri
posibile, ci 5 (cazurile favorabile lui B au devenit cazuri posibile). Din aceste
cazuri posibile două sunt favorabile lui A. Rezultă PB (A) = 52 .
Să repetăm acest raţionament pentru un experiment având n cazuri posi-
bile echiprobabile. Dacă B este un eveniment cu m cazuri favorabile, atunci
P (B) = m n
. Dacă din cele m cazuri favorabile lui B p sunt favorabile unui
eveniment A, atunci P (A ∩ B) = np . În momentul ı̂n care ştim că B s-a
realizat, mai avem m cazuri posibile. Dintre acestea p sunt favorabile lui A:
p
p n P (A ∩ B)
PB (A) = = m = .
m n
P (B)
Aceasta justifică:
Definiţia 1.4.1 Fie câmpul de probabilitate (E, K, P ) şi B ∈ K astfel
ı̂ncât P (B) > 0. Vom numi probabilitatea de apariţie a evenimentului A
condiţionată de evenimentul B raportul
P (A ∩ B)
PB (A) = P (A|B) = .
P (B)
Se verifică uşor că:
(i).
P (A ∩ E) P (A)
PA (E) = = =1
P (A) P (A)
(ii).
P (A ∩ E) P (A)
PE (A) = = = P (A) ∀A ⊂ E.
P (E) 1
Definiţia 1.4.2 Două evenimente A, B ∈ K se numesc independente dacă
P (A ∩ B) = P (A)P (B). În caz contrar evenimentele se numesc depen-
dente.
Din definiţia probabilităţii condiţionate avem P (A∩B) = P (A)·PA(B) =
P (B) · PB (A).
Se observă că dacă A şi B sunt independente avem P (A) = PB (A) şi
P (B) = PA (B), ceea ce ı̂nseamnă că probabilitatea de apariţie a evenimen-
tului A nu se schimbă dacă ştim că s-a realizat ı̂n prealabil B, atunci când
ele sunt independente.
1.5. Formula probabilităţii totale. Formula lui Bayes 15

Exemplul 1.4.3 Să considerăm experienţa aruncării unui zar. Dacă A =


{1, 2, 3}, B = {2, 3, 4, 5, 6} şi D = {2, 3, 4, 5}, avem P (A) = 21 , P (B) = 56 ,
P (Ā) = 12 , P (B̄) = 16 , PB (A) = 52 , PĀ (B) = 1, P (D) = 46 = 23 , P (A ∩ B) =
1
3
6= P (A) · P (B), deci A şi B sunt dependente. Dar P (A ∩ D) = 31 =
P (A) · P (D) = 21 · 23 = 13 , adică A şi D sunt independente.

Propoziţia 1.4.4 Dacă A şi B sunt independente, atunci şi perechile A şi
B̄, Ā şi B şi Ā şi B̄ sunt independente.

Demonstraţie. A = A∩E = A∩(B ∪ B̄) = (A∩B)∪(A∩ B̄) şi deoarece


(A∩B)∩(A∩B̄) = ∅ avem P (A) = P (A∩B)+P (A∩B̄) = P (A)P (B)+P (A∩
B̄), de unde P (A∩ B̄) = P (A)−P (A)P (B) = P (A)[(1−P (B)] = P (A)P (B̄).
Independenţa lui Ā şi B se arată analog.
P (Ā ∩ B̄) = P (A ∪ B) = 1 − P (A ∪ B) = 1 − P (A) − P (B) + P (A ∩ B) =
1 − P (A) − P (B) + P (A)P (B) = [1 − P (A)][1 − P (B)] = P (Ā)P (B̄).
Noţiunea de independenţă se extinde la mai multe evenimente astfel:

Definiţia 1.4.5 Spunem că evenimentele Ai ∈ K, i = 1, n sunt indepen-


dente ı̂n totalitate dacă ∀ij , j = 1, k, 1 ≤ i1 < i2 < . . . < ik ≤ n, k = 2, n
avem P (Ai1 ∩ Ai2 ∩ . . . ∩ Aik ) = P (Ai1 ) · P (Ai2 ) · · · P (Aik ).

Exemplul 1.4.6 Să considerăm următoarele situaţii:

1. Aruncarea a două zaruri este un experiment (E) care constă din arunca-
rea primului zar (E1 ) şi aruncarea celui de-al doilea zar (E2 ). Este clar
că cunoaşterea lui (E1 ) nu modifică probabilitatea nici unui eveniment
legat de (E2 ).

2. Se aruncă o monedă de 3 ori. Care este probabilitatea să avem de trei


ori stema?

Soluţie. Fie Ai evenimentul obţinerii stemei la aruncarea i. Aceste


evenimente sunt independente şi deci
3
P (A1 ∩ A2 ∩ A3 ) = P (A1 )P (A2 )P (A3 ) = 21 = 18 .

1.5 Formula probabilităţii totale. Formula


lui Bayes
P (A∩B)
Am definit PB (A) = P (A|B) = P (B)
, dacă P (B) 6= 0.
16 Câmpuri de probabilitate

A A ..... A
1 2 n−1 A n

Figura 1.1: Evenimentele pentru formula probabilităţii totale

Teorema 1.5.1 Dacă A1 , A2 , . . . , An sunt n evenimente astfel ı̂ncât P (A1 ∩


A2 ∩ . . . ∩ An ) 6= 0, adică probabilitatea realizării lor simultane este nenulă,
atunci

P (A1 ∩ A2 ∩ . . . ∩ An ) = P (A1 ) · P (A2 |A1 ) · P (A3 |A1 ∩ A2 ) · · ·


P (An |A1 ∩ . . . ∩ An−1 ) (1.2)

Demonstraţie. Se porneşte de la membrul drept şi se ţine seama de


definiţia probabilităţii condiţionate.

Teorema 1.5.2 (Formula probabilităţii totale) Dacă (Ai )i∈I formează


un sistem complet de evenimente şi dacă X este un eveniment arbitrar, atunci
X
P (X) = P (Ai ) · P (X|Ai ) (1.3)
i∈I
S
Demonstraţie. Avem X = i∈I (X ∩ Ai ) (vezi figura 1.1). P
Evenimentele fiind două câte două incompatibile avem P (X) = P (X ∩
i∈I
Ai ), dar P (X ∩ Ai ) = P (Ai ) · P (X|Ai ), de unde concluzia.

Exemplul 1.5.3 Se dau 6 urne cu următoarele structuri:

• 2 urne conţinând 2 bile albe şi 4 bile negre;

• 3 urne conţinând 2 bile albe şi 8 bile negre;

• 1 urnă conţinând 6 bile albe şi 2 bile negre.


1.5. Formula probabilităţii totale. Formula lui Bayes 17

Se extrage o bilă la ı̂ntâmplare şi se cere probabilitatea ca bila extrasă să


fie albă.
Soluţie. Să considerăm evenimentele:
• X — evenimentul care constă din extragerea unei bile albe;
• A1 — evenimentul care constă ı̂n extragerea unei bile din una din cele
două urne cu structura 2 bile albe şi 4 bile negre;
• A2 — evenimentul care constă ı̂n extragerea unei bile din una din cele
trei urne cu structura 2 bile albe şi 8 bile negre;
• A3 — evenimentul care constă ı̂n extragerea unei bile din urna cu struc-
tura 6 bile albe şi 2 bile negre.
Avem P (A1 ) = 62 , P (A2 ) = 36 , P (A3 ) = 16 deoarece se alege la ı̂ntâmplare
una din cele 6 urne, două fiind favorabile lui A1 , 3 lui A2 şi una lui A3 . De
asemenea P (X|A1) = 26 , P (X|A2 ) = 10 2
, P (X|A3 ) = 68 . Aplicând formula
probabilităţii totale (1.3) avem:
2 2 3 2 1 6 121
P (X) = · + · + · = .
6 6 6 10 6 8 360
Să considerăm n evenimente A1 , A2 , . . . , An care formează un sistem com-
plet de evenimente şi care determină cauzele producerii unui eveniment ne-
cunoscut X. Se cunosc probabilităţile
P (A1 ), P (A2 ), · · · , P (An ),
.
P (X|A1), P (X|A2 ), · · · , P (X|An )
Aceste probabilităţi care se pot calcula ı̂nainte de efectuarea experienţei se
numesc probabilităţi a priori. În urma experienţei se produce evenimentul
X şi trebuie determinate probabilităţile
P (A1 |X), P (A2 |X), · · · , P (An |X),
numite probabilitāţi a posteriori (deoarece se calculează după efectuarea
experienţei).
Teorema 1.5.4 (Formula lui Bayes) Dacă (Ai )i∈I este un sistem complet
de evenimente şi dacă X este un eveniment arbitrar, atunci are loc
P (Ak ) · P (X|Ak )
P (Ak |X) = P . (1.4)
j∈I P (Aj ) · P (X|Aj )

Demonstraţie. Se observă că


P (Ak ) · P (X|Ak ) = P (X) · P (Ak |X)
şi se ţine cont de formula (1.3).
18 Câmpuri de probabilitate

Exemplul 1.5.5 În condiţiile exemplului 1.5.3 să se determine probabilita-


tea ca bila albă să provină din urna cu structura 6 bile albe şi 2 bile negre.

Soluţie. Am avut P (A1 ) = 62 , P (A2 ) = 36 , P (A3 ) = 16 şi P (X|A1 ) =


2 2
6
, P (X|A2 ) = 10 , P (X|A3 ) = 86 . Aplicând formula (1.4) găsim
1 6
P (A3 )P (X|A3) ·
6 8 45
P (A3 |X) = = 121 = .
P (X) 360
121

Exemplul 1.5.6 O urnă conţine 10 bile albe şi negre ı̂ntr-o proporţie necu-
noscută. Se extrag 4 bile punând de fiecare dată bila ı̂n urnă şi se constată
că toate cele 4 bile extrase au fost albe. Care este probabilitatea ca urna să
nu conţină decât bile albe?

Soluţie. Înainte de extragerea unei bile orice compoziţie a urnei este la fel
de posibilă. Dacă notăm cu (Ai ), i = 0, 10, evenimentul ca urna să conţină i
bile albe şi n − i bile negre (ı̂nainte de orice extracţie), atunci
1
P (A0 ) = P (A1 ) = . . . = P (A10 ) = .
10
Fie X evenimentul ca făcând 4 extrageri şi punând de fiecare dată bila ı̂napoi
ı̂n urnă să obţinem 4 bile albe. Cu aceste notaţii probabilitatea
 căutată
k 4
este P (A10 |X). Deoarece P (X|A0 ) = 0, P (X|Ak ) = 10 , k = 1, 9 şi
P (X|A10) = 1, formula (1.4) ne permite să scriem

P (A10 )P (X|A10) 1
P (A10 |X) = P10 =    =
1 4 2 4 10 4
i=0 P (Ai )P (X|Ai ) 10
+ 10 +···+ 10
104
= 4 ·
1 + 24 + · · · + 104
Capitolul 2

Scheme clasice de probabilitate

Printr-o schemă de probabilitate se ı̂nţelege un model probabilistic folosit


pentru calculul unor caracteristici referitoare la anumite clase de experienţe.

2.1 Schema lui Poisson (binomială generali-


zată)
Dacă A1 , A2 , . . . , An sunt evenimente independente, atunci probabilitatea
ca să se realizeze k din cele n evenimente (şi să nu se realizeze n − k) este
coeficientul lui xk din polinomul (p1 x + q1 )(p2 x + q2 ) . . . (pn x + qn ), unde
P (Ai ) = pi , qi = 1 − pi , i = 1, n.
Fie A evenimentul a cărui realizare ı̂nseamnă realizarea a k din cele n
evenimente. Pentru a se realiza A trebuie să se realizeze k din evenimentele
Ai (Ai1 , Ai2 , . . . , Aik ) şi Aik+1 , . . . , Ain să nu se realizeze, adică să se realizeze
unul din evenimentele de forma

Ai1 ∩ Ai2 ∩ . . . ∩ Aik ∩ . . . ∩ Aik+1 ∩ . . . ∩ Ain ,

adică A este se poate scrie ca o reuniune de evenimente incompatibile


[ 
A= Ai1 ∩ Ai2 ∩ . . . ∩ Aik ∩ . . . ∩ Aik+1 ∩ . . . ∩ Ain .

Mulţimea {i1 , . . . , ik } parcurge familia submulţimilor de indici {1, . . . , n}


având k elemente. Obţinem
X
P (A) = pi1 pi2 . . . pik qik+1 . . . qin ,

adică coeficientul lui xk din (p1 x + q1 )(p2 x + q2 ) . . . (pn x + qn ).

19
20 Scheme clasice de probabilitate

Exemplul 2.1.1 Se dau 3 urne: prima conţine 2 bile albe şi 3 bile negre,
a doua 4 bile albe şi o bilă neagră, iar a treia 3 bile albe şi două bile negre.
Din fiecare urnă se extrage câte o bilă. Care este probabilitatea ca două bile
să fie albe şi una neagră?

Soluţie.Considerăm evenimentele independente


Ai — bila extrasă din urna i este albă, i = 1, 3.
Se cere probabilitatea realizării a două evenimente din cele trei. Suntem ı̂n
cazul schemei lui Poisson cu n = 3, k = 2, p1 = P (A1 ) = 52 , p2 = P (A2 ) = 45 ,
p3 = P (A3 ) = 53 . Probabilitatea căutată este coeficientul lui x2 din polinomul
   
2 3 4 1 3 2
x+ x+ x+ ,
5 5 5 5 5 5

adică
2 4 2 3 4 3 2 3 1 58
· · + · · + · · = .
5 5 5 5 5 5 5 5 5 125

2.2 Schema binomială(a lui Bernoulli cu bila


ı̂ntoarsă)
Dacă evenimentele independente Ai au aceiaşi probabilitate de realizare
pi = p, qi = 1 − p = q, i = 1, n, atunci probabilitatea să se realizeze k din
cele n evenimente (şi să nu se  realizeze n − k) este coeficientul lui xk din
n
polinomul (px + q)n , adică k pk q n−k .
În general, dacă A este un eveniment legat de o experienţă şi P (A) = p şi
dacă repetăm de n ori experienţa, atunci probabilitatea ca A să se realizeze
dek ori (prin abuz de limbaj am considerat A ı̂n loc de Ai , i = 1, n) este
n k n−k
k
p q , unde q = 1 − p.
Modelul schemei lui Bernoulli cu bila ı̂ntoarsă este dat de o urnă cu a
bile albe şi b bile negre, din care efectuăm n extrageri, punând după fiecare
extragere bila ı̂napoi ı̂n urnă. Probabilitatea ca să obţinem la o extragere o
a
bilă albă este p = a+b . Conform celor arătate mai sus probabilitatea ca ı̂n n

extrageri să obţinem k bile albe şi n − k bile negre este nk pk q n−k .

Exemplul 2.2.1 Se aruncă două zaruri de 10 ori. Care este probabilitatea


să apară de 4 ori suma 7?

Soluţie. Fie A evenimentul apariţiei sumei 7 la o experienţă. Avem P (A) =


1
6 
(6 cazuri favorabile din 36 posibile) q = 56 , n = 10, k = 4. Rezultatul este
10
 
1 4 5 6
4 6 6
.
2.3. Schema hipergeometrică 21

2.3 Schema hipergeometrică (a lui Bernoulli


cu bila neı̂ntoarsă)
Dintr-o urnă ı̂n care sunt a bile albe şi b bile negre (a+b = N) se extrag n
bile, n ≤ N, fară a se pune după fiecare extragere bila ı̂napoi ı̂n urnă. Notăm
cu α numărul de bile albe obţinut la n extrageri. Evident α ≤ n, α ≤ a, deci
max(0, n − b) ≤ α ≤ min{a, n}. Probabilitatea ca din n extrageri efectuate
ı̂n modul arătat mai sus să obţinem α bile albe este
a
 b 
α n−α
Pn (α) = N
 ·
n

Numărul de cazuri posibile este Nn (N bile ı̂n urnă, dincare se extrag n).
Numărul de cazuri favorabile se obţine astfel: avem αa bile albe care se
b
  b 
combină cu n−α bile negre, adică αa n−α .

Exemplul 2.3.1 Într-un set de 100 de chestionare asupra unei opinii ştim
că la o ı̂ntrebare 60 de persoane au răspuns da şi 40 de persoane au răspuns
nu. În scopul realizării unui sondaj privind opinia populaţiei chestionate
asupra respectivei probleme, se aleg la ı̂ntâmplare 10 chestionare.
a) Care este probabiltatea ca din cele 10 chestionare să avem un răspuns
da şi 9 răspunsuri nu?
b) Care este probabilitatea să avem cel puţin 8 răspunsuri da?
c) Care este probabilitatea să avem numai răspunsuri da sau numai răs-
punsuri nu?
Soluţie.
a) n = 10, α = 1, a = 60, b = 40, n − α = 9 şi
 
60 40
1
P10 (1) = 100
9 ·
10

b) Fie evenimentul A — cel puţin 8 răspunsuri da şi Ai — i răspunsuri


da. Deoarece A = A8 ∪ A9 ∪ A10 , evenimentele A8 , A9 , A10 fiind incom-
patibile, avem
P (A) = P (A8 ) + P (A9 ) + P (A10 ),
unde

60 40
 60 40
  
60 40

8
P (A8 ) = 100
2 , P (A9) = 9
100
1 , P (A10 ) = 10
100
0 ·
10 10 10
22 Scheme clasice de probabilitate

c) α = 10, deci pentru răspunsuri numai da avem


 
60 40 60

10
P10 (10) = 100
0 = 10

100 ,
10 10

iar pentru răspunsuri numai nu avem


40

10
P10 (0) = 100
,
10

2.4 Schema lui Pascal


Se consideră o experienţă ı̂n care pot să apară doar două evenimente A
(succes) şi Ā (insucces) cu probabilităţile de apariţie p şi respectiv q. Vom
nota cu Sn numărul insucceselor până la al n-lea succes. Se cere proba-
bilitatea realizării evenimentului (Sn = k), ı̂n ipoteza că experimentele sunt
independente. Evenimentul S = (Sn = k) se poate scrie sub forma S = U ∩V ,
unde U este evenimentul ca din n + k − 1 probe să se realizeze de n − 1 ori
A şi de k ori Ā, iar V este evenimentul
 n−1cak la proba n + k să se realizeze A.
Evident P (V ) = p şi P (U) = n+k−1 k
p q (am aplicat schema lui Bernoulli
cu bila ı̂ntoarsă). Deoarece U şi V sunt independente deducem
 
n+k−1 n k
P (S) = P (U ∩ V ) = P (U)P (V ) = p q ·
k
 n
p
Această probabilitate este coeficientul lui xk din dezvoltarea lui 1−qx .

Observaţia 2.4.1 Un caz particular important se obţine pentru n = 1. Ast-


fel S = (S1 = k) reprezintă evenimentul de a obţine primul succes după k
insuccese şi
P (S1 = k) = pq k ·

Exemplul 2.4.2 Fie experimentul care constă ı̂n aruncarea unui zar. Care
este probabilitatea ca faţa 6 să apară după 5 ı̂ncercări?

Soluţie. Fie evenimentul A – apariţia feţei 6. Suntem ı̂n cazul schemei lui
Pascal cu k = 5, p = 61 şi q = 65 . Se obţine
 5
1 5
P (S1 = 5) = ·
6 6
2.5. Schema lui Bernoulli cu mai multe stări 23

2.5 Schema lui Bernoulli cu mai multe stări


(multinomială)
Să considerăm sistemul complet de evenimente A1 , A2 , . . . , An şi o experienţă
la care aparePs unul dintre aceste evenimente. Deci P (Ai ) = pi , s ∈ N,
i = 1, s şi i=1 pi = 1. Se repetă experienţa ştiind că la fiecare repetare
probabilităţile pi , i = 1, s, rămân neschimbate. Se cere să se calculeze pro-
babilitatea ca ı̂n n experienţeP (probe) evenimentul Ai să apară de ki ori,
s
i = 1, s. În acest caz avem i=1 ki = n. Modelul pentru acest experi-
ment poate fi o urnă cu bile având s culori precizate. Prin raţionamente
asemănătoare cu cele de la schema binomială cu două stări se obţine
n!
P (n; k1 , k2 , . . . , ks ) = pk1 pk2 . . . pks s .
k1 !k2 ! . . . ks ! 1 2
Dacă vom considera experienţa prin care vom extrage n bile dintr-o urnă ce
conţine N1 bile de culoarea 1, N2 bile de culoarea 2, . . ., Ns bile de culoarea
s, s ∈ N, fără să mai introducem bila extrasă ı̂n urnă, se poate calcula
probabilitatea de a extrage k1 bile de culoarea 1, k2 bile de culoarea 2, . . .,
ks bile de culoarea s cu formula
 
N1 N 2

k1 k2
· · · Nkss
P (n; k1, k2 , . . . , ks ) = N1 +N2 +···Ns
 ,
k1 +k2 +···ks
Ps
unde i=1 ki = n.

Exemplul 2.5.1 Să presupunem că avem o urnă cu 5 bile albe, 10 bile negre
şi 4 bile roşii. Care este probabilitatea ca din 6 extrageri să obţinem 2 bile
albe, 2 bile negre şi 2 bile roşii:

a) punând de fiecare dată bila extrasă ı̂napoi ı̂n urnă;


b) fără a pune bila extrasă ı̂napoi ı̂n urnă?

Soluţie. Fie evenimentele:

- A1 — extragerea unei bile albe;


- A2 — extragerea unei bile negre;
- A3 — extragerea unei bile roşii.

Pentru aceste evenimente avem


5 10 4
p1 = P (A1 ) = , p2 = P (A2 ) = , p3 = P (A3 ) = .
19 19 19
24 Scheme clasice de probabilitate

 2  2  2
6! 5 10 4
a) P (6; 2, 2, 2) = .
2!2!2! 19 19 19
  
5 10 4
b) P (6; 2, 2, 2) = 2 19 2
 2 .
6
Capitolul 3

Variabile aleatoare

3.1 Definiţie şi proprietăţi


Fie câmpul de probabilitate (E, K, P ).

Definiţia 3.1.1 Se numeşte variabilă aleatoare peste câmpul (E, K, P ) o


aplicaţie X : E 7−→ R care verifică

∀a ∈ R (X < a) = {e ∈ E|X(e) < a} ∈ K.

În această definiţie X(e) < a se poate ı̂nlocui cu una din inegalităţile
X(e) ≤ a, X(e) > a, X(e) ≥ a, obţinându-se definiţii echivalente. Din
definiţia de mai sus rezultă că unei variabile aleatoare X i se asociază eve-
nimente de forma A = (X < a), a ∈ R. Prin urmare X ia valori mai mici
decât a cu probabilitatea P (A).
La această noţiune s-a ajuns printr-un ı̂ndelungat proces istoric, pornind
de la mărimi care iau valori cu anumite probabilităţi, sub influenţa unor
factori ı̂ntâmplători.

Definiţia 3.1.2 Un vector X = (X1 , . . . , Xn ) ale cărui componente Xi , i =


1, n, sunt variabile aleatoare se numeşte vector aleator n-dimensional sau
variabilă aleatoare n-dimensională.

Proprietăţi.

1. Dacă X este o variabilă aleatoare şi c ∈ R o constantă, atunci X + c,


cX, |X|, X 2 , şi X1 cu X 6= 0 sunt variabile aleatoare.

25
26 Variabile aleatoare

2. Dacă X şi Y sunt variabile aleatoare, atunci

{e : X(e) > Y (e)} ∈ K


{e : X(e) ≥ Y (e)} ∈ K
{e : X(e) = Y (e)} ∈ K.

3. Dacă X şi Y sunt variabile aleatoare, atunci X − Y , X + Y , XY şi


X
Y
, (Y 6= 0) sunt variabile aleatoare.

Demonstraţie.

1. Vom demonstra numai că X + c este variabilă aleatoare. Avem {e :


X(e) + c < x} = {e : X(e) < x − c} ∈ K, deci X + c este variabilă
aleatoare.

2. Temă.

3. Avem {e : X(e) − Y (e) > x} = {e : X(e) > Y (e) + x} ∈ K, deci X − Y


este variabilă aleatoare. Pentru restul operaţiilor scriem

X + Y = X − (−Y )
1 
XY = (X + Y )2 − (X − Y )2
4
X 1
=X·
Y Y

3.2 Variabile aleatoare discrete


Definiţia 3.2.1 Variabila aleatoare X se numeşte discretă dacă mulţimea
valorilor sale este cel mult numărabilă.

Exemplul 3.2.2 Fie experienţa aruncării unui zar. Am văzut că E = {1,
2, 3, 4, 5, 6}, K = P(E). Aplicaţia X : E −→ K, X(ei ) = i, i ∈ N este o
variabilă aleatoare.

Exemplul 3.2.3 Fie E = {e1 , . . . , en , . . .} o mulţime numărabilă. Orice


variabilă aleatoare X : E −→ R, dată de X(ei ) = xi , i ∈ N este o variabilă
aleatoare discretă.
3.2. Variabile aleatoare discrete 27

Exemplul 3.2.4 Fie (E, K) un câmp de evenimente şi A ∈ K. Variabila


aleatoare 
1, dacă e ∈ A
X(e) = ,
0, dacă e ∈
/A
se numeşte indicatoarea evenimentului A.
Exemplul 3.2.5 Fie {Ai }i=1,n un sistem complet de evenimente pe (E, K).
Variabila aleatoare n
X
X(e) = ci Xi (e),
i=1
unde Xi este indicatoarea evenimentului Ai , se numeşte variabilă alea-
toare simplă. Orice variabilă aleatoare simplă ia un număr finit de valori
şi reciproc, orice variabilă aleatoare cu un număr finit de valori este o vari-
abilă aleatoare simplă.
Definiţia 3.2.6 Se numeşte repartiţia sau distribuţia variabilei aleatoare
discrete X tabelul  
x1 , . . . , xn , . . .
,
p1 , . . . , pn , . . .
sau prescurtat  
xi
,
pi i∈N
P
unde pi = P (X = xi ) ≥ 0 şi i∈N pi = 1.
Revenind la exemplele anterioare avem distribuţiile:
Exemplul 3.2.7 Pentru aruncarea zarului
 
1 2 3 4 5 6
X: 1 1 1 1 1 1 .
6 6 6 6 6 6

Exemplul 3.2.8 Presupunem că P (A) = p şi P (Ā) = q. Indicatoarea eve-


nimentului A are distribuţia
 
0 1
.
p q
Definiţia 3.2.9 Fie X şi Y două variabile aleatoare discrete definite prin
X(e) = xn , pentru e ∈ An (n ∈ N),
Y (e) = ym , pentru e ∈ A∗m (m ∈ N),
unde {An } şi {A∗m } sunt sisteme complete de evenimente. Variabilele ale-
atoare X şi Y sunt independente dacă P (An ∩ A∗m ) = P (An )P (A∗m ),
n, m ∈ N.
28 Variabile aleatoare

3.3 Funcţie de repartiţie. Densitate de pro-


babilitate
3.3.1 Funcţie de repartiţie
Definiţia 3.3.1 Fie X o variabilă aleatoare. Funcţia F : R −→ R dată de
F (x) = P (X < x) ∀x ∈ R (3.1)
se numeşte funcţie de repartiţie a variabilei aleatoare X.
Din definiţie rezultă că orice variabilă aleatoare poate fi dată prin inter-
mediul funcţiei sale de repartiţie, situaţie care apare de fapt ı̂n practică.
Se poate defini şi funcţia de repartiţie condiţionată de evenimentul
A a variabilei aleatoare X:
F (X|A) = P (X < x|A).
Dacă X este o variabilă aleatoare discretă cu distribuţia
 
xn
X:
pn n∈I
din definiţie rezultă X
F (x) = pn . (3.2)
xn ≤x

Egalitatea (3.2) exprimă faptul că funcţia de repartiţie a unei variabile ale-
atoare discrete X este suma probabilităţilor valorilor X(e) situate la stânga
lui x. Funcţia de repartiţie corespunzătoare unei variabile aleatoare discrete
se numeşte funcţie de repartiţie de tip discret.
Exemplul 3.3.2 Să presupunem că variabila aleatoare X are distribuţia
dată de tabelul:
 
0 1 2 3 4 5
X: .
0.1 0.2 0.1 0.3 0.1 0.2
Din (3.2) rezultă


 0 dacă x ≤ 0



 0.1 dacă 0 < x ≤ 1


 0.1 + 0.2 dacă 1 < x ≤ 2
F (x) = 0.1 + 0.2 + 0.1 dacă 2 < x ≤ 3 .



 0.1 + 0.2 + 0.1 + 0.3 dacă 3 < x ≤ 4



 0.1 + 0.2 + 0.1 + 0.3 + 0.1 dacă 4 < x ≤ 5

1 dacă 5 < x
Graficul ei apare ı̂n figura 3.1.
3.3. Funcţie de repartiţie. Densitate de probabilitate 29

Funcţia de repartiţie a unei variabile aleatoare discrete este o funcţie ı̂n


scară.

0.8

0.6

0.4

0.2

−2 −1 0 1 2 3 4 5 6 7

Figura 3.1: Graficul unei funcţii de repartiţie discrete

Proprietăţi ale funcţiei de repartiţie

Teorema 3.3.3 Funcţia de reparţie are proprietăţile:

1. Funcţia de repartiţie este nedescrescătoare: x1 < x2 =⇒ F (x1 ) ≤


F (x2 ).

2. Funcţia de repartiţie este continuă la stânga: F (x) = F (x − 0).

3. F (−∞) = 0, F (+∞) = 1.

Demonstraţie.

1. Pentru orice x1 < x2 , avem (−∞, x1 ) ⊂ (−∞, x2 ) şi deci

P ((−∞, x1 )) ≤ P ((−∞, x2 )),

adică F (x1 ) ≤ F (x2 ).

2. Fie x ∈ R şi fie (xn ) un şir de numere reale crescător cu limita x. Fie
şirul de evenimente (Cn ), definit
T de Cn = [xn , x). Este clar că acest
şir este descrescător şi că n∈N Cn = ∅. Aplicând proprietatea de
continuitate a probabilităţii rezultă

lim P (Cn ) = P (∅) = 0.


n→∞
30 Variabile aleatoare

Deoarece
P (Cn ) = P ((−∞, x) − (−∞, xn )) =
= P ((−∞, x)) − P ((−∞, xn )) = F (x) − F (xn ),
rezultă că
lim F (xn ) = F (x),
n→∞
adică F este continuă la stânga ı̂n x. Deoarece x este arbitrar, rezultă
că F este continuă pe R.
3. Să considerăm şirul (xn ) de numere reale descrescător cu limita −∞.
Şirul
T de evenimente (An ) definit de An = (−∞, xn ) este descrescător
şi n∈N An = ∅. Din proprietatea de continuitate a probabilităţii
obţinem !
\
lim P (An ) = P An ,
n→∞
n∈N

adică
lim F (xn ) = P (∅) = 0.
n→∞

Pentru a demonstra a doua parte a afirmaţiei, fie (yn ) un şir de numere


reale crescător cu limita +∞. Şirul
S de evenimente (Bn ) definit de
Bn = (−∞, yn ) este crescător şi n∈N Bn = R. Aplicând din nou
proprietatea de continuitate a a probabilităţii obţinem
lim P (Bn ) = P (R) = 1,
n→∞

de unde F (∞) = 1.
4. Fie X o variabilă aleatoare cu funcţia de repartiţie F şi a < b; au loc

(i) P (a ≤ X < b) = F (b) − F (a);


(ii) P (a < X < b) = F (b) − F (a) − P (X = a);
(iii) P (a < X ≤ b) = F (b) − F (a) − P (X = a) + P (X = b);
(iv) P (a ≤ X ≤ b) = F (b) − F (a) + P (X = b).

Ţinând cont că P (X = x) = F (x + 0) − F (x), ultimele trei relaţii se pot


scrie sub forma

5. (ii’) P (a < X < b) = F (b) − F (a + 0);


(iii’) P (a < X ≤ b) = F (b + 0) − F (a + 0);
(iv’) P (a ≤ X ≤ b) = F (b + 0) − F (a).
3.3. Funcţie de repartiţie. Densitate de probabilitate 31

3.3.2 Densitate de probabilitate


Definiţia 3.3.4 Fie X o variabilă aleatoare cu funcţia de repartiţie F . Dacă
există o funcţie f : R −→ R, definită şi integrabilă pe R astfel ı̂ncât
Z x
F (x) = f (u)du ∀x ∈ R,
−∞

f se numeşte densitate de repartiţie sau densitate de probabilitate


a variabilei aleatoare X. Dacă variabila aleatoare are densitatea de pro-
babilitate f se spune că X este continuă, iar F se numeşte funcţie de
repartiţie de tip continuu.

Proprietăţi.

1. ∀x ∈ R f (x) ≥ 0;
R∞
2. −∞ f (x)dx = 1;
Rb
3. ∀a, b ∈ R, a < b P (a ≤ X < b) = a
f (u)du;

4. Dacă densitatea de repartiţie f este continuă, atunci

dF (x)
f (x) = .
dx

Proprietăţile 1 şi 2 de mai sus caracterizează densitatea de probabilitate.

3.3.3 Funcţii de repartiţie multidimensionale


Noţiunea de funcţie de repartiţie se extinde ı̂n mod natural la variabile
aleatoare n-dimensionale (vectori aleatori). Fie X o variabilă aleatoare n-di-
mensională. Funcţia

F (x1 , . . . , xn ) = P ({e : X1 (e) < x1 , . . . , Xn (e) < xn })

unde (x1 , . . . , xn ) ∈ Rn se numeşte funcţia de repartiţie a vectorului


aleator X.
Pentru funcţiile de reparţie multidimensionale au loc proprietăţi analoage
celor ale funcţiilor de repartiţie unidimensionale.Astfel:

1. F este o funcţie nedescrescătoare ı̂n raport cu fiecare argument x1 , . . .,


xn , adică xi1 < xi2 =⇒ F (x1 , . . . , xi1 , . . . xn ) ≤ F (x1 , . . . , xi2 , . . . xn );
32 Variabile aleatoare

2. F este continuă la stânga ı̂n raport cu fiecare argument, adică

F (x1 , . . . , xi − 0, . . . xn ) = F (x1 , . . . , xi , . . . xn );

3. F (x1 , . . . , xn ) = 0 dacă şi numai dacă există cel puţin un indice i ∈


{1, . . . , n} pentru care xi = −∞.

4. F (+∞, . . . , +∞) = 1.

Fie X = (X1 , . . . , Xn ) un vector aleator n-dimensional a cărui funcţie


de repartiţie este F (x1 , . . . , xn ), (x1 , . . . , xn ) ∈ Rn . Dacă există o funcţie
definită pe Rn cu valori reale, continuă, astfel ı̂ncât
Z x1 Z xn
F (x1 , . . . , xn ) = ... f (u1, . . . , un )du1 . . . dun
−∞ −∞

atunci funcţia f se numeşte densitatea de probabilitate sau densitatea de


repartiţie a variabilei aleatoare n-dimensionale X = (X1 , . . . , Xn ). Evident

∂ n F (x1 , . . . , xn )
f (x1 , . . . , xn ) =
∂x1 . . . ∂xn

şi analog cazului unidimensional

f (x1 , . . . , xn ) ≥ 0

şi
Z ∞ Z ∞
... f (u1, . . . , un )du1 . . . dun = 1.
−∞ −∞

3.4 Caracteristici numerice ale variabilelor


aleatoare
Variabilele aleatoare sunt complet caracterizate prin funcţiile lor de repar-
tiţie. Cu toate acestea de multe ori este necesară o prezentare mai sumară a
variabilelor aleatoare sau nu avem suficientă informaţie pentru o caracterizare
completă a lor. În astfel de situaţii, un rol deosebit ı̂l au caracteristicile
numerice asociate unor variabile aleatoare.
3.4. Caracteristici numerice 33

3.4.1 Caracteristici numerice ale variabilelor aleatoare


discrete
Valoarea medie
care ia valorile xn (n ∈
Definiţia 3.4.1 Fie X o variabilă aleatoare discretăP
N) cu probabilităţile pn = P (X = xn ). Dacă seria ∞ n=1 pn xn este absolut
convergentă, atunci expresia

X
M(X) = pn xn
n=1

se numeşte valoare medie sau speranţă matematică a variabilei alea-


toare X.

Proprietăţi.

1. Fie X şi Y două variabile aleatoare discrete. Dacă există M(X) şi
M(Y ), atunci există şi M(X + Y ) şi M(X + Y ) = M(X) + M(Y ).

2. Fie X o variabilă aleatoare şi c o constantă. Dacă există M(X), atunci


există şi M(cX) şi M(cX) = cM(X).

3. (Generalizare) Dacă Xi , i = 1, n sunt variabileP aleatoare, ci ∈ R, i =


1, n şi există M(Xi ), i = 1, n, atunci există M( ni=1 ci Xi ) şi
n
X n
X
M( ci X i ) = ci M(Xi ), (3.3)
i=1 i=1

adică M este un operator liniar.

4. Dacă X şi Y sunt două variabile aleatoare discrete independente şi


există M(X) şi M(Y ), atunci există şi M(XY ) şi are loc M(XY ) =
M(X)M(Y ).

5. (Inegalitatea lui Schwarz) Dacă X şi Y sunt variabile


p aleatoare discrete
2 2
şi există M(X ) şi M(Y ), atunci |M(XY )| ≤ M(X 2 )M(Y 2 ).

Demonstraţie.

1. Fie {An }n∈N şi {Bn }n∈N sisteme complete de evenimente. Fie xn =
X(e), e ∈ An , ym = Y (e), n, m ∈ R. Notăm Cmn = {X(e) = xn } ∩
34 Variabile aleatoare

{Y (e) =Sym }. Deducem că S


{Cmn } este sistem complet de evenimente
şi An = m∈N Cmn şi Bm = n∈N Cmn . De aici

X
P (Cmn ) = P (Bm )
n=1

X
P (Cmn ) = P (An ).
m=1

Aşadar
∞ X
X ∞
M(X + Y ) = (xn + ym )P (Cmn ) =
n=1 m=1
∞ X
X ∞ ∞ X
X ∞
= xn P (Cmn ) + ym P (Cmn ) =
n=1 m=1 n=1 m=1
∞ ∞
! ∞ ∞
!
X X X X
= xn P (Cmn ) + ym P (Cmn ) =
n=1 m=1 m=1 n=1

X ∞
X
= xn P (An ) + ym P (Bm ) =
n=1 m=1

X ∞
X
= xn P (X = xn ) + ym P (Y = ym ).
n=1 m=1

Deoarece M(X) şi M(Y ) există, seriile din membrul drept al ultimei
egalităţi
P∞ sunt convergente şi deci
PM(X + Y ) există. Ţinând cont că

n=1 xn P (X = xn ) = M(X) şi m=1 ym P (Y = ym ) = M(Y ), conclu-
zia rezultă imediat.
2. Este imediată. Generalizarea se obţine din proprietăţile 1 şi 2 prin
inducţie.
3. Temă.
4. Fie variabila aleatoare ρα = (X−αY )2 ; M(ρα ) = M(X 2 )−2αM(XY )+
α2 M(Y 2 ) ≥ 0 şi cum discriminantul acestui trinom este negativ, rezultă
concluzia.

xi

Definiţia 3.4.2 Fie variabila aleatoare X cu distribuţia X : pi i∈I
şi A un
eveniment astfel ı̂ncât P (A) 6= 0. Dacă seria
X
xi P (X = xi |A)
i∈I
3.4. Caracteristici numerice 35

este absolut convergentă, atunci


X
M(X|A) = xi P (X = xi |A)
i∈I

se numeşte valoare medie condiţionată a variabilei X de evenimentul A.

Momente
Definiţia 3.4.3 Fie X o variabilă aleatoare şi r un număr natural. Dacă
există M(X r ), atunci această valoare medie se numeşte momentul de or-
din r al variabilei aleatoare X şi se notează

X
Mr (X) = M(X r ) = xrn pn .
n=1

Evident M1 (X) = M(X).

Definiţia 3.4.4 Valoarea medie a variabilei aleatoare |X|r , M(|X|r ) se nu-


meşte moment absolut de ordin r al variabilei aleatoare X. Se notează
cu Mr (|X|) şi
X∞
r
Mr (|X|) = M (|X| ) = |xn |r pn .
n=1

Definiţia 3.4.5 Momentul de ordinul r al variabilei aleatoare X − M(X)


(numită abatere) se numeşte moment centrat de ordinul r al variabilei
aleatoare X şi se notează cu mr (X). Avem

mr (X) = Mr (X − M(X)) = M ((X − M(X))r ) .

Definiţia 3.4.6 Momentul centrat de ordinul doi al variabilei aleatoare X


se numeşte dispersia variabilei aleatoare X şi se notează
 
D 2 (X) = σ 2 = m2 (X) = M (X − M(X))2 .
p
Numărul D(X) = σ = m2 (X) se numeşte abaterea medie pătratică a
variabilei aleatoare X.

Proprietăţi ale dispersiei

1. Are loc egalitatea D 2 (X) = M(X 2 ) − [M(X)]2 .


36 Variabile aleatoare

Demonstraţie.
   
D 2 (X) = M (X − M(X))2 = M X 2 − 2M(X) · X + (M(X))2 =
M(X 2 ) − 2M(X)M(X) + (M(X))2 = M(X 2 ) + (M(X))2 .

2. Dacă a, b ∈ R şi Y = aX + b, atunci D 2 (Y ) = a2 D 2 (X) şi D(Y ) =


|a|D(X).

Demonstraţie.

M(Y ) = aM(X) + b,
 
M(Y 2 ) = M (aX + b)2 = a2 M(X) + 2abM(X) + b2 ,
din care utilizând proprietatea anterioară se obţine
 
D 2 (Y ) = a2 M(X 2 ) − (M(X))2 = a2 D 2 (X).

3. Dacă ai ∈ R, i = 1, n sunt constante, iar Xi sunt variabile aleatoare


două câte două independente, atunci
n
! n
X X
D2 ai Xi = a2i D 2 (Xi ).
i=1 i=1

3.4.2 Caracteristici numerice ale variabilelor aleatoare


continue
Fie (E, K, P ) un câmp borelian de probabilitate şi X o variabilă aleatoare
continuă a cărei funcţie de repartiţie este F şi a cărei densitate de probabi-
litate este f . Expresia
Z ∞ Z ∞
M(X) = xdF (x) = xf (x)dx
−∞ −∞

(dacă integralele improprii există) se numeşte valoarea medie a variabilei


aleatoare X.
Variabila aleatoare Z = X − M(X) se numeşte abaterea variabilei ale-
atoare X. Dacă r ∈ N, expresia
Z ∞ Z ∞
r r
Mr (X) = M(X ) = x dF (x) = xr f (x)dx
−∞ −∞
3.4. Caracteristici numerice 37

se numeşte momentul de ordin r al variabilei aleatoare X. Momentul


absolut de ordin r al variabilei aleatoare X se defineşte prin
Z ∞ Z ∞
r r
Mr (|X|) = M(|X| ) = |x| dF (x) = |x|r f (x)dx.
−∞ −∞

Fie m = M(X). Analog cu cazul discret se definesc:

- momentul centrat de ordin r


Z ∞ Z ∞
r
mr (X) = (x − m) dF (x) = (x − m)r f (x)dx;
−∞ −∞

- dispersia
Z ∞ Z ∞
2 2 2
D (X) = σ = (x − m) dF (x) = (x − m)2 f (x)dx
−∞ −∞

valoarea medie condiţionată, etc.


Proprietăţile valorii medii şi ale dispersiei rămân valabile şi pentru vari-
abile aleatoare continue.

3.4.3 Inegalitatea lui Cebı̂şev


Pentru a evita ı̂n continuare demonstrarea separată a unor proprietăţi şi
pentru cazul continuu şi pentru cel discret vom folosi ı̂nR interiorul integralelor
b
notaţia dF (x). Dacă X este de tip discret integrala a g(x)dF (x) se trans-
P Rb
formă ı̂n k∈I g(xk )pk , iar dacă X este de tip continuu ı̂n a g(x)f (x)dx.

Teorema 3.4.7 (Inegalitatea lui Cebı̂şev) Fie X o variabilă aleatoare


pentru care există M(X) şi D 2 (X). Are loc inegalitatea

D 2 (X)
P (|X − M(X)| < ε) ≥ 1 − . (3.4)
ε2
Demonstraţie. Fie F funcţia de repartiţie a lui X.

Z
P (|X − M(X)| ≥ ε) = dF (x) ≤
|x−M (X)|≥ε
Z
1
≤ 2 (x − M(X))2 dF (x),
ε |x−M (X)|≥ε
38 Variabile aleatoare

deoarece |X − M(X)| ≥ ε implică |X−Mε (X)| ≥ 1. Pe de altă parte


Z Z
(x − M(X)) dF (x) ≤ (x − M(X))2 dF (x) = D 2 (X);
2
|x−M (X)|≥ε R

prin urmare
D 2 (X)
P (|X − M(X)| ≥ ε) ≤ , (3.5)
ε2
de unde trecând la evenimentul contrar lui |X − M(X)| ≥ ε se obţine inega-
litatea dorită.

Observaţia 3.4.8 Dacă ı̂n (3.5) se ia ε = λD(X), se obţine următoarea


formă echivalentă
1
P (|X − M(X)| < λD(X)) ≥ 1 − . (3.6)
λ2
Caz particular: regula celor 3 σ. Pornind de la (3.6) şi luând λ = 3
obţinem, notând m = M(X), σ = D(X)
1 8
P (m − 3σ ≤ X ≤ m + 3σ) ≥ 1 − = ≈ 0.88,
9 9
numită regula celor 3 σ. Interpretarea ei este următoarea: pentru o variabilă
aleatoare X ı̂n peste 88% din cazuri valorile nu se abat de la medie cu mai
mult de trei abateri medii pătratice.

3.4.4 Corelaţie
Fie (E, K, P ) un câmp (borelian) de probabilitate şi X1 şi X2 două vari-
abile aleatoare definite pe acest câmp.

Definiţia 3.4.9 Se numeşte corelaţie sau covarianţă a variabilelor aleatoare


X1 şi X2 valoarea

cov(X1 , X2 ) = M [(X1 − m1 ) (X2 − m2 )] (3.7)

unde m1 = M(X1 ) şi m2 = M(X2 ).

Din definiţie rezultă imediat că

cov(αX1, βX2 ) = αβcov(X1, X2 )

şi
cov(X1, X2 ) = cov(X2 , X1 ).
3.4. Caracteristici numerice 39

Definiţia 3.4.10 Raportul


cov(X1 , X2 )
ρ(X1 , X2 ) = p (3.8)
D 2 (X1 )D 2 (X2 )
se numeşte coeficient de corelaţie al variabilelor aleatoare X1 şi X2 .
Evident ρ(X1 , X2 ) = ρ(X2 , X1 ).
Dacă variabilele aleatoare sunt discrete şi pij = P (X1 = xi , X2 = yj ),
i, j ∈ N, atunci din (3.7) şi (3.8) avem
P P
i j (xi − m1 )(yj − m2 )pij
ρ(X1 , X2 ) = p .
D 2 (X1 )D 2 (X2 )
Dacă variabilele aleatoare sunt continue şi vectorul aleator (X1 , X2 ) are
densitate de probabilitate f (x, y),
Z Z
1
ρ(X1 , X2 ) = p (x − m1 )(y − m2 )f (x, y)dxdy.
D 2 (X1 )D 2 (X2 ) R R
Coeficientul de corelaţie definit de (3.8) se poate scrie şi sub forma
M(X1 X2 ) − M(X1 )M(X2 )
ρ(X1 , X2 ) = p .
D 2 (X1 )D 2 (X2 )

Într-adevăr
cov(X1 , X2 ) = M [(X1 − m1 ) (X2 − m2 )] =
= M(X1 X2 − m1 X2 − m2 X1 + m1 m2 ) =
= M(X1 X2 ) − M(X1 )M(X2 ).
Proprietăţi.
1. Dacă X1 şi X2 sunt independente, atunci ρ(X1 , X2 ) = 0. Reciproca
este falsă, căci ρ(X1 , X2 ) = 0 nu implică faptul că X1 şi X2 sunt inde-
pendente, aşa cum rezultă din contraexemplul de mai jos.

   
−1 0 1 0 1
Contraexemplu. Fie X : , Y : .
1/2 1/4 1/2 1/2 1/2
Avem
Y\X -1 0 1 qj  
0 0 1/2 0 1/2 0 −1 1
şi XY :
1 1/4 0 1/4 1/2 1/4 1/2 1/4
pi 1/4 1/2 1/4 1
40 Variabile aleatoare

Se constată că M(X) = 0, M(Y ) = 1/2, M(X, Y ) = 0, cov(X, Y ) = 0, dar


X şi Y nu sunt independente. Două variabile aleatoare X1 şi X2 , pentru care
ρ(X1 , X2 ) = 0 se numesc necorelate.

2. Oricare ar fi X1 şi X2 astfel ı̂ncât există M(X1 ) şi M(X2 ) avem


ρ2 (X1 , X2 ) ≤ 1. Egalitatea are loc dacă şi numai dacă ı̂ntre X1 şi X2
există o dependenţă liniară, adică ρ(X1 , X2 ) = ±1 dacă şi numai dacă
X2 = aX1 + b. Vom avea ρ(X1 , X2 ) = 1 pentru a > 0 şi ρ(X1 , X2 ) = −1
pentru a < 0.

Demonstraţie. Din inegalitatea lui Schwarz obţinem


 1/2
|M [(X1 −M(X1 ))(X2 −M(X2 ))] | ≤ M 2 (X1 −M(X1 ))M 2 (X2 −M(X2 )) ,

de unde rezultă imediat inegalitatea. Pentru cazul de egalitate se procedează


după cum urmează. Dacă notăm

X1 − M(X1 ) X2 − M(X2 )
X1′ = ; X2′ = ,
D(X1 ) D(X2 )

obţinem M2 (X1′ ) = M2 (X2′ ) şi M(X1′ X2′ ) = ρ(X1 X2 ) = ±1.


Rezultă atunci că

M (X1′ ± X2′ )2 = M2 (X1′ ) + M2 (X2′ ) ± 2M(X1′ X2′ ) =
= 2(1 ± M(X1′ X2′ ))

şi deci fie M ((X1′ + X2′ )2 ) = 0, fie M ((X1′ − X2′ )2 ) = 0, adică X1′ ± X2′ = 0
aproape sigur1 . Cu alte cuvinte, avem

(X2 − M(X2 ))
X1 = M(X1 ) − p ,
D 2 (X1 )D 2 (X2 )

ceea ce arată că ı̂ntre X1 şi X2 există o relaţie liniară de forma X1 = aX2 + b
cu a 6= 0. În plus, dacă D 2 (X1 ) 6= 0, atunci din definiţia coeficientului de
corelaţie rezultă că

ρ(X1 , X1 ) = 1; ρ(X1 , −X1 ) = −1.

1
Spunem că proprietatea P are loc aproape sigur dacă P (¬P) = 0.
3.4. Caracteristici numerice 41

3.4.5 Mod, asimetrie, exces, mediană, cuantile


Fie X o variabilă aleatoare a cărei funcţie de repartiţie este F şi a cărei
densitate de probabilitate este f .
Abscisa punctului de maxim al funcţiei f se numeşte mod (sau modă
sau modul) şi se notează cu Mo. Dacă densitatea de probabilitate f are
mai multe puncte de maxim, atunci variabila aleatoare X se numeşte pluri-
modală. Pentru repartiţiile simetrice unimodale M(X) = Mo.
Dacă există momentul de ordinul 3 al lui X, raportul
m3 (X)
As =
σ3
se numeşte asimetrie. Asimetria are acelaşi semn cu m3 şi este pozitivă
dacă Mo < m şi negativă dacă Mo < m.
Dacă există momentul de ordinul 4 al lui X, expresia
m4 (X)
E= −3
σ4
se numeşte exces.
Numărul Me pentru care
1
P (X ≥ Me) ≥ ≤ P (X ≤ Me)
2
sau
1 1
F (Me) ≤ ∧ F (Me + 0) ≥
2 2
se numeşte mediană.
O proprietate importantă a medianei, utilă ı̂n aplicaţii, este următoarea:
suma abaterilor ı̂n raport cu un punct de abscisă λ este minimă dacă λ = Me.

Observaţia 3.4.11 1. Din definiţia medianei rezultă că Me este una din
valorile x ale variabilei aleatoare X pentru care
Z x Z ∞
1
dF (t) = dF (t) = .
−∞ x 2

În cazul când X este continuă mediana este unic determinată de ega-
litatea Z x Z ∞
1
f (t)dt = f (t)dt = .
−∞ x 2
2. Din punct de vedere geometric mediana este abscisa punctului prin care
trece paralela la axa Oy, care ı̂mparte ı̂n două părţi egale aria limitată
de curba de ecuaţie y = f (x) şi de axa Ox.
42 Variabile aleatoare

Din consideraţiile făcute mai sus deducem că mediana ne poate da, ı̂n
unele situaţii, informaţii mai bune decât valoarea medie. Este firesc să ex-
tindem noţiunea de mediană pentru a obţine ı̂n locul valorii 21 o valoare de
forma n1 , pentru n > 2. Astfel valorile xi (i = 1, n − 1) pentru care
Z x1 Z x2 Z ∞
1
dF (t) = dF (t) = . . . = dF (t) =
−∞ x1 xn−1 n

se numesc cuantile. Astfel dacă n = 4, se obţin cuartile, dacă n = 10,


decile, iar dacă n = 100, procentile. Avem trei cuartile: cuartila mică sau
inferioară, notată cu Q1 , mediana şi cuartila mare sau superioară, notată cu
Q3 .

Observaţia 3.4.12 Dacă X este o variabilă aleatoare având funcţia de re-


partiţie F şi α ∈ (0, 1), valoarea xα pentru care F (xα ) = α se numeşte
cuantilă de ordin α a lui X.

3.5 Funcţia caracteristică


Definiţia 3.5.1 Fie X o variabilă aleatoare definită pe câmpul (E, K, P ).
Aplicaţia gX : R −→ C, gX (t) = M(eitX ) se numeşte funcţia caracteris-
tică a variabilei aleatoare X.

Dacă nu există pericol de confuzie indicele X se omite.

Observaţia 3.5.2  1. Dacă X este oPvariabilă aleatoare discretă cu dis-


tribuţia X : xpkk , atunci g(t) = k∈I eitxk pk .
i∈I

2. Dacă X este deR tip continuu şi admite densitatea de probabilitate f ,


atunci gX (t) = R eitx f (x)dx.

Proprietăţile funcţiei caracteristice.


Dacă X este o variabilă aleatoare pe (E, K, P ) şi g : R −→ C este funcţia
sa caracteristică, atunci au loc relaţiile:

1. g(0) = 1;

2. ∀t ∈ R |g(t)| ≤ 1;

3. dacă X admite moment absolut de ordinul n, Mn (|X|), atunci g (k)(0) =


ik Mk (X), k = 1, n;

4. dacă Y = aX + b cu a, b ∈ R, atunci gY (t) = eitb gX (at), t ∈ R;


3.5. Funcţia caracteristică 43

5. dacă X şi Y sunt independente, gX+Y = gX · gY ;


P
n
6. dacă Z = Xk şi Xk , k = 1, n sunt variabile aleatoare independente,
k=1
Q
n
atunci gZ = g Xk .
k=1

Demonstraţie.

1. g(0) = M(eitX )|t=0 = M(e0 ) = 1.


R R R
2. |g(t)| = R eitx dF (x) ≤ R eitx dF (x) = R dF (x) = 1.
| {z }
=1

3. Vom arăta că dacă există Mn (X), atunci Rexistă toate momentele obiş-
nuite Mk , k ≤ n. Deoarece Mn (|Xn |) = R |x|n dF (x). Atunci, pentru
orice k ≤ n avem
Z Z Z
k k
|x| dF (x) = |x| dF (x) + |x|k dF (x) ≤
R |x|≤1 |x|>1
Z Z
k
≤ |x| dF (x) + |x|n dF (x) ≤
|x|≤1 |x|>1
Z Z
≤ dF (x) + |x|n dF (x) ≤
Z|x|≤1 Z |x|>1
≤ dF (x) + |x|n dF (x) = 1 + Mn (|X|) .
R R

Dar
Z Z

|Mk (X)| = x dF (x) ≤
k
|x|k dF (x) ≤ 1 + Mn (|X|) ,
R R

deci Mk (X) există. În plus


Z Z
itx (k) k
g(t) = e dF (x) =⇒ g (t) = i xk eitx dF (x). (3.9)
R R

Relaţia este corectă, căci avem


Z Z

xk eitx dF (x) ≤ |x|k dF (x)

R R

şi integrala din membrul drept al lui (3.9) există. Luăm ı̂n (3.9) t = 0
şi obţinem Z
(k) k
g (0) = i xk dF (x) = ik Mk (X).
R
44 Variabile aleatoare

 
4. gY (t) = M eit(aX+b) = M eitaX eitb = eitb gX (at).

5. Dacă X şi Y sunt independente, atunci şi eitX şi eitY sunt independente
şi M(eitX eitY ) = M(eitX )M(eitY ), adică gX+Y (t) = gX (t)gY (t).

6. Prin inducţie.

Teorema 3.5.3 (Dezvoltarea funcţiei caracteristice ı̂n serie de pu-



teri). Fie g funcţia caracteristică a lui X. Dacă  pentru orice n ∈ N există
momentul absolut Mn (|X|) şi şirul MMn+1 (|X|)
n (|X|)
este mărginit, atunci g se
n≥1
poate dezvolta ı̂n serie de puteri şi are loc relaţia

X (it)k
g(t) = Mk (X).
k=0
k!

Demonstraţie. Formula lui MacLaurin pentru u(x) = eitx ne dă

itx (itx)2 (itx)n−1


eitx = 1 + + +···+ + (Rn u)(x)
1! 2! (n − 1)!

unde
un (θx) (itx)n iθx
(Rn u)(x) = = e , θ ∈ [0, 1].
n! n!
Dar
Z Z n−1
!
X (itx)k
g(t) = eitx dF (x) = + (Rn u)(x) dF (x) =
R R k=0
k!
n−1
X Z Z
(it)k k
x dF (x) + (Rn u)(x)dF (x) =
k=0
k! R R

X Z
(it)k k
M(X ) + (Rn u)(x)dF (x).
k! R
k=0

Vom arăta că ultima integrală tinde la 0.


Z Z Z
(it)n tn
(Rn u)(x)dF (x) = n itθx |x|n dF (x) =
n! x e dF (x) ≤ n!
R R R
tn
= Mn (|X|) .
n!
3.5. Funcţia caracteristică 45

|t|n
Fie şirul xn = n!
Mn (|X|). Avem

xn+1 Mn+1 (|X|) 1


lim = |t| lim · = 0,
n→∞ xn n→∞ Mn (|X|) n+1

deci limn→∞ xn = 0 (criteriul raportului), de unde rezultă că


Z

lim (Rn u)(x)dF (x) = 0

n→∞ R

şi trecând la limită când n → ∞ se obţine



X (it)k
g(t) = Mk (X).
k=0
k!

Observaţia 3.5.4 Din teorema de mai sus se deduce că dacă variabilele
aleatoare X şi Y admit momente de orice ordin şi au loc relaţiile M(X k ) =
M(Y k ), ∀k ∈ N, atunci gX = gY .

Am văzut că, pornind de la funcţia de repartiţie a unei variabile alea-


toare, se poate construi funcţia sa caracteristică. Teorema care urmează ne
permite să obţinem funcţia de repartiţie cu ajutorul funcţiei caracteristice.
O enunţăm fără demonstraţie.

Teorema 3.5.5 (de inversiune a lui Paul Lévy) Fie X o variabilă ale-
atoare pe câmpul (E, K, P ) şi F şi g funcţia sa de repartiţie şi respectiv
funcţia sa caracteristică. Atunci pentru orice x1 , x2 ∈ R, x1 < x2 puncte de
continuitate ale lui F are loc
Z −itx1
1 e − e−itx2
F (x2 ) − F (x1 ) = g(t)dt.
2π R it

Observaţia 3.5.6 Dacă X este continuă şi f este densitatea sa de probabi-


litate, atunci
Z
1
f (x) = e−itx g(t)dt (formula lui Fourier)
2π R
46 Variabile aleatoare
Capitolul 4

Distribuţii de probabilitate
clasice

4.1 Distribuţii discrete

4.1.1 Repartiţia binomială (Bernoulli)

Variabila aleatoare X având distribuţia

 
k
X: 
n k n−k , q =1−p
k
p q k=1,n

se numeşte variabilă aleatoare binomială. Repartiţia astfel determinată se


numeşte repartiţie binomială de ordinul n şi parametru p.
Mulţimea tururor variabilelor aleatoare binomiale de ordinul n şi para-
metru p se va nota cu b(p, n).

Observaţia 4.1.1 Dacă


 
0 1
Xk :
q p

atunci Y = X1 + X2 + · · · + Xn ∈ b(p, n) (Y este o variabilă aleatoare care


ia valoarea k dacă evenimentul A s-a produs de k ori).

47
48 Distribuţii de probabilitate clasice

Funcţia de repartiţie a unei variabile aleatoare binomiale este

F (x) = P (X < x)


 0 pentru x ≤ 0,

 qn pentru 0 < x ≤ 1,
[x]−1   
 
X  P1 n
n k n−k k=0 k
pk q n−k pentru 1 < x ≤ 2,
= p q =
k 
 · · ·  k n−k
k=0 
 Pn−1 n

 p q pentru n − 1 < x ≤ n,
 k=0 k
1 pentru x > n.

Graficul ei este ı̂n scară şi are n + 1 puncte de discontinuitate.

Teorema 4.1.2 Valoarea medie şi dispersia unei variabile aleatoare binomi-
ale de ordin n şi parametru p sunt

M(X) = np, D 2 (X) = npq.

Demonstraţie. Pentru medie avem


Xn  
n k n−k
M(X) = k p q .
k=1
k

Pornind de la identitatea
n  
X
n n
(px + q) = pk xk q n−k (4.1)
k=1
k

şi derivând ı̂n raport cu x se obţine


n
X  
n−1 n k k−1 n−k
np(px + q) = k p x q . (4.2)
k
k=1

Făcând x = 1 şi ţinând cont că p + q = 1 rezultă


X n  
n k n−k
k p q = np.
k=1
k

Pentru calculul dispersiei folosim formula D 2 (X) = M(X 2 ) − [M(X)]2 . Din


(4.2) se deduce că
Xn  
n−1 n k k n−k
npx(px + q) = k p x q .
k=1
k
4.1. Distribuţii discrete 49

Derivând această identitate şi făcând x = 1 se obţine


n
X  
n−1 2 n−2 2 n k k−1 n−k
np(px + q) + n(n − 1)p x(px + q) = k p x q ,
k
k=0
 
n
X
2 2 n
np + n(n − 1)p = k pk q n−k = M2 (X),
k=0
k
D 2 (X) = np + n2 p2 − np2 − n2 p2 = np(1 − p) = npq.

Observaţia 4.1.3 Un alt mod de a obţine media şi dispersia se bazează pe


observaţia 4.1.1. Dacă  
0 1
Xk : ,
q p
atunci M(Xk ) = p, D 2 (Xk ) = pq şi deoarece Xk sunt independente, avem
n
!
X
M(X) = M(Y ) = M Xk = np,
k=1
n
!
X
D 2 (X) = D 2 (Y ) = D 2 Xk = npq.
k=1

Funcţia caracteristică a repartiţiei binomiale este


n   n  
itX
 X itk n k n−k
X n
g(t) = M e = e p q = (peit )k q n−k = (peit + q)n .
k=0
k k=0
k

4.1.2 Repartiţia Poisson


Repartiţia discretă determinată de probabilităţile

λk −λ
P (k; λ) = e , (4.3)
k!
unde k ∈ N şi λ > 0 se numeşte repartiţie Poisson de parametru λ.
Variabila aleatoare cu distribuţia
 
k
X : λk −λ (4.4)
k!
e k∈N

se numeşte variabilă aleatoare Poisson.


50 Distribuţii de probabilitate clasice

Vom nota cu P o(λ) mulţimea variabilelor aleatoare Poisson de parametru


λ.
Relaţia (4.3) se poate obţine pornind de la o repartiţie binomială. Punem
np = λ şi trecând la limită pentru n → ∞ (menţinând λ constant) avem

n(n − 1) . . . (n − k + 1) λk λ
lim P (n; λ) = lim · k (1 − )n−k =
n→∞ n→∞ k! n n
k
λ
= e−λ
k!
căci
 n−k
n(n − 1) . . . (n − k + 1) λ
lim = 1 şi lim 1 − = e−λ
n→∞ nk n→∞ n
Din acest motiv repartiţia Poisson se mai numeşte şi legea evenimentelor
rare.

Teorema 4.1.4 Valoarea medie şi dispersia unei variabile aleatoare Poisson
de parametru λ sunt M(X) = λ şi D 2 (X) = λ.

Demonstraţie. Deoarece
X∞ X∞
λk −λ −λ λk−1
M(X) = k e = λe = λe−λ eλ = λ
k=0
k! k=1
(k − 1)!
şi

X ∞
λk −λ X 2 λk
M(X 2 ) = k2 e = (k − k + k) e−λ =
k=0
k! k=0
k!

X ∞
λk −λ X λk −λ
= k(k − 1) e + k e = λ2 e−λ eλ + λ = λ2 + λ,
k=1
k! k=0
k!

obţinem D 2 (X) = M(X 2 ) − [M(X)]2 = λ.


Funcţia caracteristică a unei variabile aleatoare Poisson are expresia

X λk −λ it
g(t) = eikt e = eλ(e −1) .
k=0
k!

Cu ajutorul funcţiei caracteristice se verifică uşor că suma a două variabile


aleatoare Poisson de parametru λ şi respectiv µ este o variabilă aleatoare
Poisson de parametru λ + µ.
4.1. Distribuţii discrete 51

4.1.3 Legea multinomială


Un experiment multinomial are următoarele proprietăţi:

1. Experimentul constă din n probe identice.

2. Rezultatul fiecărei probe cade ı̂n una din cele k clase sau celule.

3. Probabilitatea ca rezultatul unei singure probe să cadă ı̂ntr-o celulă


particulară, să zicem i, este pi (i = 1, 2, . . . , k) şi rămâne aceeaşi de la
probă la probă. Avem p1 + p2 + · · · + pk = 1.

4. Probele sunt independente.

5. Variabilele aleatoare de interes sunt Y1 , Y2 , . . . , Yk , unde Yi , (i = 1, k)


este egal cu numărul de probe pentru care rezultatul cade ı̂n celula i.
De notat că Y1 + Y2 + · · · + Yk = n.

Funcţia de masă comună a lui Y1 , Y2 , . . . , Yk este

n!
p(y1 , y2, . . . , yk ) = py1 py2 . . . pykk
y1 !y2 ! . . . yk ! 1 2

unde
k
X k
X
pi = 1 şi yi = n.
i=1 i=1

Pk
Definiţia 4.1.5 Dacă p1 , p2 , . . . , pk sunt astfel ca i=1 pi = 1 şi pi > 0
pentru i = 1, k atunci spunem că (Y1 , Y2 , . . . , Yk ) are o distribuţie multino-
mială cu parametrii n şi p1 , p2 , . . . , pk dacă funcţia de probabilitate comună
a vectorului Y1 , Y2 , . . . , Yk este dată de

n!
p(y1 , y2, . . . , yk ) = py1 py2 . . . pykk
y1 !y2 ! . . . yk ! 1 2
unde
k
X
yi = n.
i=1

Teorema 4.1.6 Dacă Y1 , Y2 , . . . , Yk au o distribuţie multinomială cu para-


metrii n, p1 , . . . , pk , atunci

1. M(Yi ) = npi , D 2 (Yi ) = npi qi


52 Distribuţii de probabilitate clasice

2. Cov(Ys, Yt ) = −nps pt , pentru x 6= t.


Demonstraţie. Reamintim că distribuţiile marginale ale lui Yi pot fi uti-
lizate pentru a deduce mediile şi dispersiile. Vom combina toate celulele
exclusiv i ı̂ntr-o singură celulă. Atunci fiecare probă ne va da fie celula i
fie celula combinată cu probabilităţile pi şi respectiv 1 − pi . Deci Yi are o
distribuţie marginală binomială şi
M(Yi ) = npi şi D 2 (Yi ) = npi qi .
Aceleaşi rezultate se obţin scriind definiţia mediei
XX X n!
M(Y1 ) = ··· y1 py11 py22 . . . pykk .
y y y
y !y
1 2 ! . . . y k !
1 2 k

Pentru partea a doua putem gândi experimentul multinomial ca o sec-


venţă de n probe independente şi definim

1, dacă la proba i rezultatul este ı̂n s
Ui =
0, altfel

1, proba i, clasa t
Wi =
0, altfel
Atunci n n
X X
Ys = Ui , Yt = Wj .
i=1 j=1

Pentru a calcula Cov(Ys , Yt ) avem nevoie de următoarele rezultate


M(Ui ) = ps , M(Wj ) = pt
Cov(Ui , Wj ) = 0 dacă i 6= j, deoarece probele sunt independente.
Cov(Ui , Wi ) = M(Ui Wi ) − M(Ui )M(Wi ) = 0 − ps pt ,
deoarece ı̂ntotdeauna Ui Wi = 0.
Avem acum
n X
X n
Cov(Ys , Yt ) = Cov(Ui , Vj )
i=1 j=1
Xn XX
= Cov(Ui , Wi ) + Cov(Ui , Wj )
i=1 i6=j
Xn
= (−ps pt ) + 0 = −nps pt .
i=1
Covarianţa este negativă, ceea ce este de aşteptat, deoarece un număr mare
de rezultate ı̂n celula s va forţa numărul de rezultate din celula t să fie mic.
4.2. Distribuţii continue 53

4.2 Distribuţii continue


4.2.1 Repartiţia uniformă
O variabilă aleatoare X având densitatea de probabilitate
 1
b−a
pentru x ∈ [a, b]
f (x) = (4.5)
0 pentru x ∈/ [a, b]

se numeşte variabilă aleatoare uniformă pe [a, b], iar densitatea de pro-


babilitate şi funcţia de repartiţie corespunzătoare se numesc densitate de
probabilitate şi respectiv funcţie de repartiţie uniformă pe [a, b]. Mulţimea
variabilelor aleatoare uniforme pe [a, b] se notează cu U[a, b].
Se verifică imediat că funcţia de repartiţie uniformă pe [a, b] este

 0, pentru x ≤ a
x−a
F (x) = , pentru a < x ≤ b
 b−a
1, pentru x > b.

Graficele lui f şi F apar ı̂n figura 4.1.

1.5 1.5

1 1

0.5 0.5

0 0

−0.5 −0.5
0 2 4 6 0 2 4 6

Figura 4.1: Densitatea de probabilitate (stânga) şi funcţia de repartiţie


(dreapta) pentru U[2, 4]

Teorema 4.2.1 Valoarea medie şi dispersia unei variabile aleatoare uni-
forme sunt
a+b (b − a)2
M(X) = , D 2 (X) = .
2 12
54 Distribuţii de probabilitate clasice

Demonstraţie.
Z ∞ Z a Z b Z ∞
M(X) = xf (x)dx = xf (x)dx + xf (x)dx + xf (x)dx =
−∞ −∞ a b
Z b b
1 x2 b2 − a2 a+b
= xf (x)dx = = = .
a b − a 2 a 2(b − a) 2

De asemenea
Z ∞ Z b
2 2 1 a2 + ab + b2
M(X ) = x f (x)dx = x2 dx = ,
−∞ b−a a 3

de unde
a2 + ab + b2 a2 + 2ab + b2 (b − a)2
D 2 (X) = − = .
3 4 12

Ţinând cont că b > a avem D(X) = 2b−a


√ .
3
Funcţia caracteristică pentru X ∈ U[a, b] este

eitb − eita
g(t) = .
it(b − a)

4.2.2 Repartiţia normală


Spunem că variabila aleatoare X urmează legea normală de parametri
m şi σ 2 (sau uneori m şi σ), m ∈ R, σ > 0 dacă densitatea sa de probabilitate
este
1 (x−m)2
f (x) = √ e− 2σ2 . (4.6)
σ 2π
Mulţimea variabilelor aleatoare ce urmează legea normală de parametri
m şi σ 2 se va nota cu N(m, σ 2 ).
Funcţia de repartiţie este
Z x
1 (t−m)2
F (x) = √ e− 2σ2 dt.
σ 2π −∞

Dacă m = 0 şi σ 2 = 1 se obţine


1 x2
f (x) = √ e− 2 (4.7)

şi spunem că X urmează repartiţia normală standard sau redusă, notată
cu N(0, 1).
4.2. Distribuţii continue 55

Teorema 4.2.2 Media şi dispersia unei variabile aleatoare normale reduse
sunt M(X) = 0 şi D 2 (X) = 1.

Demonstraţie.
Z ∞ Z ∞
1 x2 1 x2
M(X) = √ xe− 2 dx = √ xe− 2 dx = 0,
−∞ 2π 2π −∞

deoarece funcţia de integrat este impară.


Z ∞ Z ∞
2 1 2 − x2
2 1 x2
D (X) = √ (x − m) e dx = √ x2 e− 2 dx.
2π −∞ 2π −∞
x2
Integrala se calculează prin părţi, luând u = x şi dv = xe− 2 , obţinându-se
 Z ∞ 
1 2 ∞
− x2
2
2 − x2
D (X) = √ −xe + e dx = 1,
2π −∞ −∞

deoarece Z ∞
2 √
e−x dx = π (integrala lui Poisson)
0

(pentru acest rezultat vezi formula (A.6) din secţiunea A.1, anexa A).

Corolarul 4.2.3 Media şi dispersia unei variabile aleatoare normale, de pa-
rametri m şi σ 2 sunt M(X) = m şi D 2 (X) = σ 2 .

Demonstraţie. Se face schimbarea de variabilă t = x−m σ


, de unde x =
tσ + m şi dx = σdt.
Z ∞ Z ∞
1 2
− t2 1 t2
M(X) = √ (tσ + m)e dt = √ te− 2 dt+
σ 2π −∞ 2π −∞
Z ∞ √
m t2 m
+√ e− 2 dt = √ 2π = m.
2π −∞ 2π
Z ∞ Z ∞
2 1 (x−m)2
2 − 2σ 2 σ3 t2
D (X) = √ (x − m) e dx = √ t2 e− 2 dt = σ 2 .
σ 2π −∞ σ 2π −∞

Observaţia 4.2.4 Parametri m şi σ 2 ai repartiţiei normale reprezintă valoa-


rea medie şi respectiv dispersia unei variabile aleatoare repartizată N(m, σ 2 ).
Rezultă totodată că funcţia de repartiţie a unei variabile aleatoare normale
este perfect determinată de valoarea medie şi dispersia variabilei.
56 Distribuţii de probabilitate clasice

Momentele de ordin impar ale repartiţiei normale standard sunt nule,


deoarece funcţia de integrat care intervine la calculul lor este impară. Pentru
momentele de ordin par avem
Z ∞ Z ∞  x2  ′
1 2
2k − x2 1
M2k (X) = √ x e dx = − √ x2k−1 e− 2 dx =
2π −∞ 2π −∞
= (2k − 1)M2k−2 (x).

Deci am obţinut

M2k+1 (X) = 0 (4.8)


(2k)!
M2k (X) = (2k − 1)!! = .
2k k!
Reprezentarea grafică. Pentru x = m avem un maxim, f (m) = √1 ,
σ 2π
iar punctele x = m±σ sunt puncte de inflexiune. În figura 4.2 se dau graficele
a trei densităţi de probabilitate normale cu aceiaşi medie şi cu dispersiile ı̂n
relaţia σ1 < σ2 < σ3 .
σ1

σ
2

σ
3

Figura 4.2: Trei densităţi de probabilitate normale

Dacă m 6= 0, graficul densităţii de probabilitate a lui N(m, σ 2 ) se poate


obţine din graficul lui N(0, σ 2 ) printr-o translaţie.
Funcţia de repartiţie a unei variabile aleatoare normale standard este
Z x
1 t2
Φ(x) = √ e− 2 dt (4.9)
2π −∞
şi se numeşte funcţia lui Laplace. Deoarece densitatea de probabilitate nor-
mală standard este simetrică faţă de dreapta x = 0 rezultă Φ(−x) = 1−Φ(x).
4.2. Distribuţii continue 57

Fie X ∈ N(0, 1). Putem scrie


Z u
1 t2
P (X < u) = Φ(u) = √ e− 2 dt;
2π −∞

deci probabilitatea evenimentului (X < u) este egală cu aria cuprinsă ı̂ntre


axa Ox, curba densitate de probabilitate şi dreapta x = u (vezi figura 4.3).
În figura 4.4 apar graficele pentru densitatea de probabilitate şi respectiv
funcţia de repartiţie a distribuţiei normale standard.

Φ(u)

x=u

Figura 4.3: Interpretarea geometrică a funcţiei Φ

Funcţia caracteristică. Vom calcula ı̂ntâi funcţia caracteristică a unei


variabile aleatoare normale standard. Avem
Z Z X ∞ n n
1 2
itx − x2 1 t i n − x2
g(t) = √ e e dx = √ x e 2 dx.
2π R 2π R n=0 n!

Deoarece seria din membrul drept este uniform convergentă putem permuta
suma cu integrala, obţinând
X∞ n n Z X∞ n n
t i 1 2
n − x2 t i
g(t) = ·√ x e dx = Mn (X).
n=0
n! 2π R n=0
n!

Ţinând cont de expresiile (4.8) ale momentelor repartiţiei normale standard


avem ı̂n final
X∞ ∞
t2m i2m (2m)! X (−t2 /2)m t2
g(t) = · m = = e− 2 .
m=0
(2m)! 2 m! m=0 m!
58 Distribuţii de probabilitate clasice

0.4 1

0.9
0.35

0.8
0.3
0.7

0.25
0.6

0.2 0.5

0.4
0.15

0.3
0.1
0.2

0.05
0.1

0 0
−4 −2 0 2 4 −4 −2 0 2 4

Figura 4.4: Distribuţia normală standard: densitatea de probabilitate


(stânga) şi funcţia de repartiţie (dreapta)

x−m
Pentru o variabilă aleatoare X ∈ N(m, σ 2 ), deoarece Y = σ
este normală
standard obţinem
σ 2 t2
gX (t) = gσY +m (t) = eitm gY (σt) = eitm− 2 .

Cu ajutorul funcţiei Φ, prin schimbarea de variabilă u = x−m σ


se determină
probabilităţilor ce privesc orice variabilă aleatoare normală:
Z b Z b Z a
P (a < X < b) = f (x)dx = f (x)dx − f (x)dx =
a −∞ −∞
"Z b−m Z a−m #
1 σ
− u2
2 σ
− u2
2
=√ e du − e du =
2π −∞ −∞
   
b−m a−m
=Φ −Φ .
σ σ
Cu ajutorul funcţiei caracteristice se poate demonstra:

Teorema 4.2.5 Dacă a1 , . . . , an sunt constante şi X1 , . . . , Xn sunt variabile


aleatoare independente, repartizate N(mk , σk2 ), k =P 1, n, atunci P variabila ale-
atoare Y = a1 X1 + · · · + an Xn este repartizată N( nk=1 ak mk , nk=1 a2k σk2 ).

Asimetria şi excesul pentru o variabilă aleatoare normală X sunt


M3 (X) M4 (X)
As = 3
= 0, E = − 3 = 0.
σ σ4
4.2. Distribuţii continue 59

În faptul că asimetria şi excesul repartiţiei N(m, σ 2 ) sunt nule ı̂şi are originea
procedeul statisticii descriptive de a considera aceste caracteristici drept cri-
terii de stabilire a normalităţii. Totuşi, condiţia As = E = 0 este o condiţie
necesară, dar nu suficientă pentru normalitate.
Regula celor 3 σ pentru variabile aleatoare normale.
 ε ε
P (|x − m| < ε) = P (−ε + m < X < ε + m) = Φ −Φ − =
ε σ σ
= 2Φ − 1.
σ

Luând ε = 3σ, obţinem

p = P (|x − m| < ε) = 2Φ(3) − 1.

În tabele găsim Φ(3) = 0.9987, de unde p = 0.9974. Cu alte cuvinte, proba-
bilitatea ca abaterea ı̂n valoare absolută să depăşească 3σ este 1 − 0.9974 =
0.0026, adică practic 0.

4.2.3 Familia de repartiţii gama


Spunem că variabila aleatoare X urmează legea gama de parametri r > 0
şi λ > 0 dacă densitatea sa de probabilitate este
(
λe−λx (λx)r−1
, pentru x > 0
f (x; r, λ) = Γ(r) (4.10)
0, pentru x ≤ 0,

unde Γ(r) reprezintă valoarea funcţiei gama a lui Euler ı̂n r (vezi secţiunea
A.1 din anexă). Mulţimea variabilelor aleatoare ce urmează legea gama de
parametri r şi λ se va nota cu γ(r, λ). Pentru λ = 1 se obţine repartiţia
gama standard de parametru r, având densitatea de probabilitate
(
e−x xr−1
Γ(r)
, pentru x > 0
f (x; r) =
0, pentru x ≤ 0.

Mulţimea variabilelor aleatoare ce urmează legea gama standard de parame-


tru r se va nota cu γ ∗ (r).

Observaţia 4.2.6 Are loc X ∈ γ(r, λ) ⇒ aX ∈ γ(r, λa ).


60 Distribuţii de probabilitate clasice

Să determinăm funcţia caracteristică a unei variabile aleatoare X ∈ γ ∗ (r).


Z ∞ Z ∞ X ∞
!
1 itx −x r−1 1 (itx)n
g(t) = e e x dx = e−x xr−1 dx
Γ(r) 0 Γ(r) 0 n=0
n!
∞ Z ∞
1 X (it)n ∞ −x n+r−1 1 X Γ(n + r)
= e x dx = (it)n
Γ(r) n=0 n! 0 Γ(r) n=0 n!

X r(r + 1) . . . (r + n + 1)
=1+ (it)n = (1 − it)−r .
n=0
n!
Deci g(t) = (1 − it)−r .
Dacă X ∈ γ(r, λ), atunci aX are densitatea de probabilitate f ( xa ); deci
conform observaţiei 4.2.6 aX ∈ γ(r, λa ) şi
 −r
it λr
gX (t) = 1 − = ,
λ (λ − it)r
căci dacă X ∈ γ(r, λ), λX ∈ γ ∗ (r).
Momentele de ordinul s ale lui X ∈ γ(r, λ) sunt
Z ∞ Z ∞
1 s −λx r−1 1
Ms (X) = x λe (λx) dx = s e−y y r+s+1dy
Γ(r) 0 λ Γ(r) 0
şi deci
Γ(r + s)
Ms (X) = ,
λs Γ(r)
de unde
r r(r + 1) 2 r
M(X) = , M2 (X) = , D (X) = .
λ λ2 λ2
Observaţia 4.2.7 Pentru r = 1, γ(1, λ) devine legea exponenţială de
parametru λ. Densitatea sa de probabilitate este
 −λx,
λe pentru x > 0
f (x; λ) =
0, pentru x ≤ 0.
Prin calcul se obţine

1 − e−λx , pentru x > 0
F (x; λ) =
0, pentru x ≤ 0,
iar prin particularizarea rezultatelor de mai sus
1 2 1
M(X) = M(X) = , M2 (X) = 2 , D 2 (X) = 2
λ λ λ
şi
λ
g(x) = .
λ − it
4.2. Distribuţii continue 61

Observaţia 4.2.8 Un alt caz particular interesant de repartiţie gama este


repartiţia Erlang. Vom spune că variabila aleatoare X urmează legea Erlang
de parametrii r > 0 şi λ > 0 dacă densitatea sa de probabilitate este

 λre−λrx (λrx)r−1
pentru x > 0,
f (x; r, λ) = Γ(r)

0 pentru x ≤ 0.
Această repartiţie a fost pusă ı̂n evidenţă de Erlang ı̂n studiile sale privind
apelurile abonaţilor unei centrale telefonice. Notăm cu Er(r, λ) mulţimea
variabilelor aleatoare care urmează legea Erlang de parametrii r şi λ. Se
verifică uşor că Er(r, λ) = γ(r, λr).
(X−m)2
Teorema 4.2.9 Dacă X ∈ N(m, σ 2 ) atunci Y = 2σ2
∈ γ ∗ ( 21 ).
Demonstraţie. Avem
   
√ X −m √ √ X −m √
P (Y < x) = P − x < √ < x = P − 2x < < 2x .
σ 2 σ
X−m
Deoarece σ
∈ N(0, 1), obţinem
Z √2x Z √2x
1 u2
− 2 2 − u2
2
P (Y < x) = √ e du = √ e du.
2π −√2x 2π 0

Efectuând schimbarea de variabilă u2 = 2v şi ţinând cont că Γ(1/2) = π,
rezultă că Z x
1 1
P (Y < x) = 1 e−v v − 2 dv = FY (x),
Γ( 2 ) 0
adică  −x 1 −1
 e x2 1
, pentru x > 0
fY (x) = Γ( 21 ) = fγ ∗ (x; ).
 2
0, pentru x ≤ 0

4.2.4 Repartiţia hi-pătrat


Spunem că variabila aleatoare X urmează legea χ2 (se citeşte hi-pătrat)
de parametri ν > 0(număr de grade de libertate) şi σ 2 > 0 dacă X ∈
γ( ν2 , 2σ1 2 ). Pentru densitatea de probabilitate din (4.10) se obţine
 − x ν −1
 e 2σ2 x 2
2 ν , pentru x > 0
f (x; m, σ ) = (2σ 2 ) 2 Γ( ν2 )

0, pentru x ≤ 0.
62 Distribuţii de probabilitate clasice

Această repartiţie a fost descoperită de astronomul Helmert ı̂n 1876 şi pusă
ı̂n valoare 30 de ani mai târziu de Karl Pearson, motiv pentru care se
mai numeşte şi repartiţia Helmert–Pearson. Pentru σ 2 = 1 se obţine
repartiţia χ2 standard cu ν > 0 grade de libertate, având densitatea de
probabilitate  − x ν −1
 e 2 x2
ν , pentru x > 0
f (x; ν) = 2 2 Γ( ν2 )

0, pentru x ≤ 0.
Mulţimea variabilelor aleatoare ce urmează legea χ2 de parametri ν şi σ 2 se
va nota cu χ2 (ν, σ 2 ) sau cu X 2 (ν, σ 2 ). În figura 4.5 apar mai multe exemple
de distribuţii χ2 standard, cu diverse grade de libertate.
0.2
χ2(5,1)
χ2(10,1)
0.15 2
χ (30,1)

0.1

0.05

0
0 10 20 30 40 50 60 70 80

2
2
χ (1,1)

1.5

0.5

0
0 2 4 6 8 10 12

Figura 4.5: Grafice de densităţi χ2 standard cu diverse grade de libertate:


ν = 1 (jos) şi ν = 5, 10, 30 (sus)

Funcţia caracteristică este


ν
g(x) = (1 − 2σ 2 ti)− 2
şi se obţine din funcţia caracteristică a repartiţiei gama (ec. 4.10) pentru
r = ν2 şi λ = 2σ12 .
Momentele de ordinul s sunt
(2σ 2 )s Γ(s + ν2 )
Ms (X) =
Γ( ν2 )
4.2. Distribuţii continue 63

şi deci M(X) = νσ 2 , M2 (X) = ν(ν + 2)σ 4 , D 2 (X) = 2νσ 4 .

Teorema 4.2.10 Dacă X1 , . . . , Xν ∈ N(0, σ 2 ) şi ele sunt independente, a-


tunci
Y = X12 + · · · + Xν2 ∈ X 2 (ν, σ 2 ).

Demonstraţie.
X2
Conform teoremei 4.2.9 Xj ∈ N(0, σ 2 ) ⇒ Yj = 2σj2 ∈ γ ∗ ( 12 ) ⇔ Xj2 ∈
γ( 21 , 2σ12 ) ⇔ Xj2 ∈ X 2 (1, σ 2). Deoarece X1 , . . . , Xν sunt independente
ν
gY (t) = gx21 (t) · · · gx2ν (t) = (1 − 2σ 2 ti)− 2

adică Y ∈ X 2 (ν, σ 2 ).
X−M (X)
Teorema 4.2.11 Fie X ∈ X 2 (ν, σ 2 ). Pentru ν → ∞, X ∗ = D(X)
ur-
mează legea normală standard N(0, 1).

Demonstraţie. Avem M(X) = 2νσ 2 , D 2 (X) = 2νσ 4 şi deci


r
∗ X − νσ 2 X ν
X = √ = √ − ,
2νσ 4 σ 2 2ν 2
din care se obţine
  r !− ν2
√n t √ν 2
gX ∗ (t) = e−it 2 gX √ = e−it 2 1 − it =
σ22ν ν
√2 r !!− ν2
2
= eit ν 1 − it .
ν

Dezvoltăm ı̂n serie primul factor


r
√2 √it 2 t2 
eit ν =e ν/2
= 1 + it − + Θ ν −3/2 ,
ν ν
ı̂nlocuim ı̂n al doilea şi obţinem
t2 
gX ∗ (t) = 1 + + Θ ν −3/2 ,
ν
de unde  2  
t −1/2

gX ∗ (t) = exp lim − − Θ ν ,
ν→∞ 2
adică funcţia caracteristică pentru N(0, 1).
64 Distribuţii de probabilitate clasice

4.2.5 Familia de repartiţii beta


Variabila aleatoare X urmează legea beta de parametri m, n (m, n > 0)
dacă densitatea sa de probabilitate este
 m−1
 x (1 − x)n−1
, dacă x ∈ [0, 1]
f (x; m, n) = B(m, n) (4.11)

0, dacă x ∈
/ [0, 1],
unde B(m, n) este funcţia beta a lui Euler (vezi secţiunea A.2 din anexă).
Mulţimea variabilelor aleatoare ce urmează repartiţia beta de parametri m, n
se notează cu β(m, n).
Momentul de ordin r al unei variabile aleatoare X ∈ β(m, n) este
Z 1
1 B(m + r, n)
Mr (X) = xr+m−1 (1 − x)n−1 dx = .
B(m, n) 0 B(m, n)
De aici, folosind formula A.13 din anexa A, care ne dă legătura ı̂ntre funcţiile
euleriene beta şi gama, se obţine
Γ(m + n)Γ(m + r)Γ(n) Γ(m + n)Γ(m + r)
Mr (X) = = .
Γ(n)Γ(m)Γ(m + n + r) Γ(m)Γ(m + n + r)

În particular
m m(m + 1)
M1 (X) = , M2 (X) = . (4.12)
m+n (m + n + 1)
Din ultimele două egalităţi rezultă
mn
D 2 (X) = . (4.13)
(m + n)2 (m + n + 1)

În figura 4.6 apar câteva exemple de grafice ale unor densităţi de probabilitate
ale unor repartiţii beta pentru diverse valori ale lui m şi n. Figura ilustrează
marea varietate de forme pe care care le poate avea graficul densităţii de
repartiţie a distribuţiei beta; astfel se explică importanţa acestei repartiţii
ca instrument de studiu al unei proporţii necunoscute p ∈ (0, 1).

4.2.6 Repartiţia Student


Spunem că variabila aleatoare X urmează legea Student cu ν > 0 grade
de libertate dacă densitatea sa de probabilitate este
  − ν+1
Γ ν+1
2 x2 2
f (x|ν) = √  1 + . (4.14)
πνΓ ν2 ν
4.2. Distribuţii continue 65

8 6 4

6 m<1, n>1 3
4 m<1, n<1
4 m<1, n=1 2
2
2 1

0 0 0
0 0.5 1 0 0.5 1 0 0.5 1

3 2 1.5
m=1, n>2
1.5
2 1
1 m=1, 1<n<2
m=1, n=2
1 0.5
0.5

0 0 0
0 0.5 1 0 0.5 1 0 0.5 1

2 6 2
m=n=1
1.5 1.5
4
1 m=1, n<1 1
2 m=n>1
0.5 0.5

0 0 0
0 0.5 1 0 0.5 1 0 0.5 1

2 2 10

1.5 1.5
m>1>n
1 1<m<n 1 5
1<n<m
0.5 0.5

0 0 0
0 0.5 1 0 0.5 1 0 0.5 1

1.5 2 3
m>2, n=1
1.5
1 2
1
n=1<m<2
0.5 1
0.5 m=2, n=1

0 0 0
0 0.5 1 0 0.5 1 0 0.5 1

Figura 4.6: Graficele unor densităţi de probabilitate ale repartiţiei beta.


66 Distribuţii de probabilitate clasice

Mulţimea variabilelor aleatoare ce urmează legea Student cu ν grade de


libertate se notează cu T (ν) sau S ∗ (ν).
Deoarece f este o funcţie pară momentele de ordin impar M2k+1 (X) sunt
nule, M(X) = 0, iar momentele centrate coincid cu momentele obişnuite.
Pentru calculul momentelor de ordin par efectuăm substituţia x2 = νy şi
obţinem
 Z ∞  − ν+1
Γ ν+1
2 2k x2 2
M2k (X) = √  x 1 + dx = (4.15)
πνΓ ν2 −∞ ν
Z ∞
ν k Γ ν+1 1 ν+1
= √ 2 
ν
y k− 2 (1 + y)− 2 dy =
πΓ 2 0
k ν+1
  
ν Γ 2 ν 1
= √ B − k, k + =
πΓ ν2 2 2
  
ν k Γ ν+1
2 
Γ ν
2
− k Γ k + 1
2 ν
= √ ν ν+1
 , 0<k< (4.16)
πΓ 2 Γ 2 2

Dar ν  ν  ν  ν 
Γ = −1 ··· −k Γ −k
2 2 2 2
şi      
1 1 1 1
Γ k+ = k− ··· Γ ,
2 2 2 2
de unde
1 · 3 · · · (2k − 1)
M2k (X) = νk (4.17a)
(ν − 2)(ν − 4) · · · (ν − 2k)
cu condiţia să avem k < ν2 .
Deci, primele două momente de ordin par, dacă există sunt

ν 3ν 2
M2 (X) = m2 (X) = , M4 (X) = m4 (X) = .
ν −2 (ν − 2)(ν − 4)

Din relaţia (4.17a) obţinem

lim M2k (X) = (2k − 1)!!


n→∞

şi deoarece M2k+1 (X) = 0, rezultă că momentele repartiţiei Student tind la
momentele repartiţiei N(0, 1) când n → ∞. Am demonstrat astfel teorema:

Teorema 4.2.12 Dacă X ∈ T (ν), atunci X este asimptotic normală stan-


dard (când ν → ∞).
4.2. Distribuţii continue 67

0.4
ν=1
ν=5
ν=10
0.35
ν=30

0.3

0.25

0.2

0.15

0.1

0.05

0
−3 −2 −1 0 1 2 3

Figura 4.7: Densităţi de probabilitate Student pentru ν = 1, 5, 10, 30 grade


de libertate

În figura 4.7 apar mai multe grafice de densităţi de probabilitate Student
pentru diverse grade de libertate.
Vom studia ı̂n continuare legătura ı̂ntre repartiţia Student şi alte repartiţii
cunoscute.

Teorema 4.2.13 Dacă X ∈ N(0, σ 2 ) şi Y ∈ X 2 (ν, σ 2 ) sunt variabile alea-


toare independente, atunci variabila aleatoare
X
Z=q
Y
ν

urmează legea T (ν).

Demonstraţie. Densitatea de probabilitate fp (x, y) a vectorului aleator


(X, Y ) este f (x, y) = fX (x)fY (y). Deoarece x = z νy şi y = y avem
py r
D(x, y) ν
√z
2 νy y
= = ,
D(z, y) 0 1 ν

de unde rezultă că


 r  r
y y
f (z, y) = fX z fY (y) .
ν ν
68 Distribuţii de probabilitate clasice

Densitatea de probabilitate a lui Z este


Z ∞ Z ∞  
1 − y2 1+ zν
2
ν−1
f (z) = f (z, y)dy = √ ν
 ν e 2σ y 2 dy;
2
2πνΓ 2 (2σ ) 2 0
0

2σ2
efectuând schimbarea de variabilă y = 1+z 2 /ν
, vom avea ı̂n final
  ν+1
z2 2
Z   − ν+1
1+ ν

ν+1 Γ ν+1 z2 2
−t −1 2
f (z) = √ ν
 e t 2 dt = √  1 + .
νπΓ 2 0 πνΓ ν2 ν

Din teoremele 4.2.13 şi 4.2.10 rezultă

Teorema 4.2.14 Dacă X0 , X1 , . . ., Xν sunt variabile aleatoare independente


de clasă N(0, σ 2 ), atunci variabila aleatoare

X0
Y =r
X12 + · · · + Xν2
ν
este de clasă T (ν).

Un alt rezultat util de acest tip este

Teorema 4.2.15 Dacă X1 , . . . , Xν sunt variabile aleatoare independente de


clasă N(0, σ 2 ) şi
X1 + · · · + Xν
Y = , (4.18)
ν
atunci variabila aleatoare
Y
Z=v (4.19)
uP
u ν (X − Y )2
u i
t i=1
ν(ν − 1)

aparţine clasei T (ν − 1).

Demonstraţie. Fie variabilele aleatoare


ν
X
Yi = aij Xj, i = 1, ν − 1 (4.20)
j=1
4.2. Distribuţii continue 69

şi
1
Yν = √ (X1 + · · · + Xν ) (4.21)
ν
cu coeficienţii aleşi astfel ı̂ncât matricea A = (aij ) să fie ortogonală. Deoarece
X1 , . . . , Xν sunt variabile aleatoare independente de clasă N(0, σ 2 ), rezultă
că şi Y1 , . . . , Yν sunt independente şi de clasă N(0, σ 2 ). Mai mult
Y12 + · · · + Yν2 = X12 + · · · + Xν2 (4.22a)
de unde
X12 + · · · + Xν2
Y12 + · · · + Yν−1
2
= X12 + · · · + Xν2 − =
ν
X ν
2 2 2
= X1 + · · · + Xν − νY = (Xi − Y )2 (4.23)
i=1

Utilizând (4.18), (4.19), (4.21) şi (4.23) obţinem


1
p 1
p √
ν(ν − 1)(X 1 + · · · + X ν ) ν(ν − 1) νYν
Z= ν pPν = ν pPν 2
=
2
i=1 (Xi − Y ) i=1 Yi

=q 2 2
Y1 +···+Yν−1
ν−1

şi conform teoremei precedente Z ∈ T (ν − 1).


În figura 4.8 apar pe acelaşi grafic o distribuţie N(0, 1) şi o distribuţie
T (5).

4.2.7 Repartiţia F
Spunem că o variabilă aleatoare are repartiţia F sau repartiţia Snedecor-
Fisher cu ν1 > 0 şi ν2 > 0 grade de libertate dacă densitatea sa de probabi-
litate este
   ν1 ν1

 ν1 2 x 2 −1
 ν2 pentru x > 0
f (x; ν1 , ν2 ) = ν1 ν2
 ν1
 ν1 +ν
2
2
(4.24)
 B 2 , 2 1 + ν2 x


0 pentru x ≤ 0.
Mulţimea variabilelor cu această repartiţie se va nota cu F (ν1 , ν2 ). Momen-
tele de ordinul r ale unei variabile aleatoare X ∈ F (ν1 , ν2 ) sunt
 r  
ν1 Γ ν21 + r Γ ν22 − r
Mr (X) =   , (4.25)
ν2 Γ ν21 Γ ν22
70 Distribuţii de probabilitate clasice

0.4
N(0,1)
T(5)

0.35

0.3

0.25

0.2

0.15

0.1

0.05

0
−4 −3 −2 −1 0 1 2 3 4

Figura 4.8: Relaţia ı̂ntre distribuţia N(0, 1) şi T (5)

cu condiţia ca 0 < 2r < ν2 . Pentru r ı̂ntreg se obţine:


 r
ν1 ν1 (ν1 + 2) . . . (ν1 + 2r − 2)
Mr (X) = .
ν2 (ν2 − 2)(ν2 − 4) . . . (ν2 − 2r)

În particular, au loc formulele

ν2 ν22 ν1 + 2
M(X) = ; M2 (X) = · ,
ν2 − 2 ν1 (ν2 − 2)(ν2 − 4)

valabile pentru ν2 > 2 şi respectiv ν2 > 4. Dacă ν2 > 4, atunci

2ν22 (ν1 + ν2 − 2)
D 2 (X) = .
ν2 − 2

În figura 4.9 apare graficul unei densităţi de probabilitate de tip F .


Cele două teoreme care urmează precizează legătura ı̂ntre distribuţia F
şi alte repartiţii.

Teorema 4.2.16 Dacă X1 ∈ X 2 (ν1 , σ 2 ) şi X2 ∈ X 2 (ν2 , σ 2 ), atunci variabila


aleatoare
1
ν1 1
X
Y = 1
ν2 2
X
aparţine clasei F (ν1 , ν2 ).
4.2. Distribuţii continue 71

−3
x 10
5

4.5

3.5

2.5

1.5

0.5

0
0 1 2 3 4 5 6 7 8 9 10

Figura 4.9: Graficul densităţii de probabilitate a lui F (15, 5)

Demonstraţie. Deoarece X1 şi X2 sunt independente, densitatea de


probabilitate a vectorului aleator (X1 , X2 ) este

f (x1 , x2 ) = fχ2 (x1 ; ν1 , σ 2 )fχ2 (x2 ; ν2 , σ 2 ).

Densitatea de probabilitate a lui (Y, X2 ) se obţine observând că


ν1
x1 = yx2 ; x2 = x2
ν2

şi deci
D(x1 , x2 ) νν12 x2 νν12 y ν1
= x2 ,
= ν2
D(y, x2) 0 1
de unde rezultă
ν1 ν1 ν1
f (y, x2 ) = f (x1 , x2 ) x2 = fχ2 ( yx2 ; ν1 , σ 2 )fχ2 (x2 ; ν2 , σ 2 ) x2 .
ν2 ν2 ν2

De aici deducem că densitatea de probabilitate a lui Y este


Z ∞ Z
ν1 ∞ ν1 ν1
f (y) = f (y, x2 )dx2 = fχ2 ( yx2 ; ν1 , σ 2 )fχ2 (x2 ; ν2 , σ 2 ) x2 dx2 .
−∞ ν2 0 ν2 ν2

După efectuarea calculelor se obţine f (y) = f (y; ν1 , ν2 ).


Din ultima teoremă şi din teorema 4.2.10 rezultă:
72 Distribuţii de probabilitate clasice

Teorema 4.2.17 Dacă X1 , . . . , Xν1 şi Y1 , . . . , Yν2 sunt variabile aleatoare in-
dependente din clasa N(0, σ 2 ), atunci variabila aleatoare

ν2 X12 + · · · + Xν21
Z= ·
ν1 Y12 + · · · Yν22

este de clasă F (ν1 , ν2 ).

4.2.8 Distribuţia normală bidimensională


Spunem că vectorul aleator (X1 , X2 ) urmează legea normală bidimensio-
nală dacă densitatea sa de probabilitate este

e−Q/2
f (x1 , x2 ) = p , x, y ∈ R
2πσ1 σ2 1 − ρ2

unde
 
1 (x1 − m1 )2 (x1 − m1 )(x2 − m2 ) (x2 − m2 )2
Q= − 2ρ + .
1 − ρ2 σ12 σ1 σ2 σ22

Distribuţia normală bidimensională depinde de cinci parametri: m1 , m2 , σ12 ,


σ22 şi ρ. Alegerea notaţiilor pentru aceşti parametri nu este ı̂ntâmplătoare.
Se poate arăta că M(Xi ) = mi , D 2 (Xi ) = σi2 pentru i = 1, 2 şi ρ(X1 , X2 ) =
ρσ1 σ2 .
Dacă cov(X1 , X2 ) = 0 sau echivalent ρ = 0, atunci X1 şi X2 sunt inde-
pendente. De notat că ı̂n general corelaţia nulă nu implică independenţa, dar
ı̂n cazul când (X1 , X2 ) urmează legea normală bidimensională aceasta este o
condiţie necesară şi suficientă de independenţă. În figura 4.10 apar graficele
a două densităţi de probabilitate normale bidimensionale.
4.2. Distribuţii continue 73

0.16 0.2

0.14

0.12 0.15

0.1

0.08 0.1

0.06

0.04 0.05

0.02

0 0
4 4

2 4 2 4
2 2
0 0
0 0
−2 −2
−2 −2
−4 −4 −4 −4

Figura 4.10: Graficele a două distribuţii normale bidimensionale cu m1 =


m2 = 0, σ1 = σ2 = 1, dar ρ = 0 (stânga) şi ρ = 1/2 (dreapta)
74 Distribuţii de probabilitate clasice
Capitolul 5

Legea numerelor mari şi legi


limită

Înainte de a efectua o experienţă nu putem şti ce valoare va lua o variabilă


aleatoare pe care o studiem. Întrucât dispunem de puţine informaţii despre
fiecare variabilă aleatoare, s-ar părea că determinarea comportării mediei
aritmetice a unui număr suficient de mare de variabile aleatoare este o pro-
blemă dificilă. În realitate, ı̂n condiţii puţin restrictive, media aritmetică a
unui număr mare de variabile aleatoare ı̂şi pierde caracterul ı̂ntâmplător.
În practică este foarte important să cunoaştem condiţiile ı̂n care acţiunea
combinată a mai multor factori ı̂ntâmplători conduce la un rezultat care să
nu depindă de ı̂ntâmplare, deci care să ne permită să prevedem mersul feno-
menului studiat. Aceste condiţii se dau ı̂n calculul probabilităţilor ı̂n teoreme
cunoscute sub denumirea comună de legi ale numerelor mari. Termenul a fost
folosit pentru prima oară de Poisson, deşi cu un secol ı̂nainte Jakob Bernoulli
a pus ı̂n evidenţă acţiunea legii numerelor mari cu referire la repartiţia bi-
nomială. În 1867 Cebı̂şev a precizat riguros din punct de vedere matematic
legea numerelor mari ı̂n condiţii mai generale.

5.1 Convergenţa ı̂n probabilitate


Definiţia 5.1.1 Vom spune că şirul de variabile aleatoare (Xn ) converge ı̂n
p
probabilitate către o variabilă aleatoare X (notaţie Xn −→ X) dacă, fiind
date două numere reale pozitive, suficient de mici, ε şi η, există un ı̂ntreg N
astfel ı̂ncât pentru orice n > N să avem

P (|Xn − X| ≥ ε) < η. (5.1)

75
76 Legea numerelor mari şi legi limită

În Analiza matematică are loc convergenţa deterministă

Xn −→ X ⇐⇒ ∀ε > 0 ∃Nε : n > Nε =⇒ |Xn − X| < ε.

Convergenţa ı̂n probabilitate este aproape certitudinea unei convergenţe de-


terministe
p
Xn −→ X ⇐⇒ lim P (|Xn − X| < ε) = 1.
n→∞

Teorema 5.1.2 Dacă (Xn ) este un şir de variabile aleatoare şi a ∈ R, astfel
p
ı̂ncât M(Xn ) −→ a şi D 2 (Xn ) −→ 0, atunci Xn −→ a.

Demonstraţie. Se aplică inegalitatea lui Cebı̂şev 3.4

M ((Xn − a)2 )
P (|Xn − a| ≥ ε) < −→ 0
ε2

5.2 Legea slabă a numerelor mari


Fie şirul de variabile aleatoare (Xn ), definite pe câmpul (E, K, P ) şi fie
(ϕn ) un şir de aplicaţii ϕn : Rn −→ R simetrice ı̂n raport cu argumentele lor.
Fie şirul (Yn ) dat de Yn = ϕ(X1 , . . . , Xn ).

Definiţia 5.2.1 Dacă există un şir de constante (cn )n∈N astfel ı̂ncât

lim P (|Yn − cn | < ε) = 1


n→∞

pentru orice ε > 0 dat, atunci spunem că şirul (Xn ) urmează legea slabă a
numerelor mari.

p
Cu alte cuvinte |Yn − cn | −→ 0.
Una din cele mai frecvente alegeri pentru ϕn este

X1 + · · · + Xn
ϕn (X1 , . . . , Xn ) = ,
n
iar pentru cn
M(X1 ) + · · · + M(Xn )
cn = .
n
5.2. Legea slabă a numerelor mari 77

Teorema 5.2.2 (Markov) Dacă (Xn ) verifică condiţia lui Markov


n
!
1 2 X
lim D Xi = 0,
n→∞ n2
i=1

atunci !
1 Xn
1 Xn

lim P Xi − M(Xi ) < ε = 1 (5.2)
n→∞ n n
i=1 i=1

pentru orice ε > 0 dat.

Demonstraţie. Punem

X1 + · · · + Xn
X̄ =
n
şi aplicăm inegalitatea lui Cebı̂şev 3.4
 D 2 (X̄)
P X̄ − M(X̄) < ε ≥ 1 −
ε2
Deoarece
1
D 2 (X̄) = 2 D 2 (X1 + · · · + Xn ) −→ 0 (n → ∞)
n

obţinem limn→∞ P X̄ − M(X̄) < ε ≥ 1 şi, ţinând cont că probabilitatea
este subunitară rezultă concluzia.
Din teorema lui Markov rezultă:

Teorema 5.2.3 (Cebı̂şev) Dacă X1 , . . . , Xn sunt variabile aleatoare inde-


pendente care au dispersii finite mărginite de o aceeaşi constantă c, atunci
pentru orice ε > 0
 
X1 + · · · + Xn M(X1 ) + · · · + M(Xn )
lim P −
n→∞ n n < ε = 1. (5.3)

Demonstraţie. Avem D 2 (Xi ) < c, i = 1, n. Din independenţa variabi-


lelor Xi rezultă
n n
2 1 2 X 1 X 2 nc
D (X̄) = 2 D ( Xi ) = 2 D (Xi ) ≤ 2 −→ 0 (n → ∞),
n i=1
n i=1 n

din care aplicând teorema 5.2.2 rezultă concluzia.


78 Legea numerelor mari şi legi limită

Observaţia 5.2.4 a) Dacă M(X1 ) = . . . = M(Xn ) = m, atunci (5.2) şi


(5.3) se scriu
 
X1 + · · · + Xn

lim P
− m < ε = 1.
n→∞ n
Această observaţie explică de ce putem să facem afirmaţii asupra unei
populaţii pe baza unei selecţii având un volum mic comparativ cu cel
al ı̂ntregii populaţii. Explicaţia constă ı̂n aceea că selecţia implică un
număr de măsurători suficient prin ele ı̂nsele. Deci teorema lui Cebı̂şev
este fundamentală pentru teoria selecţiei.
b) Teorema lui Cebı̂şev ne spune că deşi variabilele aleatoare independente
pot lua valori depărtate de mediile lor, media aritmetică a unui număr
mare de variabile aleatoare ia, cu o probabilitate foarte mare, valori ı̂n
vecinătatea constantei M (X1 )+···+M
n
(Xn )
. Această observaţie ne arată că
ı̂ntre comportarea fiecărei variabile aleatoare şi cea a mediei lor aritme-
tice există o mare deosebire, ı̂n sensul că nu putem preciza ce valoare
va lua fiecare din variabilele aleatoare, ı̂nsă putem preciza cu o pro-
babilitate apropiată de 1 ce valoare va lua media aritmetică a acestor
variabile. Urmează că media aritmetică a unui număr suficient de mare
de variabile aleatoare, cu dispersii mărginite, ı̂şi pierde din caracterul
de variabilă aleatoare. Acest fapt se explică prin aceea că abaterile di-
verselor variabile aleatoare sunt unele pozitive, altele negative şi astfel
ele se compensează.

Teorema 5.2.5 (Poisson) Fie şirul de evenimente (An )n∈N , ale căror pro-
babilităţi de realizare au valorile succesive (pn )n∈N . Dacă notăm cu fn frec-
venţa relativă a evenimentului An , n ∈ N, atunci
 
p 1 + · · · + p n
lim P fn − = 1.

n→∞ n
Demonstraţie. Fie Xk o variabilă aleatoare având distribuţia
 
0 1
Xk : .
1 − pk pk
Variabila ia valoarea 0 sau 1 după cum Ak se realizează sau nu la proba de
rang k. Variabilele aleatoare Xk sunt independente şi

M(Xk ) = 1 · pk + 0 · (1 − pk ) = pk
1
D 2 (Xk ) = pk − p2k = pk (1 − pk ) ≤ .
4
5.3. Convergenţa ı̂n repartiţie 79

X1 +···+Xn
Rezultă că avem fn = n
şi

1 p1 + · · · + pn
M(X̄) = [(M(X1 ) + · · · M(Xn ))] = .
n n
Suntem ı̂n condiţiile teoremei lui Cebı̂şev şi deci
 
p 1 + · · · + p n
lim P fn − = 1.

n→∞ n

În cazul particular când p1 = . . . = pn = p şi A1 = . . . = An = A obţinem:

Teorema 5.2.6 (Bernoulli) Dacă ε este un număr pozitiv arbitrar, atunci


 ν 

lim P − p < ε = 1,
n→∞ n
unde ν este numărul de realizări ale evenimentului A din n experienţe.

Observaţia 5.2.7 În cazul unei populaţii de volum mare, dacă se efectu-
ează o selecţie de volum n şi se obţin ν rezultate favorabile, atunci putem
afirma, cu o probabilitate oricât de apropiată de 1, că probabilitatea eve-
nimentului cercetat este dată de frecvenţa relativă. Prin urmare, dacă ı̂n
studiul populaţiilor pentru care nu putem determina a priori probabilitatea
de realizare a unui eveniment, probabilitatea teoretică se poate aproxima pe
cale elementară prin frecvenţa relativă nν a evenimentului considerat, fapt ce
constituie justificarea teoretică a utilizării frecvenţei ı̂n loc de probabilitate.

5.3 Convergenţa ı̂n repartiţie


Fie (Xn ) un şir de variabile aleatoare cu funcţiile de repartiţie (Fn ) şi X
o variabilă aleatoare cu funcţia de repartiţie F.

Definiţia 5.3.1 Spunem că şirul de variabile aleatoare (Xn ) converge ı̂n
r
repartiţie către variabila aleatoare X (notaţie Xn −→ X) dacă ı̂n orice punct
de continuitate x0 al funcţiei de repartiţie F (x) a variabilei aleatoare X avem

lim Fn (x0 ) = F (x0 ).


n→∞

p r
Teorema 5.3.2 Dacă Xn −→ X, atunci Xn −→ X.
80 Legea numerelor mari şi legi limită

Demonstraţie. Fie x0 un punct de continuitate al lui F . Pentru orice


ε > 0 există δ > 0 astfel ı̂ncât

F (x0 + δ) − F (x0 − δ) ≤ ε. (5.4)

Avem

F (x0 − δ) = P (X < x0 − δ) =
= P ((X < x0 − δ)∩(Xn < x0 ))+P ((X < x0 − δ)∩(Xn ≥ x0 )) =
= Fn (x0 ) + P ((X < x0 − δ) ∩ (Xn ≥ x0 )) ≤
≤ Fn (x0 ) + P (|Xn − X| ≥ δ) .

Ţinând cont că are loc (5.1), rezultă

F (x0 − δ) ≤ limn→∞ Fn (x0 ).

Analog se obţine
F (x0 + δ) ≥ limn→∞ Fn (x0 ).
Din ultimele două inegalităţi şi din (5.4) rezultă

lim Fn (x0 ) = F (x0 )


n→∞

r
ceea ce ne arată că Xn −→ X.

5.4 Teorema limită centrală


Fie şirul de variabile aleatoare (Xn ) definite pe câmpul de probabilitate
(E, K, P ). Vom presupune ı̂n cele ce urmează că aceste variabile aleatoare
au dispersii finite. Pentru simplitate vom utiliza notaţiile:

aj = M(X
Pn j ) σj2 = DP
2
(Xj )
(5.5)
a(n) = j=1 aj σ(n) = nj=1 σj2
2

n
1 X
Yn = 2 (Xj − aj ) (5.6)
σ(n) j=1

Problema care se pune este următoarea: ce condiţii trebuie impuse şirului


de variabile aleatoare (Xn ) pentru ca repartiţia lui Yn să conveargă către
repartiţia unei variabile aleatoare normale. Această problemă, numită şi pro-
blema asimptotică centrală, are o importanţă deosebită ı̂n aplicaţiile Teoriei
probabilităţilor, permiţând, pentru n suficient de mare, asimilarea funcţiei
5.4. Teorema limită centrală 81

de repartiţie a lui Yn cu o funcţie de repartiţie normală. Spunem că (Xn )


verifică condiţia lui Lindeberg, notată cu (L) dacă
n Z
1 X
lim (x − aj )2 dFj (x) = 0, (L)
n→∞ σ 2
(n) j=1 |x−aj |>εσ(n)

unde Fj este funcţia de repartiţie a variabilei aleatoare Xj.


Pentru a clarifica semnificaţia condiţiei lui Lindeberg să fixăm ε şi n şi să
considerăm evenimentela Aj (ε), j = 1, n, definite astfel

Aj (ε) = e : |Xj (e) − aj | > εσ(n) .

Este clar că


Z Z
1
P (Aj (ε)) = dFj (x) ≤ 2 2 (x − aj )2 dFj (x).
|x−aj |>εσ(n) ε σ(n) |x−aj |>εσ(n)

Pe de altă parte avem


  n
! n
[ X
P max |Xj − aj | > εσ(n) =P Aj (ε) ≤ P (Aj (ε)) .
1≤j≤n
j=1 j=1

Din ultimele două relaţii se obţine


  n Z
1 X
P max |Xj − aj | > εσ(n) ≤ 2 2 (x − aj )2 dFj (x).
1≤j≤n ε σ(n) j=1 |x−aj |>εσ(n)

şi deci conform condiţiei (L) rezultă că


 
∀ε > 0 lim P max |Xj − aj | > εσ(n) = 0.
n→∞ 1≤j≤n

Această condiţie ne arată că termenii sumei (5.6) sunt mici ı̂n mod uniform.

Teorema 5.4.1 (Lindeberg) Fie (Xn ) un şir de variabile aleatoare. Dacă


este ı̂ndeplinită condiţia (L), atunci (Yn ) definit de (5.6) converge ı̂n repartiţie
către N(0, 1) şi ı̂n plus
σj2
lim max = 0. (5.7)
n→∞ 1≤j≤n σ 2
(n)

Şi reciproca este adevărată.


82 Legea numerelor mari şi legi limită

Teorema 5.4.2 (Feller) Fie (Xn ) un şir de variabile aleatoare indepen-


dente. Dacă şirul (Yn ) definit de (5.6) converge ı̂n repartiţie către o variabilă
aleatoare normală standard şi dacă este ı̂ndeplinită condiţia 5.7, atunci este
ı̂ndeplinită şi condiţia lui Lindeberg (L).

Cu ajutorul teoremei lui Lindeberg se obţine:

Teorema 5.4.3 Următoarele condiţii sunt suficiente pentru ca şirul de va-


riabile aleatoare (Yn ) să conveargă ı̂n repartiţie către o variabilă aleatoare
N(0, 1):

(a) (Xn ) admit dispersii finite şi mărginite şi limn→∞ σ(n) = +∞;

(b) variabilele aleatoare (Xn ) sunt identic repartizate şi admit dispersii fi-
nite;

(c) (Liapunov) există momentele absolute de ordin 3



ρ3j = M |Xj − aj |3
ρ Pn
şi limn→∞ σ(n)
(n)
= 0, unde ρ3(n) = 3
j=1 ρj .

Observaţia 5.4.4 Se poate folosi repartiţia normală pentru a aproxima re-


partiţii discrete.

1. Dacă X ∈ b(n, p), atunci Y = X−np



npq
este asimptotic normală standard.
Pentru valori mari ale lui n putem scrie
Z b
√ √ 1 t2
P (a npq < X − np < b npq) ≃ √ e− 2 dt.
2π a

X−λ
2. Dacă X ∈ P o(λ), atunci Y = λ
este asimptotic normală standard.

În practică, repartiţiile binomială şi Poisson se asimilează unei repartiţii


normale reduse ı̂n următoarele condiţii:

1. pentru repartiţia binomială dacă n ≥ 50 şi np ≥ 18 se consideră vari-


abila aleatoare corectată X+0.5−np

npq
care este asimptotic normală redusă;

2. pentru repartiţia Poisson dacă λ ≥ 18 se ia variabila aleatoare corectată


X+0.5−λ
λ
care este asimptotic normală redusă.
Partea II

Statistica matematică

83
Statistica – scurt istoric

Primele preocupări statistice datează din antichitate. În China şi ı̂n Egip-
tul antic se culegeau şi se ,,prelucrau“ date referitoare la populaţie, recolte,
cadastru, ı̂n scopul unei mai bune colectări a impozitelor şi a păstrării unei
evidenţe a bărbaţilor capabili să poarte arme. De asemenea, Vechiul Testa-
ment aminteşte de numărarea bărbaţilor capabili să poarte arme efectuată
de Moise. Anchetele şi recensămintele efectuate de romani au reprezentat
o culme a acestui tip de activităţi. Preocupări de colectare a informaţiilor
despre populaţie au existat şi ı̂n America precolumbiană.
În evul mediu se cunosc recensămintele efectuate de mongoli, arabi, incaşi,
iar ı̂n renaştere activităţile lui Leonardo Pissano (Fibonacci) şi Luca Pacciolo.
În antichitate şi evul mediu culegerea datelor privind resursele umane şi
materiale se făcea pe considerente pur practice şi ı̂n scopul folosirii acestora
ı̂n scopuri fiscale, administrative sau militare. Putem spune că toate acestea
erau utilizate ı̂n descrierea statului, de unde provine probabil termenul de
statistică.
Începutul tratării ştiinţifice a datelor statistice s-a făcut ı̂n Germania
secolelor XVII – XVIII. Termenul statistică apare pentru prima dată ı̂n cur-
sul ,,Collegium politico-statisticum“ ţinut de Martin Schmeizel (1659-1757)
la Universitatea din Halle, iar după alţi autori ı̂n cursul ,,Staatskunde“ a
lui Gottfried Achenwall (1719-1772) de la Universitatea din Göttingen. În
Anglia, tot ı̂n aceiaşi perioadă, exista ca disciplină descriptivă a statului
aritmetica politică.
Un moment important ı̂n dezvoltarea statisticii ı̂l reprezintă cristalizarea
calculului probabilităţilor. Dezvoltarea acestuia din ultimii 200 de ani şi-a
pus din plin amprenta asupra statisticii. Un statistician important al secolu-
lui al XIX-lea este Adolphe Quetelet (1769-1874), de al cărui nume se leagă
noţiunile de repartiţie, medie, dispersie, observare de masă şi regularitate.
El considera că statistica este singura metodă ce se poate aplica fenomenelor
de masă.
Trecerea de la statistica descriptivă la studierea ştiinţifică a populaţiilor
statistice s-a realizat, la ı̂nceputul secolului nostru, de Karl Pearson (1857-

85
86

1936) şi elevii săi, care au ı̂nceput să considere caracteristicile unei populaţii
ca reprezentând variabile aleatoare. Această viziune a deschis drumul uti-
lizării intense a Teoriei probabilităţilor ı̂n problemele statistice, dând naştere
la ceea ce se numeşte azi Statistica matematică. Datorită contribuţiilor lui
Ronald Aylmer Fischer (1890-1962), Snedecor şi Shewart statistica a benefi-
ciat ı̂n secolul nostru de avantajele şi sprijinul producţiei de masă.
O contribuţie importantă la dezvoltarea Statisticii matematice a avut şi
şcoala românească de statistică, prin iluştrii săi reprezentanţi Octav Onices-
cu, Gheorghe Mihoc şi Marius Iosifescu.
Capitolul 6

Statistică descriptivă

Statistica este limbajul universal al ştiinţelor. Statistica este mai mult


decât un set de instrumente. Ca utilizatori potenţiali trebuie să ı̂nvăţăm să
utilizăm corect aceste instrumente. Utilizarea adecvată a metodelor statistice
ne permite:

1. să descriem cu acurateţe descoperirile cercetării ştiinţifice;

2. să luăm decizii;

3. să facem estimaţii.

Cuvântul statistică are diverse semnificaţii pentru oamenii din diverse


grupuri de interes. Pentru unii oameni este un fel de hocus-pocus“ prin

care o persoană ı̂n cunoştinţă de cauză poate induce ı̂n eroare o persoană
profană. Pentru alţi oameni este o metodă de a colecta şi afişa volume mari
de informaţie numerică. Mai există şi un alt grup pentru care statistica este
o modalitate de a lua decizii ı̂n condiţii de incertitudine. Într-un anumit sens
fiecare din aceste puncte de vedere este corect.
Domeniul statisticii poate fi ı̂mpărţit ı̂n două subdomenii: statistica des-
criptivă şi statistica inferenţială (sau analitică). Statistica descriptivă
este ceea ce mulţi oameni ı̂nţeleg când aud cuvântul statistică. Ea include
colectarea, prezentarea şi descrierea datelor. Termenul statistică inferen-
ţială se referă la tehnica de interpretare a valorilor rezultate din tehnicile
descriptive şi apoi utilizarea lor la luarea deciziilor.
Vom aminti următoarele două definiţii ale statisticii:

• Statistica este ştiinţa colectării, clasificării, prezentării şi interpretării


datelor numerice [ J84];

87
88 Statistică descriptivă

• Statistica matematică este o ramură a matematicii aplicate care se


ocupă cu gruparea, analiza şi interpretarea datelor referitoare la un
anumit fenomen de masă ı̂n scopul obţinerii unor previziuni privind
desfăşurarea ulterioară a sa.[ Mi]

6.1 Terminologia de bază


1. Populaţia – o mulţime de indivizi, obiecte sau măsurători ale căror
proprietăţi urmează a fi analizate. Pentru a forma o populaţie o mul-
ţime de elemente trebuie să aibă o caracteristică comună. Concep-
tul de populaţie este una dintre noţiunile fundamentale ale statisticii.
Populaţia ı̂n cauză trebuie să fie foarte atent definită şi este considerată
complet definită numai atunci când se poate da lista tuturor elemen-
telor ei. Mulţimea studenţilor unei universităţi este un exemplu de
populaţie bine definită. În mod tipic gândim o populaţie ca o colecţie
de oameni. Totuşi ı̂n statistică populaţia poate fi o colecţie de animale,
de obiecte manufacturate sau de măsurători. De exemplu, mulţimea
valorilor numerice care sunt ı̂nălţimi ale plopilor din judeţul Cluj con-
stituie o populaţie. Un element al unei populaţii se numeşte individ.

2. Eşantion sau selecţie – o submulţime a unei populaţii. O selecţie


trebuie să ı̂ndeplinească următoarele condiţii:

(a) să fie aleatoare (orice selecţie să aibă şansa de a fi aleasă – şansa
poate fi calculată);
(b) toate elementele colectivităţii să aibă aceiaşi probabilitate de a fi
alese;
(c) structura selecţiei să fie cât mai apropiată de structura populaţiei,
adică selecţia să fie reprezentativă;
(d) volumul selecţiei să fie suficient de mare.

3. Variabilă – o caracteristică cantitativă de interes a fiecărui element


al unei populaţii sau selecţii. Ca exemple, am putea da vârsta unui
student la intrarea ı̂n facultate, ı̂nălţimea ş.a.m.d. Variabilele pot fi
discrete sau continue.

4. Atribut - o caracteristică calitativă de interes a fiecărui element al


unei populaţii sau selecţii. Culoarea părului sau a ochilor studenţilor
de la o facultate, calitatea unor piese de a fi corespunzătoare sau neco-
respunzătoare sunt exemple de atribute.
6.1. Terminologia de bază 89

5. Dată – valoarea unei variabile asociate cu un element al unei populaţii


sau selecţii.

6. Date – mulţimea valorilor colectate ale unei variabile pentru fiecare


element din selecţie. Exemplu: mulţimea ı̂nălţimilor fiecăruia din cei
25 de studenţi ai unei grupe de 25 de studenţi.

7. Experiment – o activitate planificată al cărei rezultat este o mulţime


de date.

8. Parametru – o caracteristică numerică a unei ı̂ntregi populaţii. Vârsta


medie la admitere a studenţilor sau proporţia celor peste 21 de ani
dintre cei admişi sunt exemple de parametri ai unei populaţii. Un
parametru este o valoare ce descrie ı̂ntreaga populaţie.

9. Statistică – o caracteristică numerică a unei selecţii.

Exemplul 6.1.1 Un student care urmează un curs de statistică este inte-


resat să studieze valoarea maşinilor pe care le posedă studenţii şi angajaţii
universităţii. În această situaţie fiecare din cei nouă termeni descrişi anterior
poate fi identificat:

1. populaţia este colecţia maşinilor posedate de studenţii şi angajaţii uni-


versităţii (sau a valorilor acestora);

2. o selecţie este orice parte a acelei populaţii;

3. o variabilă este valoarea actuală a fiecărei maşini;

4. un atribut ar putea fi culoarea fiecărei maşini;

5. o dată este valoarea unei maşini particulare;

6. datele sunt mulţimea valorilor care corespund selecţiei obţinute;

7. un experiment va fi metoda de determinare a valorii fiecărei maşini din


selecţie, de exemplu chestionar sau consultarea chitanţelor;

8. un parametru despre care căutăm informaţii ar putea fi valoarea medie


a populaţiei;

9. o statistică ar fi media aritmetică a unei selecţii.


90 Statistică descriptivă

Măsurabilitate şi variabilitate. Într-o mulţime de date experimentale


ne aşteptăm ı̂ntotdeauna să apară variaţii. Dacă apar foarte puţine variaţii
sau deloc, ne gândim că dispozitivul de măsurare este defect sau insuficient
de precis. Dacă luăm o cutie de carton cu table de ciocolată de 100 de grame
şi cântărim fiecare ciocolată, constatăm o abatere de, să zicem, ±2 grame.
Greutatea (masa) unei table de ciocolată va fi o variabilă. Nu contează ce este
sau ce reprezintă variabila; va fi variabilitate dacă instrumentele de măsură
sunt suficient de precise. Un obiectiv primar ı̂n analiza statistică va fi acela
al măsurării variabilităţii.
Comparaţie ı̂ntre Calculul probabilităţilor şi Statistică. Calculul
probabilităţilor şi Statistica sunt două domenii separate ale matematicii, dar
strâns ı̂nrudite. Calculul probabilităţilor este vehiculul statisticii, căci fără
legi de probabilitate statistica nu ar fi posibilă.

Urna probabilistică Urna statistică


5 albe, 5 roşii, 5 albastre ???

Figura 6.1: Raportul Calculul probabilităţilor – Statistică

Să ilustrăm relaţia dintre cele două ramuri ale matematicii printr-un
exemplu. Avem două urne (una probabilistică şi una statistică, vezi figura
6.1). Urna probabilistică conţine 5 bile albastre, 5 roşii şi 5 albe. Subiec-
tul Calculul probabilităţilor ı̂ncearcă să răspundă la ı̂ntrebări de genul: dacă
se extrage o bilă sau mai multe din urnă, care este probabilitatea să avem o
anumită configuraţie de culori? Pe de altă parte urna statistică are o configu-
raţie necunoscută. Extragem o selecţie de bile şi facem afirmaţii despre ceea
ce credem că ar fi ı̂n urnă. Observaţi diferenţa: calculul probabilităţilor cal-
culează şansa ca ceva (o selecţie) să se ı̂ntâmple când se cunoaşte populaţia.
Statistica cere să se extragă o selecţie, descrie selecţia (statistică descriptivă)
şi apoi face inferenţe asupra populaţiei bazându-se pe informaţia găsită ı̂n
selecţie (statistica inferenţială).
6.2. Culegerea datelor 91

6.2 Culegerea datelor


Una dintre problemele căreia statistica trebuie să le facă faţă este culege-
rea datelor. Trebuie să ı̂nţelegem importanţa unei bune tehnici de selecţie,
deoarece inferenţele pe care le facem se bazează ı̂n ultimă instanţă pe sta-
tistici obţinute din datele de selecţie. Culegerea datelor pentru o analiză
statistică este un proces complicat şi conţine următorii paşi importanţi:

1. definirea obiectivelor studiului sau experimentului (de exemplu compa-


rarea efectelor unui medicament cu efectele unui medicament standard
sau estimarea cheltuielilor gospodăreşti medii ı̂n judeţul nostru);

2. Definirea populaţiei de interes şi a variabilelor (de exemplu timpul de


recuperare pentru pacienţii ce suferă de o boală particulară sau câşti-
gurile totale pe persoană);

3. Definirea colecţiilor de date şi a schemelor de măsurare (aici intră pro-


cedurile de selecţie, dimensiunea selecţiei, instrumentele sau procedeul
de măsurare – chestionar, telefon, etc.);

4. Determinarea tehnicilor adecvate (descriptive sau inferenţiale) de ana-


liză a datelor.

Exemplele care urmează prezintă populaţii definite pentru investigaţii


specifice.

Exemplul 6.2.1 Direcţia economică a universităţii doreşte să estimeze cos-


turile pentru educaţie. Una dintre componentele costului total pe semestru
este costul cursurilor tipărite de editura universităţii sau litografiate. Foru-
rile conducătoare doresc media cursurilor pe student. Populaţia de interes
este totalitatea studenţilor de la o facultate.

Exemplul 6.2.2 Costul unui minut de reclamă la TV variază drastic după


post, zi şi momentul zilei. Rata acestuia se determină din proporţia teles-
pectatorilor potenţiali care urmăresc un emiţător particular la un moment de
timp particular. Un beneficiar al reclamei doreşte să aleagă un interval de
timp care să fie cât mai eficient ı̂n atragerea de noi clienţi. Populaţia de
interes este cea a telespectatorilor care privesc zilnic la televizor şi locuiesc
ı̂n zona ı̂n care postul se poate recepţiona.

Dacă fiecare element al unei populaţii este listat sau enumerat avem
de-a face cu un recensământ. Un recensământ al populaţiei din exem-
plul 6.2.1 se poate obţine probabil din registrul matricol al facultăţii. Totuşi
92 Statistică descriptivă

recensămintele sunt arareori utilizate, deoarece sunt dificil de alcătuit, con-


sumatoare de timp şi costisitoare. Imaginaţi-vă sarcina de a alcătui un re-
censământ al persoanelor ce locuiesc ı̂n zona de recepţie a TVR Iaşi. Ori de
câte ori este nerealist să alcătuim un recensământ trebuie analizată numai o
parte a populaţiei (o selecţie).
Când alegem o selecţie avem nevoie de un cadru de selecţie.
Cadru de selecţie este o listă de elemente aparţinând populaţiei din
care se extrage selecţia. Cadrul de selecţie poate fi identic cu populaţia.
În mod ideal cadrul va avea fiecare element al populaţiei listat o singură
dată. Totuşi, ı̂n multe situaţii este nepractic sau imposibil să selectăm direct
din populaţia totală. Deoarece numai elementele din cadru au şansa de a
fi selectate ca parte a selecţiei, este important ca acesta să fie reprezentativ
pentru populaţie. În exemplul 6.2.1 registrul matricol poate servi ca şi cadru
de selecţie. Alte exemple ar putea fi cartea de telefon sau lista alegătorilor
dintr-o circumscripţie.
Odată definit cadrul de selecţie trebuie definită şi procedura de culegere
a datelor de selecţie numită plan de selecţie. Toate planurile de selecţie
se ı̂ncadrează ı̂n una din următoarele categorii: selecţii bazate pe judecată şi
selecţii probabilistice.
Selecţiile bazate pe judecată sunt extrase pe baza faptului de a fi
tipice. Când se extrage o selecţie bazată pe judecată, persoana care con-
struieşte selecţia alege elementele pe care le consideră reprezentative din po-
pulaţie. Validitatea rezultatelor dintr-o selecţie bazată pe judecată reflectă
consistenţa judecăţii celui care culege datele.
Selecţiile probabilistice sunt selecţii ale căror elemente sunt extrase
pe baza unor probabilităţi. Fiecare element dintr-o populaţie are o anumită
şansă de a fi extras ca parte a selecţiei.

Observaţia 6.2.3 Inferenţa statistică (estimaţiile şi verificarea ipotezelor)


necesită ca planul de selecţie să fie o selecţie probabilistică.

Cea mai familiară dintre selecţiile probabilistice este selecţia aleatoare


ı̂n care fiecare selecţie de dimensiune n are aceeaşi probabilitate de a fi aleasă.
Selecţia aleatoare simplă este o selecţie aleatoare selectată astfel ca
fiecare element din populaţie să aibă aceiaşi probabilitate de a fi ales. Se
fac greşeli frecvente deoarece se face confuzie ı̂ntre aleator (la ı̂ntâmplare) şi
anarhic (fără nici un şablon sau regulă). Pentru a construi corect o selecţie
aleatoare simplă se poate utiliza un tabel sau un generator de numere alea-
toare, astfel: se numerotează elementele populaţiei şi apoi se extrag n numere
aleatoare; elementele numerotate cu numărul aleator corespunzător sunt ex-
trase din selecţie.
6.3. Prezentarea grafică 93

Selecţia sistematică este o selecţie din care se extrage tot al k-lea ele-
ment din cadrul de selecţie. Această metodă de selecţie utilizează tabelul sau
generatorul de numere aleatoare o singura dată, pentru punctul de pornire.
Aceasta este o procedură bună de selecţie a unui procentaj dintr-o populaţie
mare. Când populaţia este ciclică sau repetitivă nu este recomandată. Pen-
tru a selecta o selecţie sistematică de x% dintr-o populaţie trebuie selectat
din 100/x ı̂n 100/x elemente (dacă 100/x nu este ı̂ntreg se rotunjeşte). De
exemplu, primul element (punctul de start) este selectat aleator, utilizând ta-
belul sau generatorul de numere aleatoare, din primele 33 (100/3) elemente
din cadrul de selecţie şi apoi fiecare al 33-lea element din cadrul de selecţie
ı̂ncepând cu primul aparţine selecţiei.
Când selectăm populaţii foarte mari, uneori este posibil să ı̂mpărţim po-
pulaţia pe baza anumitor caracteristici. Aceste subpopulaţii se numesc stra-
turi.
Selecţia stratificată se obţine stratificând cadrul de selecţie şi apoi
selectând un număr finit de elemente din fiecare strat. Când se construieşte
o selecţie stratificată, populaţia se ı̂mparte ı̂n straturi şi din fiecare strat se
face o selecţie simplă, sistematică sau aleatoare (după caz). Subselecţiile se
combină apoi ı̂ntr-o selecţie care va fi utilizată ı̂n continuare.
Selecţia proporţională se obţine stratificând cadrul de selecţie şi apoi
selectând un număr de elemente din fiecare strat după o proporţie stabilită
sau proporţional cu dimensiunea stratului.
Selecţia grupată se obţine stratificând cadrul de selecţie şi apoi se-
lectând elemente doar din unele straturi, nu din toate.

6.3 Prezentarea grafică


După ce ı̂n urma observaţiilor s-au obţinut datele sub formă numerică,
primul pas ı̂n analiza şi interpretarea acestor date constă ı̂n reprezentarea lor
grafică. Alcătuirea graficelor pregăteşte condiţiile pentru cercetarea anumitor
corelaţii şi dă o reprezentare intuitivă a materialului adunat.
În funcţie de caracterul materialului şi de problema care trebuie rezolvată,
avem următoarele tipuri de grafice:

• Hărţi rectilinii. Două caracteristici ale unui individ sunt reprezen-


tate sub forma unui punct ı̂ntr-un sistem de axe rectangular. În mod
obişnuit pe ordonată se trece clasificarea cantitativă (timp, vârstă,
bani, etc.). Diferite serii de date asemănătoare, clasificate după aceeaşi
caracteristică pot fi reprezentate pe acelaşi grafic. În acest mod apar
clar deosebirile sau asemănările ı̂ntre seriile de date.
94 Statistică descriptivă

• Grafice circulare. Graficul circular este un cerc ı̂mpărţit ı̂n diferite


sectoare, cu unghiurile la centru proporţionale cu diferite componente
ale totalului.
• Grafice dreptunghiulare. În acest grafic cantităţile sunt reprezentate
prin arii sau lungimi aşezate orizontal sau vertical. Adeseori o singură
bază este ı̂mpărţită ı̂n diferite secţiuni cu lungimile proporţionale cu
mărimea diferitelor componente, astfel ca realitatea să nu fie denatu-
rată.
• Grafice logaritmice sau semilogaritmice. În unele cazuri, pentru sim-
plificarea prelucrării şi examinării datelor, se vor aşeza pe grafic nu nu-
merele ci logaritmii lor (grafice logaritmice). Prin folosirea logaritmilor
o curbă de o formă complicată se poate aduce la forma unei drepte,
ceea ce simplifică prelucrarea şi interpretarea fenomenului dat. Un rol
important ı̂n statistică ı̂l joacă diagrama ı̂n care pe axa orizontală se
foloseşte scara naturală, iar axa verticală este ı̂mpărţită după scara lo-
garitmică. O asemenea combinaţie reduce exponenţiala la o dreaptă.
Un astfel de grafic, ı̂n care pe una din axe se reprezintă o mărime ı̂n
mod natural şi pe cealaltă logaritmul celei de-a doua mărimi se numeşte
grafic semilogaritmic şi se foloseşte ı̂n domeniul statisticii sociale şi eco-
nomice, deoarece ı̂n astfel de cazuri una din variabile poate fi timpul,
care se reprezintă pe scara naturală. Variaţia unei mărimi oarecare
după regula dobânzii compuse ne oferă un exemplu ı̂n acest sens. Dacă
notăm cu d dobânda, cu k numărul anilor şi cu x valoarea iniţială,
atunci suma ı̂n care se transformă valoarea iniţială după k ani este

y = x(1 + d)k .

Logaritmând se obţine

log y = log x + k log(1 + d),

adică chiar ecuaţia unei drepte. Folosirea scării semilogaritmice nu se


limitează numai la transformarea ı̂n dreaptă a curbei, deoarece sensul
unui număr mare de date iese mai clar ı̂n evidenţă când este folosit
un grafic de acest tip. În cazul când interesul principal nu-l reprezintă
variaţiile absolute, ci cele relative, se vor folosi diagramele semilogarit-
mice cu scara logaritmică pe ordonată şi cu scara aritmetică pe abscisă.
Într-o asemenea diagramă, variaţiile procentuale egale se exprimă prin
distanţe verticale egale, ı̂n timp ce pe scara naturală segmentele verti-
cale egale corespund unor variaţii absolute egale. În afară de avantajele
semnalate, graficul semilogaritmic mai are următoarele avantaje:
6.4. Repartiţii de frecvenţe 95

– variaţiile relative egale se ı̂nfăţişează sub forma unor drepte cu


aceeaşi ı̂nclinaţie – două serii care cresc sau descresc ı̂n acelaşi
ritm se vor reprezenta prin drepte paralele;
– se arată mărimile absolute şi se compară variaţiile relative;
– se pot compara serii care prezintă deosebiri mari ı̂n ceea ce priveşte
mărimea unor termeni;
– ritmul de variaţie al unor termeni se compară după ı̂nclinaţia cur-
belor.

6.4 Repartiţii de frecvenţe


6.4.1 Tabele de frecvenţe
Sub forma lor brută, datele statistice reprezintă o masă dezordonată de
materiale. Pentru simplificarea calculelor şi o mai uşoară interpretare a re-
zultatelor se va trece la o grupare a observaţiilor (discrete sau continue)
efectuate asupra unei singure caracteristici a unui număr mare de elemente.
Vom ı̂mpărţi intervalul de variaţie a acestor date ı̂ntr-un număr de intervale
şi vom ı̂nregistra numărul de observaţii care cad ı̂n fiecare interval. Acest
număr poartă numele de frecvenţă absolută a intervalului sau a clasei. O
tabelă care arată repartiţia frecvenţelor ı̂n diferite clase poartă numele de
tabelă de frecvenţe.
Este recomandabil ca orice repartiţie de frecvenţe să aibă intervalele de
aceeaşi mărime, deoarece numai ı̂n acest caz frecvenţele diferitelor clase sunt
direct comparabile ı̂ntre ele, diferenţa ı̂ntre mărimea acestor frecvenţe con-
stituind elementul cel mai caracteristic al unei repartiţii.
Dacă avem o serie de n termeni şi se cunoaşte diferenţa dintre terme-
nul maxim şi cel minim al seriei, atunci mărimea i a intervalului poate fi
determinată cu formula empirică a lui H. A. Sturges:
xmax − xmin
i= .
1 + 3.322 lg n
În orice situaţie, pentru alcătuirea tabelelor numerice este important ca
intervalul să fie determinat astfel ı̂ncât să nu fie nici o ambiguitate ı̂n ceea
ce priveşte limitele lui şi apartenenţa unui caz la o grupă.

6.4.2 Reprezentarea grafică a repartiţiilor de frecvenţe


În statistică, repartiţiile de frecvenţe exprimă centralizări compacte de
date, care sunt pregătite pentru prelucrarea lor ulterioară. Aceste repartiţii
96 Statistică descriptivă

pot fi reprezentate nu numai sub formă de tabele ci şi sub formă de grafice.
În acest mod multe trăsături caracteristice ale repartiţiei de frecvenţe devin
mai clare.

• Histograma. Dacă ni reprezintă frecvenţa absolută a clasei (ci , ci+1 ),


atunci repartiţia frecvenţei poate fi reprezentată ı̂ntr-un sistem de axe
rectangulare ı̂n care un dreptunghi are ca bază clasa (ci , ci+1 ) şi aria
proporţională cu frecvenţa absolută ni (histograme absolute) sau cu
frecvenţa relativă pi = nni (histograme relative), unde n este numărul
total de observaţii. Dacă histograma este relativă, atunci aria totală
a ei este 1. Dacă intervalele sunt mici şi numeroase, histograma poate
fi ı̂nlocuită cu o curbă de frecvenţă. Curba se trasează ı̂n aşa fel ı̂ncât
fracţiunile din dreptunghiurile histogramei rămase ı̂n afara curbei să fie
compensate cu ariile cuprinse sub curbă, dar ı̂n interiorul histogramei.

• Poligonul frecvenţelor . Dacă caracteristica studiată este o varia-


bilă aleatoare discretă, având valorile x1 < x2 < . . . < xn , frecvenţa
absolută a lui xi fiind ni şi cea relativă pi , atunci o reprezentare grafică
pentru repartiţia empirică (mulţimea perechilor formate de valorile ob-
servate sau clasele de valori şi frecvenţele lor) se obţine reprezentând
punctele Ni (xi , ni ) şi unind perechile de puncte (N1 , N2 ), (N2 , N3 ), . . .,
(Nn−1 , Nn ) prin linii drepte. Diagrama astfel obţinută poartă numele
de poligonul frecvenţelor. Dacă avem o repartiţie de frecvenţe ı̂n locul
valorilor posibile vom considera mijloacele claselor, adică (ci + ci+1 )/2,
rolul frecvenţelor relative individuale jucându-l frecvenţele relative co-
respunzătoare claselor.

• Ogiva sau curba cumulată a repartiţiilor de Pifrecvenţe. Ogiva


∗ ∗ ∗
se obţine reprezentând punctele Ni (xi , pi ), pi = k=1 pk şi unind pe-
rechile de puncte (N1∗ , N2∗ ), (N2∗ , N3∗ ), . . ., (Nn−1

, Nn∗ ) prin linii drepte.

Observaţia 6.4.1 Se utilizează uneori procente ı̂n locul frecvenţelor relative.

6.4.3 Tipuri de serii statistice


Dacă elementele seriei sunt distincte şi ordonate crescător avem o serie
de tip (S1).
Dacă unele valori se repetă şi avem k valori distincte x1 < x2 < . . . < xk ,
iar n1 , n2 , . . ., nk indică numărul de repetări ale valorilor x1 < x2 < . . . < xk ,
avem de-a face cu o serie de tipul (S2), care poate fi reprezentată printr-o
tabelă de forma
6.5. Caracterizarea repartiţiilor de frecvenţe 97

Valorile Frecvenţa Frecvenţe %


caracteristicii (ni ) relative (pi ) (θi )
1 2 3 = col2
n
4 = col3 · 100
x1 n1 n1 /n n1 /n · 100
x2 n2 n2 /n n2 /n · 100
.. .. .. ..
. . . .
xk nk nk /n nk /n · 100
P Pk Pk
n = ki=1 ni ni
i=1 n =1 i=1 θi = 100

Dacă valorile se grupează ı̂n clase, fiecare clasă corespunzând unui interval
de variaţie al variabilei, avem de-a face cu o serie de tipul (S3). Ea poate fi
reprezentată printr-o tabelă de forma:

Intervalul mijlocul Frecvenţa Frecvenţe %


interv.(xi ) (ni ) relative (pi ) (θi )
1 2 3 4 = col3
n
5 = col4 · 100
c0 − c1 x1 n1 n1 /n n1 /n · 100
c1 − c2 x2 n2 n2 /n n2 /n · 100
.. .. .. .. ..
. . . . .
ck−1 − ck xk nk nk /n nk /n · 100
P Pk Pk
n = ki=1 ni ni
i=1 n =1 i=1 θi = 100

6.5 Caracterizarea repartiţiilor de frecvenţe


Gruparea şi construcţia curbei de repartiţie a frecvenţelor permit punerea
ı̂n evidenţă a materialului numeric studiat.
Următoarea etapă, prelucrarea datelor, nu poate avea loc dacă nu avem la
ı̂ndemână un număr suficient de mare de date, pe care dorim să le sintetizăm
ı̂ntr-un indicator care să le exprime sau să le reprezinte.
Dacă fiecare repartiţie de frecvenţe ar reprezenta o problemă cu totul
nouă, ce se supune numai anumitor legi proprii, atunci problema studiului şi
descrierii repartiţiilor ar fi foarte dificilă. În realitate, datele (care se referă la
diferite domenii ale cunoaşterii), odată aranjate ı̂ntr-o repartiţie de frecvenţe,
scot ı̂n evidenţă trăsăturile comune tuturor curbelor de repartiţie şi care se
supun unor reguli generale. Acest lucru ne permite ca experienţa făcută
ı̂ntr-un domeniu al cunoaşterii să fie extinsă şi ı̂n alte domenii.
Curbele care ı̂nfăţişează repartiţiile fenomenelor fizice prezintă simetrii şi
regularitate. Unele din curbele din domeniul economic sunt asimetrice şi se
observă că ele au tendinţa de a se alungi ı̂ntr-o anumită parte de la punctul
cu cea mai mare frecvenţă.
98 Statistică descriptivă

La toate curbele ı̂nsă, trebuie să observăm variabilitatea mărimilor care


se obţin ca rezultat al unor măsurători. Cu toate că există variabilitate, se
observă o tendinţă a datelor de a se grupa strâns ı̂n jurul unui anumit punct al
curbei (tendinţa centrală). Dacă se măsoară mărimea abaterii de la punctul
de concentrare maximă a frecvenţelor, se constată că sunt mai frecvente
abaterile mici decât cele mari, că abaterile ı̂n ambele părţi faţă de punctul
de concentrare maximă se echilibrează aproape complet şi că abaterile foarte
mari sunt rare. Repartiţia de frecvenţe se poate caracteriza printr-o valoare
şi anume acea care este reprezentativă pentru toată repartiţia. Deoarece
frecvenţele variază, vom alege acea mărime care se ı̂ntâlneşte cel mai des,
mărime care va fi măsura tendinţei centrale a repartiţiei. Această mărime,
ca şi alte mărimi asemănătoare se numesc indicatori de poziţie, deoarece
arată poziţia elementelor principale ale repartiţiei pe axa absciselor.

6.5.1 Indicatori de poziţie


Media aritmetică. Dacă ı̂n urma selecţiei apar valorile distincte x1 , x2 ,
. . ., xk , atunci media aritmetică este
x1 + x2 + · · · xk
x̄ = .
k
Dăm următoarele proprietăţi ale mediei aritmetice pentru date negrupate:
1. Suma algebrică a abaterilor diferitelor valori de la medie este nulă
k
X k
X
(xi − x̄) = xi − kx̄ = 0.
i=1 i=1

2. Media minimizează abaterea medie pătratică


k
X k
X k
X
2 2
(xi − a) = [(xi − x̄) − (a − x̄)] = (xi − x̄)2 −
i=1 i=1 i=1
k
X
2(a − x̄) (xi − x̄) + k(a − x̄)2
i=1
Pk Pk 2
Pk
şi cum i=1 (xi − x̄) = 0 urmează că i=1 (xi − a) ≥ i=1 (xi − x̄)2 .
În cazul datelor grupate se poate folosi formula
P
r
ni xi
i=1
x̄ = P r ,
ni
i=1
6.5. Caracterizarea repartiţiilor de frecvenţe 99

unde notaţiile folosite au semnificaţia:


ni - frecvenţa absolută a intervalului (ci , ci+1 );
xi - mijlocul intervalului (ci , ci+1 );
r - numărul intervalelor.
Media geometrică. Se defineşte pentru x1 , . . . , xn ≥ 0 prin

G = n x1 . . . xn .

Dacă valorile x1 , . . . , xn au ponderile (frecvenţele) k1 , . . . , kn atunci

Gk1 +···+kn = xk11 . . . xknn .

Media geometrică se bucură de proprietatea că produsul rapoartelor situate


de o parte a mediei geometrice şi media geometrică este egal cu produsul
rapoartelor dintre media geometrică şi valorile situate de cealaltă parte a
mediei geometrice.
În statistica economică, media geometrică este folosită pentru construcţia
indicatorilor preţurilor. Atunci când aşezând frecvenţele absolute pe un grafic
se obţine o curbă asimetrică de asemenea tip ı̂ncât, dacă am lua logaritmii ı̂n
locul numerelor, ar dispărea asimetria curbei, se preferă media geometrică.
Aceasta va fi repartiţia ı̂n care vor fi simetrice nu abaterile prin diferenţă de
la tendinţa centrală, ci cele relative. În aceste repartiţii logaritmul mediei
geometrice a diferitelor măsurători va fi cea mai reprezentativă valoare, iar
curba va fi simetrică ı̂n raport cu logaritmul mediei geometrice.
Media armonică. Se utilizează pentru deducerea normelor medii de
timp şi prezintă avantaje la prelucrarea unor date privind preţurile. Are
expresia
n
H= 1 .
x1
+ · · · + x1n
Între cele trei medii prezentate are loc inegalitatea

H ≤ G ≤ x̄.

Mediana şi mărimi ı̂nrudite. Mediana este o valoare care ı̂mparte seria
ı̂n două grupe de frecvenţe egale. Să presupunem că toate elementele seriei
sunt aranjate ı̂n ordinea mărimii lor. Dacă seria are 2n + 1 elemente, atunci
mediana este elementul n + 1, iar dacă seria are 2n elemente, atunci mediana
este media aritmetică a elementelor de rang n şi n + 1. Intervalul median
este intervalul care conţine elementul de rang k2 , unde k este numărul total de
observaţii. Mediana se poate determina şi din graficul frecvenţelor cumulate.
Se determină pe axa verticală punctul k2 . Se ridică din acest punct o perpen-
diculară pe axa verticală până ce se intersecteză curba. Din punctul astfel
100 Statistică descriptivă

16

14
C
12

10 nMe

E
8 k/2

6
A
4 n*−1 B
Me
D
2

0
xMe
dMe
−2
0 5 10 15 20

Figura 6.2: Determinarea grafică a medianei

obţinut se coboară o perpendiculară pe axa Ox. Piciorul perpendicularei dă


valoarea medianei (figura 6.2).
k − 2n∗−1
∆ABC ∼ ∆ADE ⇒ Me = xM e + dM e , (6.1)
2nM e
unde
xM e - limita inferioară a intervalului median;
n∗−1 - frecvenţa cumulată corespunzătoare intervalului anterior intervalu-
lui median;
nM e - frecvenţa absolută corespunzătoare intervalului median;
dM e - mărimea intervalului median.
Există trei cuartile: Q1 , Q2 , Q3 , care ı̂mpart repartiţia ı̂n patru părţi
egale. Q1 se numeşte cuartila inferioară (mică), Q3 se numeşte cuartila su-
perioară (mare), iar Q2 este chiar mediana. Cuartilele se determină prin
procedee asemănatoare cu cele de la mediană.
 Se determină intervalul ı̂n
k 3k
care se găseşte observaţia de rang 4 4 pentru Q1 (Q3 ), iar apoi prin inter-
polare liniară se determină valorile corespunzătoare după formulele
ik − 4ni−1
Qi = xQi + dQi ; i = 1, 3, (6.2)
4nQi
unde
6.5. Caracterizarea repartiţiilor de frecvenţe 101

xQi - limita inferioară a intervalului cuartilic Qi ;


ni−1 - frecvenţa cumulată corespunzătoare intervalului anterior intervalu-
lui cuartilic Qi ;
nQi - frecvenţa absolută corespunzătoare intervalului cuartilic Qi ;
dQi - mărimea intervalului cuartilic Qi .
Mulţimea ordonată a valorilor unei serii statistice poate fi ı̂mpărţită ı̂n
10 şi respectiv 100 de părţi egale obţinându-se astfel decile şi respectiv pro-
centile. Calculul lor este analog cu cel al cuartilelor.
Modul. Modul (modulul, moda) este valoarea caracteristicii variabile
căreia ı̂i corespunde frecvenţa maximă. În cazul datelor grupate există un
interval modal, adică un interval căruia ı̂i corespunde frecvenţa maximă.
Modul se determină cu ajutorul formulelor
∆1
Mo = l + i
∆1 + ∆2
sau
∆2
Mo = ¯l − i,
∆1 + ∆2
unde
l – limita inferioară a intervalului modal;
¯l – limita superioară a intervalului modal;
i – mărimea intervalului modal;
∆1 – diferenţa dintre frecvenţa intervalului modal şi frecvenţa intervalului
anterior intervalului modal;
∆2 – diferenţa dintre frecvenţa intervalului următor intervalului modal şi
frecvenţa intervalului modal.
În unele cazuri, problema determinării modului se complică prin aceea
că repartiţia poate avea două sau mai multe puncte de concentrare ı̂n loc
de unul singur. Repartiţiile de acest fel se numesc bimodale (plurimodale).
Cauzele apariţiei unei astfel de repartiţii pot fi următoarele:
-un număr prea mic de date supuse grupării;
-folosirea unor intervale prea mici ı̂n raport cu numărul termenilor din
serie.
În asemenea cazuri se poate determina valoarea aproximativă a modului,
modificând limitele intervalului şi mărind intervalul. Acest proces va conti-
nua până când se va stabili un singur interval modal. Dacă repartiţia rămâne
bimodală şi după aceste operaţii, atunci datele reflectă influenţa unor factori
cu totul deosebiţi.
Pentru repartiţii perfect simetrice, media, mediana şi modulul coincid.
Între cele trei caracteristici avem relaţia aproximativă:
Mo = x̄ − 3(x̄ − Me).
102 Statistică descriptivă

6.5.2 Indicatori ai variaţiei


Orice colectivitate de date (populaţie) din domeniile social, biologic, eco-
nomic, etc. se caracterizează prin deosebiri cantitative ı̂ntre diferitele ele-
mente. Acest aspect al variaţiei este tot atât de important ca şi aspectul
asemănării de ı̂nrudire. Bunăstarea materială a populaţiei dintr-o ţară de-
pinde, ı̂n aceeaşi măsură de variaţia veniturilor ı̂ncasate de diferite persoane
cât şi de media veniturilor.
Ţinând seama de afirmaţiile făcute, putem considera că metodele statistice
sunt un complex de procedee pentru studiul variaţiei care dă naştere la diferite
tipuri de repartiţii de frecvenţe.
Compararea indicatorilor variaţiei reprezintă mijlocul pentru verificarea
ipotezelor. La generalizarea caracteristicilor statistice ı̂ncercăm să delimităm
limitele exactităţii acestor generalizări şi ı̂n acest scop utilizăm de asemenea
indicatorii variaţiei.
Un moment important al metodei statistice se realizează atunci când se
face distincţie ı̂ntre variaţia calităţii determinate de cauze stabilite (şi prin
urmare supuse controlului) şi variaţia care reprezintă consecinţele ı̂ntâmplării
(acţiunea unui număr arbitrar de cauze variabile). În aceste condiţii este ne-
cesar un indicator exact şi sensibil al variaţiei. Valoarea medie prin ea ı̂nsăşi
este puţin reprezentativă dacă nu este cunoscut gradul de ı̂mprăştiere a valo-
rilor ce au condus la determinarea sa. Dacă datele sunt puternic ı̂mprăştiate,
astfel ı̂ncât nu se poate contura o tendinţă centrală, atunci media nu are
nici o semnificaţie. În schimb, cu cât valorile vor fi mai concentrate, cu atât
media va fi mai semnificativă.
Indicatorii folosiţi pentru caracterizarea variaţiei se bazează pe calculul
unor abateri.
Amplitudinea pentru o repartiţie empirică se calculează ca diferenţa
dintre valoarea cea mai mare şi valoarea cea mai mică. Urmează că am-
plitudinea depinde numai de mărimea termenilor extremi ai seriei, aşa că
orice abatere bruscă poate schimba esenţial mărimea ei. Pentru selecţii mici,
mai ales când selecţia se repetă şi sunt folosite rezultatele selecţiilor ulteri-
oare, amplitudinea dă rezultate bune, ceea ce o face utilizabilă la verificările
speciale ale calităţii producţiei.
Variaţia intercuartilică. Pentru a ı̂nlătura interpretările aproximative
ce provin din cauza utilizării unor valori extreme la caracterizarea variaţiei
se utilizează diferenţa dintre două valori ale variabilei, alese ı̂n aşa fel ı̂ncât
numărul cazurilor observate să se repartizeze proporţional pe intervale. În
acest scop se utilizează cuartilele unei repartiţii. Când valorile cuartilei se
apropie de mediană, repartiţia empirică se caracterizează prin ı̂mprăştiere
6.5. Caracterizarea repartiţiilor de frecvenţe 103

mică. Putem calcula variaţia intercuartilică pe care o notăm cu Q


Q3 − Q1
Q=
2
şi coeficientul de variaţie intercuartilică
Q
q= .
Me
Coeficientul q variază ı̂ntre -1 şi 1. Se apropie de zero ı̂n cazul repartiţiilor
simetrice cu variaţie foarte mică.
Abaterea medie absolută reprezintă media abaterilor faţă de me-
dia aritmetică luate ı̂n valoare absolută. În practică, pentru caracterizarea
ı̂mprăştierii cu ajutorul abaterii medii, trebuie acordată preferinţă media-
nei, deoarece mărimea abaterii medii va fi mai mică dacă mărimea medie
de la care se porneşte este mediana. Dacă ı̂n urma selecţiei se obţin da-
tele x1 , x2 , . . . , xn (pe care le presupunem aranjate ı̂n ordine crescătoare) să
determinăm numărul x, x1 ≤ x ≤ xn , care minimizează suma
n
X
|xi − x| = E.
i=1

Presupunând că xk ≤ x ≤ xk+1 , 1 ≤ k ≤ n avem


k
X n
X
(x − xi ) + (xi − x) = E.
i=1 i=k+1

Derivând pe E ı̂n raport cu x şi egalând cu zero obţinem k − (n − k) = 0 sau


k = n2 .
În cazul unui număr mare de valori, determinarea abaterii medii absolute
devine greoaie. Dacă datele sunt grupate ı̂ntr-o repartiţie de frecvenţe, aba-
terile pot fi măsurate de la media aritmetică sau de la mediană şi ı̂nmulţite
cu frecvenţa absolută a intervalului. De asemenea abaterile pot fi măsurate
de la centrul intervalului care conţine media aritmetică sau mediana, ı̂nsă
ı̂n acest caz, rezultatul obţinut trebuie corectat datorită erorii folosirii mij-
locului intervalului ı̂n locul mediei sau medianei reale. Acest indicator se
foloseşte rar ı̂n cazul unei repartiţii de frecvenţe. Se utilizează când avem un
număr redus de date şi atunci când nu este necesară o analiză ulterioară.
Cel mai reprezentativ indicator care caracterizează variaţia este dispersia.
Dispersia de selecţie notată cu s2 se determină cu formula
n
2 1X
s = (xi − x̄)2 .
n i=1
104 Statistică descriptivă

Atunci când se apreciază caracteristica colectivităţii generale (populaţiei) din


care a fost extrasă selecţia, cantitatea
n
1 X n
s′2 = (xi − x̄)2 = s2 (6.3)
n − 1 i=1 n−1

este preferabilă dispersiei de selecţie (vom vedea de ce la capitolul estimaţi-


e). Rădăcina pătrată s a dispersiei de selecţie se numeşte abatere medie
pătratică (de selecţie).
Pe baza selecţiei vom face estimaţii asupra caracteristicilor populaţiei.
Media aritmetică a selecţiei va fi o aproximare a mediei aritmetice a popula-
ţiei, iar dispersia de selecţie a dispersiei populaţiei.
Se pune problema determinării variaţiei ce predomină ı̂n colectivitatea
a cărei medie şi dispersie sunt necunoscute. Având o valoare individuală
dispunem de o bază minimă pentru estimarea mediei, ı̂nsă nu avem nici o
informaţie asupra ı̂mprăştierii din colectivitatea generală. În cazul unei sin-
gure valori, putem presupune că toţi termenii colectivităţii au aceiaşi mărime,
iar atunci când avem două valori avem deja o bază pentru măsurarea variaţiei
colectivităţii, bază ce se măreşte odată cu creşterea numărului de valori ob-
servate. Cu alte cuvinte, două valori observate ne dau un singur grad de
libertate pentru estimarea variaţiei colectivităţii, ..., n valori observate, n − 1
grade de libertate pentru estimarea variaţiei (deoarece unul este folosit pentru
calculul mediei aritmetice). În cazul datelor grupate, se consideră abaterile
centrelor intervalelor de la media ipotetică a intervalelor de grupare. Măsurile
dispersiei, exprimate sub forma unităţilor de măsură ale fenomenului cerce-
tat, sunt utile atunci când se compară mai multe serii.
Pentru o mai bună interpretare a rezultatelor obţinute se utilizează coe-
ficientul de variaţie
s
x= ,

exprimat sub formă procentuală şi care este o măsură a dispersiei relative.
Diferenţele mici ı̂n forma variaţiei se evidenţiază cu ajutorul momentelor
care stau la baza caracteristicilor descrise şi analizate ı̂n continuare şi a altor
indicatori utilizaţi la studiul asimetriei.
Momentul este un termen folosit ı̂n mecanică pentru a desemna capaci-
tatea forţei de a provoca o mişcare. Mărimea acestei capacităţi depinde de
forţă şi de distanţa de la punctul de aplicaţie a forţei până la punctul ales.
În statistică termenul de moment este folosit ı̂n acelaşi sens, forţele fiind
ı̂nlocuite cu frecvenţele absolute ale intervalelor. Dreptunghiurile construite
pe abscisă, având drept bază intervalul, iar aria proporţională cu frecvenţa
absolută, vor apăsa pe abscisă cu o forţă determinată de frecvenţa absolută a
6.5. Caracterizarea repartiţiilor de frecvenţe 105

intervalului. Momentul fiecărui interval va fi dat de produsul dintre frecvenţa


absolută ni a intervalului şi distanţa de la centrul intervalului la orginea
aleasă. Dacă notăm cu mk momentul de ordinul k, atunci
P
ni xki
mk = Pi .
i ni

Se observă că m1 coincide cu media aritmetică.


Momentele centrate sau momentele faţă de media aritmetică luată
drept origine, au expresia
P
ni (xi − x̄)k
mk = i P .
i ni

Ele se pot calcula cu ajutorul momentelor obişnuite mk :

m1 = 0;
m2 = m2 − m21 ;
m3 = m3 − 3m1 m2 + 2m31 ;
m4 = m4 − 4m1 m3 + 6m21 m2 − 3m41 ,
...

Momentul centrat de ordinul 2, m2 , este tocmai dispersia de selecţie. În


cazul când momentele se calculează din datele grupate, presupunem că e-
lementele fiecărui interval sunt concentrate ı̂n mijlocul intervalului, fapt ce
conduce la erori. Pentru ı̂nlăturarea acestor erori se foloseşte corecţia Shep-
pard. Momentele (faţă de media aritmetică) astfel corectate, notate cu m∗
sunt

m∗1 = 0;
1
m∗2 = m2 − ;
12
m∗3 = m3 ;
m2 7
m∗4 = m4 − + ;
2 240
...

Asimetria. Forma unei repartiţii se poate aprecia şi din punct de vedere
al gradului de asimetrie pe care-l prezintă. Asimetria repartiţiei este cu atât
mai mare cu cât diferenţa dintre media aritmetică şi modul este mai mare;
106 Statistică descriptivă

diferenţa este nulă ı̂n cazul repartiţiilor unimodale, simetrice şi care nu sunt
sub formă de U. Asimetria absolută este

As = x̄ − Mo,

iar cea relativă


x̄ − Mo
Asr = .
s
Această cantitate este pozitivă atunci când repartiţia este asimetrică la stân-
ga şi negativă când repartiţia este asimetrică la dreapta. Dacă mediana este
localizată mai precis decât modulul se poate folosi formula:
3(x̄ − Me)
Asr = .
s
Coeficientul de asimetrie intercuartilic se calculează după formula
(Q3 − Me) − (Me − Q1 )
Asq = .
Q3 − Q1
El variază ı̂ntre -1 şi 1, fiind nul pentru repartiţii perfect simetrice. Valorile
±1 se obţin pentru repartiţii cu asimetrii foarte accentuate, când mediana şi
una dintre cuartile coincid.
Coeficienţii lui Pearson sunt:
m̄23
β1 = (skewness),
m̄32
m4
β2 = 4 (kurtosis).
s
Pentru studiul asimetriei se folosesc şi următorii indicatori introduşi de
Fisher: p m3
γ1 = β1 = 3 ,
s
numit asimetrie şi
m4
γ2 = β2 − 3 = 4 − 3,
s
numit exces.

6.6 Exemple
Exemplul 6.6.1 S-a cercetat un lot de 70 de becuri din punct de vedere al
caracteristicii X ce reprezintă durate de viaţă ı̂n mii de ore. Datele statistice
obţinute sunt
6.6. Exemple 107

1.318 3.128 2.758 1.583 2.517 2.304 1.155 3.156 2.807 2.879
3.426 1.690 3.537 2.214 2.219 2.072 2.726 1.403 2.493 1.560
3.972 2.637 0.842 2.256 1.708 1.628 2.345 1.855 1.546 3.852
2.128 2.465 2.316 2.262 1.962 1.802 2.230 3.460 1.493 3.093
1.548 2.298 1.875 3.394 1.931 1.179 1.946 1.355 3.006 2.455
1.937 1.977 2.206 1.681 1.960 3.281 2.838 2.525 1.553 2.676
2.500 2.641 1.631 1.864 2.015 2.502 2.444 2.636 2.337 1.966

a) Să se scrie tabelul sistematizat al datelor statistice, considerând clase


de amplitudini egale.

b) Să se scrie distribuţia statistică a caracteristicii X.

c) Să se construiască histogramele şi poligoanele frecvenţelor.

d) Să se calculeze indicatorii statistici pentru selecţie folosind datele ne-


grupate.

e) Să se calculeze indicatorii statistici pentru selecţie folosind datele gru-


pate.

Soluţie.
a), b) Folosind formula lui Sturges, numărul claselor este c = 1+ 10
3
log n =
7. 1503. Se ia c = 7.
Pentru c = 11, obţinem tabela de frecvenţe dată ı̂n tabelul 6.1.
c) Poligonul frecvenţelor absolute apare ı̂n figura 6.3, ogiva ı̂n figura 6.4,
iar histograma frecvenţelor absolute ı̂n figura 6.5.
d) Pentru datele negrupate avem următorii indicatori statistici:
108 Statistică descriptivă

Lim Lim Frecv. Frecv.


Clasa inf. sup. Mijloc Frecv. rel. rel. cum.
sub 0.7 0 0.0000 0.0000
1 0.7 1.0 0.85 1 0.0143 0.0143
2 1.0 1.3 1.15 2 0.0286 0.0143
3 1.3 1.6 1.45 9 0.1286 0.1714
4 1.6 1.9 1.75 9 0.1286 0.3000
5 1.9 2.2 2.05 10 0.1429 0.4429
6 2.2 2.5 2.35 16 0.2286 0.6714
7 2.5 2.8 2.65 9 0.1286 0.8000
8 2.8 3.1 2.95 5 0.0714 0.8714
9 3.1 3.4 3.25 4 0.0571 0.9286
10 3.4 3.7 3.55 3 0.0429 0.9714
11 3.7 4.0 3.85 2 0.0286 1.0000
peste 4.0 0 0.0000 1.0000

Tabela 6.1: Tabela de frecvenţe pentru exemplul 6.6.1

15

10

0
0 2 4 6 8 10 12

Figura 6.3: Poligonul frecvenţelor absolute


6.6. Exemple 109

0.9

0.8

0.7

0.6

0.5

0.4

0.3

0.2

0.1

0
0 2 4 6 8 10 12

Figura 6.4: Ogiva

14

12

10

0
0.5 1 1.5 2 2.5 3 3.5 4

Figura 6.5: Histograma frecvenţelor absolute


110 Statistică descriptivă

Indicatorul Valoarea
Dimensiunea selecţiei 70
Media aritmetică 2.27077
Mediana 2.243
Modul 2.23
Media geometrică 2.17249
Dispersia 0.444294
Abaterea medie pătratică 0.666554
Eroarea standard 0.0796684
Minimul 0.842
Maximul 3.972
Amplitudinea 3.13
Cuartila inferioară 1.802
Cuartila superioară 2.641
Interval intercuartilic 0.839
Skewness 0.407549
Kurtosis -0.106585
e) Pentru datele grupate avem
n
1X 1
x̄ = nk xk = (1 · 0.85 + 2 · 1.15 + . . . + 3 · 3.55 + 2 · 2.85) = 2.29.
n k=1 70

Pentru mediană folosind (6.1) se obţine

35 − 31
Me = 2.2 + 0.3 = 2.28.
15
Intervalul modal este [2.2, 2.5) deci modul (modulul) va fi Mo = 2.35 (mij-
locul). Cuartilele sunt Q1 = 1.78 şi Q3 = 2.695.
Primele patru momente de selecţie sunt

n
1X 1
m1 = nk xk = (1 · 0.85 + 2 · 1.15 + . . . + 3 · 3.55 + 2 · 2.85) =
n k=1 70
= 2.29,

n
1X 1
m2 = nk x2k = (1 · 0.852 + 2 · 1.152 + . . . + 3 · 3.552 + 2 · 2.852 ) =
n 70
k=1
= 5.688,
6.6. Exemple 111

n
1X 1
m3 = nk x3k = (1 · 0.853 + 2 · 1.153 + . . . + 3 · 3.553 + 2 · 2.853) =
n 70
k=1
= 15.1467,

n
1X 1
m4 = nk x4k = (1 · 0.854 + 2 · 1.154 + . . . + 3 · 3.554 + 2 · 2.854) =
n 70
k=1
= 42.8038.

Momentele centrate se calculează astfel:

m̄2 = m2 − m21 = 0.4439,


m̄3 = m3 − 3m1 m2 + 2m31 = 0.0881,
m̄4 = m4 − 4m1 m3 + 6m21 m2 − 3m41 = 0.5289.

Indicatorii lui Pearson sunt


m̄23
β̄1 = 3 = 0.1765 (skewness),
m̄2
m̄4
β̄2 = 2 = 2.7274 (kurtosis),
m̄2
iar asimetria şi excesul sunt
q
γ̄1 = β̄1 = 0.4201

şi respectiv
γ̄2 = β̄2 − 3 = −0.2726.

Exemplul 6.6.2 Producţia ı̂n tone obţinută de o fermă apare ı̂n tabelul 6.2.
Să se reprezinte grafic datele sub formă de sectoare de cerc (diagrame circu-
lare).

Soluţie. Vezi figura 6.6.

Exemplul 6.6.3 Tabelul 6.3 dă numărul de şomeri (ı̂n mii de persoane) din
două oraşe X şi Y pe timp de 6 ani. Să se reprezinte aceste date sub formă
de grafice rectangulare şi hărţi rectilinii.

Soluţie. Graficele apar ı̂n figura 6.7.


112 Statistică descriptivă

Anul Oraşul X Oraşul Y


Indicatori producţia 1990 1.1 0.5
cartofi 1250 1991 2.3 2.2
sfeclă 950 1992 3.0 4.1
porumb 1100 1993 5.2 3.5
grâu 1800 1994 6.3 3.8
secară 800 1995 7.0 4.1

Tabela 6.2: Datele din exem- Tabela 6.3: Datele din exem-
plul 6.6.2 plul 6.6.3

Productia (in tone) obtinuta de ferma xx in 1994


cartofi
14% sfecla
porumb
21% grau
secara

16% 31%

19%

Figura 6.6: Graficul pentru exemplul 6.6.2


6.6. Exemple 113

7 7
orasul X orasul X
orasul Y orasul Y

6 6

5 5

4 4

3 3

2 2

1 1

0 0
1990 1991 1992 1993 1994 1995 1990 1991 1992 1993 1994 1995

Figura 6.7: Numărul de şomeri din două oraşe reprezentat sub formă de
grafice dreptunghiulare (dreapta) şi hărţi rectilinii (stânga)
114 Statistică descriptivă
Capitolul 7

Teoria selecţiei

7.1 Funcţii de selecţie


Fie datele de selecţie x1 , x2 , . . . , xn . Numărul n se va numi volumul
selecţiei.
Datele de selecţie vor fi considerate valori ale unor variabile aleatoare
X1 , . . . , Xn , numite variabile de selecţie; ı̂n cazul unei selecţii repetate ele
sunt identic repartizate cu caracteristica de studiat X.

Definiţia 7.1.1 Variabila aleatoare

Zn = hn (X1 , X2 , . . . , Xn ),

unde hn : Rn → R este măsurabilă se va numi funcţie de selecţie sau statis-


tică, iar zn = hn (x1 , . . . , xn ) se va numi valoarea funcţiei de selecţie.

7.2 Media de selecţie


Definiţia 7.2.1 Statistica
n
1X
X= Xk
n k=1

se va numi medie de selecţie, iar valoarea ei valoarea mediei de selecţie.

Propoziţia 7.2.2 Dacă X are media m = M(X) şi dispersia σ 2 = D 2 (X)


atunci
σ2
M(X) = m şi D 2 (X) = .
n
115
116 Teoria selecţiei

Demonstraţie.
n
1X 1
M(X) = M(Xk ) = nm = m
n k=1 n

1 X 2 1 σ2
D 2 (X) = D (X k ) = nσ 2
= ,
n2 n2 n
deoarece Xk sunt independente şi identic
 repartizate
 cu X.
σ2
Dacă n → ∞, X va urma legea N µ, .
n
Propoziţia 7.2.3 Dacă m = M(X) şi σ 2 = D 2 (X) atunci
X −m
Zn = σ

n
converge ı̂n repartiţie către legea normală N(0, 1) când n → ∞, iar când
X ∈ N(n, σ) afirmaţia are loc pentru orice n.
Demonstraţie. Rezultă din teorema limită centrală sau din proprietăţile
distribuţiei normale.

7.3 Momente de selecţie


Definiţia 7.3.1 Numim moment de selecţie de ordinul k funcţia de selecţie
n n
1X k 1X k
mk = X , iar mk = x
n i=1 i n i=1 i

se numeşte valoarea momentului de selecţie.


Observaţia 7.3.2 m1 = X.
Propoziţia 7.3.3 Fie caracteristica X pentru care există momentul teoretic
de ordinul 2k, M2k = M(X 2k ). Atunci
1
M(mk ) = Mk , D 2 (mk ) = (M2k − Mk2 ),
n
iar pentru n → ∞,
mk − Mk
Zn = r
M2k − Mk
n
este asimptotic N(0, 1).
7.3. Momente de selecţie 117

Demonstraţie. Avem
n n
1X 1X 1
M(mk ) = M(Xik ) = M(X k ) = nMk = Mk
n i=1 n i=1 n

şi
n
2 1 X 2 k 1 2 M2k − Mk2
D (mk ) = 2 D (Xi ) = 2 n(M2k − Mk ) = .
n i=1 n n

Aplicând teorema limită centrală se obţine că


n
X Xik − Mk
Zn = p √
i=1
M2k − Mk2 n
n
!
1 X
=p Xik −nMk
n(M2k − Mk2 )
|i=1{z }
nmk
mk − Mk
=r .
M2k − Mk2
n
este asimptotic normală standard.

Definiţia 7.3.4 Numim moment centrat de selecţie de ordin k statistica


n
1X
mk = (Xi − X)n .
n i=1

Observaţia 7.3.5 m1 = 0, iar m2 = m2 − m21 .

Propoziţia 7.3.6 Fie X o caracteristică pentru care există momentul teo-


retic M 4 . Atunci pentru momentul centrat de ordinul al doilea avem
n−1 2
M(m2 ) = σ ,
n
n−1
D 2 (m2 ) = [(n − 1)M 4 − (n − 3)σ 4 ]
n3
unde σ 2 = D 2 (X) şi
n−1
Cov(X, m2 ) = M 3.
n2
118 Teoria selecţiei

Demonstraţie. Pentru a arăta prima relaţie scriem succesiv

M(m2 ) = M(m2 ) − M(m21 )


!
1 X X
= M2 − 2 M Xn2 + 2 Xi Xj
n x i<j
" #
1 X 2
X
= M2 − 2 M(xk ) + 2 M(Xi )M(Xj )
n i<j
k
1
= M2 − [nM2 + n(n − 1)M12 ]
n2
1 n−1 2
= M2 − M2 − M1
n n
n−1
= (M2 − M12 )
4
n−1 2
= σ
n

Pentru a calcula dispersia, considerăm variabilele aleatoare reduse notate prin


Yk = Xk − M(Xk ), k = 1, n care sunt independente şi identic repartizate şi
care au media M(Yk ) = 0 şi dispersia D 2 (Yn ) = σ 2 , k = 1, n.
Se arată uşor că

n
1X
m2 = (Yn − Y )2
n k=1

unde

n
1X
Y = Yk .
n
k=1

Pe de altă parte

 2
2 n−1
D (m2 ) = M(m22 ) − (M(m2 )) = 2
M(m22 ) − σ4 .
n
7.3. Momente de selecţie 119

Mai avem de calculat M(m22 ).


 !2 
n
X
1
M(m22 ) = M (Yk − Y )2 
n2 k=1
 !2 
1  X X 2
= Yk2 − 2Y Yk + nY 
n2
k k
 !2 
Xn
1
= 2
M Yk2 − nY 
n k=1
 !2 
1 X 2X 2 4
= M  Y k
2
− 2nY Yk + n2 Y 
n2 k k
 !  !
n 2
1 X 2 2 X 4
= 2
M Yk2  − M Y Yk2 + M(Y )
n n
k=1 k

Calculăm pe rând termenii din membrul drept. Astfel avem


 !2 
X n
X X
M Yk2 = M(Yk4 ) + 2 M(Yi2 )M(Yj2 )
k k=1 i<j

= nM4 + n(n − 1)M22

apoi
! " n
! n
!#
2 X 1 X X X
M Y Yk2 = 2M Yi2 +2 Yi Yj Yk2
k
n i=1 i<j k=1
" #
1 X X X
= 2M Yk4 + 2 Yi2 Yj2 + 2 Yi Yj Yk2
n i<j
k i,j,k
i<j
1 2
= 2
[nM 4 + n(n − 1)M 2 ]
n
1 n−1 2
= M4 + M2
n n

deoarece M(Yi Yj Yk2 ) = 0, pentru orice i, j, k = 1, n, i 6= j.


120 Teoria selecţiei

Pentru ultimul termen avem


" n #
4 1 X X
M(Y ) = 4 M Yk4 + Yi2 Yj2 + . . .
n k=1 i<j
1 2
= 4
[nM 4 + 3n(n − 1)M 2 ]
n
1 3(n − 1) 2
= 3 M4 + M2 .
n n3
4
Termenii lui M(Y ), care nu au fost luaţi ı̂n considerare, sunt nuli, deo-
arece conţin ca factor pe M(Yi ) = 0. Am obţinut
 
2 1 2 2 1 n−1 2
M(m2 ) = 2 [nM 4 + n(n − 1)M 2 ] − M4 + M2
n n n n
1 3(n − 1) 2
+ 3 M4 + M2
n n2
(n − 1)2 (n − 1)(n2 − 2n + 3) 2
= M 4 + M2
n3 n3
Deci pentru dispersie avem succesiv
2 (n − 1)2 (n − 1)(n2 − 2n + 3) 2 (n − 1)2 2
D (m2 ) = M4 + M2 − M2
n3 n3 n2
(n − 1)2 (n − 1)(n − 3) 2
= 3
M4 − M2
n n3
n−1 2
= 3
[(n − 1)M 4 − (n − 3)M 2 ]
n
Pentru ultima relaţie putem considera că M(X) = 0, deci M(X) = 0, caz ı̂n
care avem
Cov(X, m2 ) = M(X · m2 )
1 hX  X 2
i
= 2M Xn Xk2 − nX
n " ! !#
1 X X 3
= 2M Xk Xi2 − M(X )
n i
k
1 X 1 X
= 2 M(Xk3 ) − 3 M(x3k )
n k n k

deoarece M(Xi Xj ) = M(Xi Xj2 ) = 0, pentru i 6= j. Aşadar


 
1 1 n−1
Cov(X, m2 ) = M 3 − 2 = M 3.
n n n2
7.3. Momente de selecţie 121

Observaţia 7.3.7 Din proprietatea precedentă avem că


 
2 1 2 1
D (m2 ) = (M 4 − M 2 ) + O ,
n n2

deci
1 2
D 2 (m2 ) ≈ (M 4 − M 2 ).
n
n−1
Deoarece Cov(X, m2 ) = M 3 , rezultă că X şi m2 sunt necorelate
n2
pentru n → ∞, iar dacă X are distribuţia simetrică (M 3 = 0), atunci X şi
m2 sunt necorelate pentru orice n. De asemenea se poate arăta că statistica

m2 − M 2
Zn = s as N(0, 1).
2
M4 − M2
n

Definiţia 7.3.8 Numim dispersie de selecţie statistica


n
2 1 X
2
σ =S = (Xk − X)2 .
n − 1 k=1

Observaţia 7.3.9 Are loc relaţia


n
σ2 = M2 (7.1)
n−1
Prin urmare
M(σ 2 ) = M 2 = σ 2 ,
1
Cov(X, σ 2 ) = M 3,
n
1
D 2 (σ 2 ) = [(n − 1)M 4 − (n − 3)M22 ].
n(n − 1)

Propoziţia 7.3.10 Fie caracteristica X pentru care există momentul centrat


teoretic
M k = M[(X − M(X)k ],
atunci  
1
M(mk ) = M k + O .
n
122 Teoria selecţiei

Demonstraţie.
n
1X
mk = (Xi − X)n
n i=1
   
1X k k k−1 n k
= Xi − Xi X + · · · + (−1) X
n i 1
 
k k
= mk − Xmk−1 + · · · + (−1)k X .
1

Fără a restrânge generalitatea, putem considera M(X) = 0, deci Mi =


M i , i = 1, k. Putem scrie
 
k
M(mk ) = M(mk ) − M(Xmk−1 ) + · · · + (−1)k M(X k )
1
 
k k
= Mk − M(Xmk−1 ) + · · · + (−1)k M(X )
1

Pe de altă parte, din inegalitatea lui Schwarz se obţine că

i 2i
M 2 (X mk−i ) ≤ M(X )M(m2k−i ), i = 2, k

Dacă se are ı̂n vedere propoziţia 7.3.3, rezultă că

M(m2k−i ) = D 2 (mk−i ) + M 2 (mk−i )


1 2 2
= [M2(k−i) − Mk−i ] + Mk−i
n
2 1 2
= M k−i + [M 2(k−i) − M k−i ].
n
 
2i 1
Se poate arăta de asemenea că M(X ) = O . Din nou, aplicăm
ni
inegalitatea lui Schwarz
 
2 i 1
M (X mk−i ) ≤ O
ni

sau  
i 1
M(X mk−i ) ≤ O , i = 2, k.
n 2i
7.4. Funcţia empirică de repartiţie şi teorema lui Glivenko 123

În cazul i = 1 avem


" n
! n
!#
1 X X
E(Xmk−1 ) = 2 M Xi Xjk−1
n i=1 j=1
n
X
1
= M(Xik )
n2 i=1
1
= Mk
n
Luând ı̂n considerare aceste evaluări se obţine ı̂n final
   
k 1 1
M(mk ) = M k − M k + O = Mk + O .
n n n

Observaţia 7.3.11 Analog se poate obţine că


2 2  
2 M 2k − 2kM k−1 M k+1 − M k + k 2 M k M k−1 1
D (mk ) = +O .
n n2

7.4 Funcţia empirică de repartiţie şi teorema


lui Glivenko
Definiţia 7.4.1 Fie caracteristica de studiat X, variabilele de selecţie X1 ,
. . . , Xn şi datele de selecţie x1 , . . . , xn . Numim funcţie de repartiţie de
selecţie (funcţie empirică de repartiţie) funcţia de selecţie definită prin

νn (x)
F̄n (x) = , x∈R
n

unde

νn = card{xi | xi ≤ x, i = 1, n}

iar

card{xi | xi ≤ x, i = 1, n}
F n (x) = , x∈R
n
se numeşte valoarea funcţiei de repartiţie de selecţie.
124 Teoria selecţiei

Observaţia 7.4.2 Valoarea funcţiei de repartiţie de selecţie F n este o func-


ţie ı̂n scară. Dacă datele de selecţie sunt distincte şi ordonate crescător

 0, x < x1

k
F n (x) = , dacă xk=1 ≤ x < xk , k = 1, n

 n
1, x ≥ xn

Funcţia de repartiţie de selecţie este o variabilă aleatoare de tip discret şi


are distribuţia
 
k
 n 
F n (x) =  n 
k n−k
[F (x)] [1 − F (x)]
k k=0,n

Teorema care urmează este un rezultat fundamental al statisticii mate-


matice.

Teorema 7.4.3 (Glivenko) Fie caracteristica X care are funcţia de repar-


tiţie teoretică F şi fie o selecţie repetată de volum şi relativă la caracteristica
X cu variabilele de selecţie X1 , X2 , . . . , Xn şi funcţia de repartiţie de selecţie
F n corespunzătoare, atunci
 
P lim sup |F n (x) − F (x)| = 0 = 1,
n→∞ x∈R

adică funcţia de repartiţie de selecţie converge aproape sigur la funcţia de


repartiţie teoretică.

Demonstraţie. Pentru demonstrarea teoremei lui Glivenko avem nevoie


de două leme.

Lema 7.4.4 Fie şirul deTevenimente (An ) a.ı̂. P (An ) = 1, n ≥ 1. Atunci,


pentru evenimentul A = ∞ n=1 An avem P (A) = 1.

Lema 7.4.5 Considerăm n probe independente ale unui experiment şi pre-
supunem că la fiecare repetare A apare cu probabilitatea p. Avem
 
k
P lim − p = 0 = 1
n→∞ n

adică frecvenţa relativă a lui A converge aproape sigur către probabilitatea de


apariţie a lui A.
7.4. Funcţia empirică de repartiţie şi teorema lui Glivenko 125

k k
r r

frag replacements PSfrag replacements

xr,k xr,k

k
r

PSfrag replacements

xr,k

Figura 7.1: Determinarea cuantilei xr,k

Aceasta este forma tare a teoremei lui Bernoulli.


Fie r ∈ N oarecare, dar fixat şi fie numerele xr,k , j = 0, r, definite prin
relaţia  
k
xr,k = inf x ∈ R| F (x) ≤ ≤ F (x + 0) .
r
k
Punctul xr,k este cuantila de ordin şi se obţine ı̂n modul arătat ı̂n figura
r
7.1.
Dacă se consideră evenimentul Br,k = (X ≤ xr,k ) atunci

P (Br,k ) = P (X ≤ xr,k ) = F (xr,k )

şi
ν(xr,k ) card{Xi | Xi ≤ xr,k , i = 1, n}
F n (xr,k ) = = .
n n
Prin urmare F n (xr,k ) este frecvenţa relativă a apariţiei evenimentului Br,k
şi deci conform lemei 7.4.5
 
P lim |Fn (xr,k ) − F (xr,k )| = 0 = 1, k = 1, r.
n→∞

Se poate renunţa la k = 0, căci xr,0 = −∞ şi F n (−∞) = F (−∞) = 0.


126 Teoria selecţiei

Fie acum evenimentul

Ar,k : |F n (xr,k ) − F (xr,k )| → ∞, când n → ∞.

Deoarece P (Ar,k ) = 1, k = 1, r, conform lemei 7.4.4


r
!
\
P (Ar ) = P Ar,k = 1,
k=1

unde Ar ı̂nseamnă

max |F n (xr,k ) − F (xr,k )| → 0, când n → ∞.


k=1,r

Considerăm acum evenimentul Cr,j = (X < xr,j ). Se obţine analog


 
P lim |F n (xr,j − 0) − F (xr,j − 0)| = 0 = 1
n→∞

pentru fiecare j = 1, r.
Dacă se notează cu Dr,j evenimentul

|F n (xr,j − 0) − F (xr,j − 0)| → 0, când n → ∞


Tr
şi Dr = j=1 Dr,j care ı̂nseamnă

max |F n (xr,j − 0) − F (xr,j − 0)| → 0, când n → ∞,


j=1,r

atunci D(Pr ) = 1.
Dacă se consideră evenimentul Er = Ar ∩ Dr , care ı̂nseamnă

max {|F n (xr,k ) − F (xr,k )|, |F n (xr,j − 0) − F (xr,j − 0)|} → 0,


k,j=1,r

T
atunci P (Er ) = 1. În acest fel, dacă E = ∞ n=1 Er , conform lemei 7.4.4 avem
P (E) = 1, adică
 
P sup max {|F n (xr,k ) − F (xr,k )|, |F n (xr,j − 0) − F (xr,j − 0)|} → 0 = 1.
r∈N k,j=1,r

Arătăm acum implicaţia


 
E⊂ lim sup |F n (x) − F (x)| = 0
n→∞
7.4. Funcţia empirică de repartiţie şi teorema lui Glivenko 127

din care va rezulta


 
1 = P (E) ⊆ P lim sup |F n (x) − F (x)| = 0 ≤1
n→∞ x∈R

deci  
P lim sup |F n (x) − F (x)| = 0 = 1.
n→∞ x∈R

Pentru aceasta fie x ∈ R oarecare. Pentru orice r ∈ N, va exista k ∈ N


astfel ı̂ncât xr,k < x ≤ xr,k+1 . Având ı̂n vedere că F n şi F sunt funcţii
nedescrescătoare, putem să scriem următoarele inegalităţi

F n (xr,k ) ≤ F n (x) ≤ F n (xr,k+1 − 0)

şi
F (xr,k ) ≤ F (x) ≤ F (xr,k+1) − 0,
de unde se obţine

F n (xr,k ) − F (xr,k+1 − 0) ≤ F n (x) − F (x) ≤ F n (xr,k+1 − 0) − F (xr,k ). (7.2)

Pe de altă parte, din modul de definire a numerelor xr,k , k = 0, r avem că


1
0 ≤ F (xr,k+1 − 0) − F (xr,k ) ≤
r
de unde
1 1
F (xr,k ) ≥ F (xr,k+1 − 0) − şi F (xr,k+1 − 0) ≤ F (xr,k ) + .
r r
Utilizate ı̂n dubla inegalitate (7.2), conduc la
1 1
F n (xr,k ) − F (xr,k ) − ≤ F n (x) − F (x) ≤ F n (xr,k+1 − 0) − F (xr,k+1 − 0) + .
r r
Din prima inegalitate se obţine
1
F (x) − F n (x) ≤ F (xr,k ) − F n (xr,k ) + ,
r
de unde
1
|F n (x) − F (x)| ≤ |F n (xr,k ) − F (xr,k ) +
r
1
≤ max{|F n (xr,j ) − F (xr,j )|} + .
j=1,r r
128 Teoria selecţiei

Din a doua inegalitate se obţine


1
|Fn (x) − F (x)| ≤ |F n (xr,k+1 − 0) − F (xr,k+1 − 0)| +
r
1
≤ max{|F n (xr,k − 0) − F (xr,k − 0)|} + .
k=1,r r

Folosind cele două inegalităţi obţinute rezultă că |F n (x) − F (x)| ≤ Mn,r
unde
1
Mn,r = max {|F n (xr,k ) − F (xn,k )|, |F n (xr,j − 0) − F (xr,j − 0)|} + ,
k,j=1,r r

de unde |F n (x) − F (x)| ≤ supr∈N Mn,r , pentru orice x ∈ R.


În final,
sup |F n (x) − F (x)| ≤ sup Mn,r ,
x∈R r∈N

care conduce la implicaţia ce trebuia demonstrată.


Teorema lui Glivenko ne garantează doar convergenţa funcţiei de reparti-
ţie empirice, fără a spune nimic despre comportarea asimptotică a distanţei
dintre funcţia de repartiţie empirică şi funcţia de repartiţie teoretică.

Teorema 7.4.6 (Kolmogorov) Fie caracteristica X care are funcţia de re-


partiţie teoretică F continuă şi fie o selecţie de volum n relativă la caracteris-
tica X cu variabilele de selecţie X1 , . . . , Xn şi corespunzător funcţia empirică
de repartiţie F n . Atunci

lim P ( nDn ≤ x) = K(x), x>0
n→∞

unde
Dn = sup |F n (x) − F (x)|,
x∈R

iar

X 2 x2
K(x) = (−1)k e−2k , x > 0,
k=−∞

este funcţia lui Kolmogorov.

Observaţia 7.4.7 a) Valorile funcţiei lui Kolmogorov sunt tabelate.

b) Pentru calculul valorilor aproximative ale funcţiei lui Kolmogorov se


pot utiliza formulele de aproximare.
7.5. Repartiţii de frecvenţă bidimensionale 129



 0, dacă x ≤ 0.27

 √ 3


 2π X −(2i−1)2 π2 /(8x2 )

 x e , dacă 0.27 < x < 1
i=1
K(x) = 4

 X 2 2

 1−2 (−1)i−1 e−2i x , dacă 1 ≤ x < 31



 i=1

1, dacă x > 3.1.

7.5 Repartiţii de frecvenţă bidimensionale


Problemele tratate până acum se refereau la o singură variabilă, repartiţia
ei caracterizându-se prin indicatorii tendinţei centrale. Există numeroase po-
pulaţii statistice ai căror indivizi prezintă două sau mai multe caracteristici.
Pentru aceste populaţii repartiţiile sunt multidimensionale.
Dacă, de exemplu, se consideră populaţia pieselor de un anumit tip, pro-
duse de o maşină ı̂n 8 ore, două caracteristici ale acesteia ar putea fi două
dimensiuni ale unei piese.
Datele unei selecţii de volum n dintr-o populaţie cu două caracteris-
teci se aşează ı̂ntr-o tabelă numită tabelă de corelaţie sau tabelă de
contingenţă. De remarcat că unele caracteristici pot fi cantitative (dimen-
siuni, greutăţi, etc.), iar altele calitative (piesă bună sau rebut).
Presupunem că analizăm populaţia ı̂n raport cu două caracteristici can-
titative X şi Y , care iau valorile x1 , . . . , xr şi respectiv y1 , . . . , ys . Vom nota
cu nij frecvenţa absolută a cazurilor pentru care X = xi , i = 1, r, Y = yj ,
j = 1, s. Dacă n este volumul selecţiei, atunci
r X
X s
nij = n. (7.3)
i=1 j=1

Frecvenţa relativă notată fij sau pij se defineşte prin raportul:


nij
pij = fij = . (7.4)
n
Împărţind (7.3) cu n rezultă
r s r s r s
1 XX X X nij X X
nij = = pij = 1. (7.5)
n i=1 j=1 i=1 j=1
n i=1 j=1

Numărul elementelor selecţiei pentru care X = xi , indiferent de valorile pe


care le ia Y ı̂l notăm cu ni. . Analog, frecvenţa cazurilor pentru care Y = yj ,
130 Teoria selecţiei

indiferent de valorile lui X va fi notată cu n.j . Avem


s
X r
X
ni. = nij , n.j = nij (7.6)
j=1 i=1

şi
r
X s
X r X
X s
ni. = n.j = nij = n (7.7)
i=1 j=1 i=1 j=1
s
X r
X
pi. = pij , p.j = pij (7.8)
j=1 i=1
r
X s
X
pi. = p.j = 1. (7.9)
i=1 j=1

Schematic o tabelă de corelaţie se reprezintă prin


X\Y x1 . . . xi . . . xr
y1 n11 . . . ni1 . . . nr1 n.1
.. .. .. .. ..
. . . . .
yj n1j . . . nij . . . nrj n.j
.. .. .. .. ..
. . . . .
ys n1s . . . nis . . . nrs n.s
n1. . . . ni. . . . nr. n
Frecvenţele ni. , n.j se numesc frecvenţe absolute marginale, iar pi. , p.j se
numesc frecvenţe relative marginale (din cauză că apar pe liniile şi coloanele
din marginea tabelului).
Se observă că tabelele de corelaţie exprimă o corespondenţă de la valoare
la repartiţie (şi nu de la valoare la valoare ca ı̂n cazul repartiţiilor unidimen-
sionale). Astfel, fiecărei valori xi , i = 1, r ı̂i corespunde o repartiţie de valori
a variabilei Y . Prin urmare, structura repartiţiei unei variabile Y variază ı̂n
raport cu cealaltă variabilă X. Acestă variaţie poartă numele de legătură
stochastică.
Şi pentru repartiţiile bidimensionale se definesc diferite caracteristici nu-
merice.
Momentele de selecţie. Putem defini momente ı̂n raport cu fiecare
dintre cele două caracteristici, precum şi momente mixte. Astfel momentul
de selecţie de ordinul h ı̂n raport cu X este dat de
r s r r
1 XX 1X X
mh0 = nij xhi = ni. xhi = pi. xhi , (7.10)
n i=1 j=1 n i=1 i=1
7.5. Repartiţii de frecvenţă bidimensionale 131

iar momentul de selecţie de ordin k ı̂n raport cu Y este


r s s s
1 XX 1X X
m0k = nij yjk = n.j yjk = p.j yjk . (7.11)
n i=1 j=1 n j=1 j=1

Momentul (mixt) de selecţie de ordinul h ı̂n raport cu X şi de ordinul k ı̂n


raport cu Y este
r s r s
1 XX XX
mhk = nij xhi yjk = pij xhi yjk . (7.12)
n i=1 j=1 i=1 j=1

În particular mediile de selecţie sunt


r s r
1 XX 1X
m10 = nij xi = ni. xi , (7.13)
n i=1 j=1 n i=1
r s s
1 XX 1X
m01 = nij yj = n.j yj . (7.14)
n i=1 j=1 n j=1

Momentele centrate se definesc asemănător cu cele din cazul unidi-


mensional. Astfel, momentul centrat de selecţie de ordinul h ı̂n raport cu X
este
r s r
1 XX h 1X
m̄h0 = nij (xi − m10 ) = ni. (xi − m10 )h ,
n i=1 j=1 n i=1

iar momentul centrat de ordinul k ı̂n raport cu Y este


r s s
1 XX 1X
m̄0k = nij (yj − m01 )k = n.j (yj − m01 )k .
n i=1 j=1 n j=1

Momentul centrat (mixt) de selecţie de ordinul h ı̂n raport cu X şi de ordinul


k ı̂n raport cu Y este
r s
1 XX
m̄hk = nij (xi − m10 )h (yj − m01 )k =
n i=1 j=1
r X
X s
= pij (xi − m10 )h (yj − m01 )k .
i=1 j=1

Evident m̄10 = m̄01 = 0.


132 Teoria selecţiei

Momentele centrate de ordinul al doilea


r s r
1 XX 1X
m̄20 = s21 = nij (xi − m10 )2 = ni. (xi − m10 )2 (7.15)
n i=1 j=1 n i=1
r s s
1 XX 1X
m̄02 = s22 = nij (yj − m01 )2 = n.j (yj − m01 )2 (7.16)
n i=1 j=1 n j=1

se numesc dispersiile de selecţie ale caracteristicii X şi respectiv Y . Au


loc relaţiile

m̄20 = s21 = m20 − m210


m̄02 = s22 = m02 − m201 .

Definiţia 7.5.1 Momentul centrat mixt de ordinul al doilea


r s
1 XX
m̄11 = nij (xi − m10 )(yj − m01 ) = m11 − m10 m01 (7.17)
n i=1 j=1

se numeşte corelaţia (covarianţa) lui X şi Y , iar raportul


m̄11 m̄11
r̄ = r̄(X, Y ) = √ = (7.18)
m̄20 m̄02 s1 s2

se numeşte coeficient de corelaţie statistic sau empiric.

Proprietăţi.

Propoziţia 7.5.2 Dacă X şi Y sunt independente, atunci r̄(X, Y ) = 0.

Demonstraţie. Dacă X şi Y sunt independente, atunci pij = pi. p.j , şi
avem
X r X
s r
X s
X
m11 = pij xi yj = xi pi. yj p.j = m10 m01
i=1 j=1 i=1 j=1

şi deci
m11 − m10 m01
r̄(X, Y ) = = 0.
s1 s2

Observaţia 7.5.3 Ca şi ı̂n cazul coeficientului de corelaţie teoretic, reciproca


este falsă. Dacă r̄(X, Y ) = 0, atunci X şi Y sunt necorelate.
7.5. Repartiţii de frecvenţă bidimensionale 133

Propoziţia 7.5.4 r̄(X, Y ) = 1 dacă şi numai dacă ı̂ntre X şi Y există o
legătură liniară.

Coeficientul de corelaţie al lui Pearson poate exprima o legătură mai


generală decât coeficientul de corelaţie statistic.

Definiţia 7.5.5 Se numeşte coeficient de corelaţie al lui Pearson numărul


Xr X s
2 1 (pij − pi. p.j )2
ρ =p . (7.19)
(r − 1)(s − 1) i=1 j=1 pi. p.j

Proprietăţi.

Propoziţia 7.5.6 X şi Y sunt independente dacă şi numai dacă ρ2 = 0.

Demonstraţie.
(⇒)Dacă X şi Y sunt independente, atunci pij = pi. p.j şi toate pătratele
din (7.19) vor fi nule.
(⇐)Dacă ρ2 = 0, atunci toate pătratele din (7.19) sunt nule, deci pij =
pi. p.j , ceea ce ı̂nseamnă chiar independenţa lui X şi Y .

Propoziţia 7.5.7 Are loc inegalitatea 0 ≤ ρ2 ≤ 1.

Demonstraţie. Distingem trei cazuri:


a) r < s
XX r s  
2 1 p2ij
ρ =p − 2pij + pi. p.j .
(r − 1)(s − 1) i=1 j=1 pi. p.j

Dar
r X
X s
(−2pij + pi. p.j ) = −1.
i=1 j=1

Deoarece s
X pij
= 1,
j=1
pi.

expresia
Xs Xs
p2ij pij pij
= ·
p p
j=1 i. .j
p p.j
j=1 i.
134 Teoria selecţiei

pij
poate fi interpretată ca valoare medie a unei repartiţii discrete cu valorile p.j
,
p
j = 1, s, cu probabilităţile (condiţionate) piji. ; avem

Xs
p2ij pij
≤ 0 ≤ 1,
p p
j=1 i. .j
p.j0

pij0
unde p.j0
este valoarea maximă a repartiţiei considerate. În final obţinem

r X s
!
1 X p2ij
ρ2 = p −1 ≤
(r − 1)(s − 1) i=1 j=1
p i. p .j

r
! r
1 X r−1 r−1
≤p 1−1 = p = < 1.
(r − 1)(s − 1) i=1 (r − 1)(s − 1) s−1

b) r > s se demonstrează analog.


c) r = s, se modifică doar ultima inegalitate, putându-se obţine ρ2 ≤ 1.

Propoziţia 7.5.8 Dacă ı̂ntre X şi Y există o dependenţă funcţională de


forma Y = h(X), atunci ρ2 = 1.
h
Demonstraţie. Conform ipotezei r = s şi presupunem că ai 7→ bj ,
i, j = 1, r. Avem 
0 pentru i 6= j,
pij =
pi pentru i = j,
unde pi = pi. = p.i , i = 1, r. Calculând ρ2 vom obţine
r X r
! r
!
1 X p2ij 1 X
2
ρ = −1 = 1 − 1 = 1.
r − 1 i=1 j=1 pi. p.j r − 1 i=1

Observaţia 7.5.9 Reciproca este falsă.


Capitolul 8

Estimaţie

După ce s-au obţinut datele statistice ı̂n urma cercetării selective se proce-
dează la generalizări care se referă la populaţia din care se extrage selecţia. În
particular aceste generalizări sunt legate de estimarea parametrilor necunos-
cuţi, care determină particularităţile caracteristice ale colectivităţilor iniţiale.
Determinând un parametru, ne propunem să obţinem o mărime care ı̂ntr-o
măsură oarecare să fie cât mai apropiată de valoarea reală a parametrului
necunoscut. Dacă nu reuşim aceasta, căutăm nişte limite ı̂n interiorul cărora,
cu o anumită probabilitate, să putem afirma că se află mărimea reală a para-
metrului necunoscut. În acest caz avem de-a face cu un interval de ı̂ncredere
pentru parametrul necunoscut.
Presupunem că studiem o caracteristică X a unei populaţii şi că X ur-
mează legea dată de f (X, θ), unde f (X, θ) este funcţia de frecvenţă ı̂n cazul
discret şi d.p. ı̂n cazul continuu iar θ este un parametru necunoscut. Se con-
sideră o selecţie repetată de volum n şi variabilele de selecţie corespunzătoare
X1 , X2 , . . . , Xn .

8.1 Funcţia de verosimilitate şi statistici su-


ficiente
Definiţia 8.1.1 Se numeşte funcţie de verosimilitate funcţia de selecţie
n
Y
L(X1 , X2 , . . . , Xn ; θ) = f (Xk , θ).
k=1

Valoarea acestei funcţii


n
Y
L(X1 , . . . , Xn ; θ) = f (Xk , θ)
k=1

135
136 Estimaţie

reprezintă ı̂n cazul discret funcţia de frecvenţă, iar ı̂n cazul continuu densi-
tatea de probabilitate a vectorului aleator (X1 , X2 , . . . , Xn ).

Definiţia 8.1.2 Statistica S = S(X1 , X2 , . . . , Xn ) se numeşte suficientă sau


exhaustivă pentru parametrul θ, dacă există funcţia măsurabilă ϕ : Rn → R
nenegativă şi funcţia măsurabilă hθ : R → R nenegativă astfel ı̂ncât

L(X1 , . . . , Xn , θ) = ϕ(X1 , . . . , Xn )h(s, θ),

unde s = S(X1 , . . . , Xn ).

Observaţia 8.1.3 O condiţie echivalentă pentru suficienţa statisticii S este


condiţia ca funcţia de frecvenţă (ı̂n cazul discret), respectiv densitatea de
probabilitate ı̂n cazul continuu f (X1 , . . . , Xn , θ(s)), a vectorului aleator (X1 ,
. . . , Xn ) condiţionată de evenimentul S(X1 , . . . , Xn ) = s să nu depindă de
θ.

Exemplul 8.1.4 Fie X ∈ P0 (λ), λ = 0

λx −x
f (x, λ) = e , x∈N
X!
n
X
Considerăm statistica S = Xk . Deoarece X1 , X2 , . . . , Xn i.i.d. cu X,
k=1
S ∈ P0 (nλ)
(nλ)s −nλ
O(S = s) = e
s!
n
Y λ
L(X1 , . . . , Xn ; λ) = f (Xk , λ) = e−nλ
k=1
X1 !X2 ! . . . Xn !

Putem scrie L sub forma L = ϕh cu

1
ϕ(X1 , . . . , Xn ) = , h(s; λ) = λs e−nλ
X1 ! . . . Xn !
sau
s! (nλ)s −nλ
ϕ(X1 , . . . , Xn ) = s
, h(s; λ) = e
n X1 ! . . . Xn ! s!
Deci nu se impune unicitatea factorizării.
8.1. Funcţia de verosimilitate şi statistici suficiente 137

Ţinând cont că S ∈ P0 (nλ)

f (X1 , . . . , Xn ; λ|s) = P (X1 = x1 , . . . , Xk = xk |S = s)


P (X1 = x1 , X2 = x2 , . . . , Xn = xn , S = s)
=
P (S = s)
n−1
!
X
P X1 = x1 , . . . , xn−1 = xn−1 , Xn = s − xn
k=1
=
P (S = s)
n−1
! n−1
X Y
P Xn = s − xn P (Xi = xi )
k=1 i=1
=
P (S = s)
n−1
P
s− xk n−1
λ k=1 Y λxi −λ
n−1
! e−λ e
X i=1
Xi !
s− Xk !
k=1
=
(nλ)s −nλ
e
s!
s!
=
ns X 1 X2 ! . . . Xn !

Deci f (X1 , X2 , . . . , Xn ; λ|s) nu depinde de λ decât prin intermediul lui s.

Exemplul 8.1.5 (Familia exponenţială) Fie caracteristica X cu funcţia de


probabilitate de forma

f (x; θ) = exp{a(x)α(θ) + b(x) + β(θ))

Statistica
n
X
S = S(X1 , . . . , Xn ) = a(Xk )
k=1

este suficientă pentru λ.


n
Y
L(x1 , . . . , xn ; θ) = f (xn , θ)
k=1

( n n
)
X X
= exp α(θ) a(xk ) + nβ(θ) + b(xk )
k=1 k=1
138 Estimaţie

( n
) ( n )
X X
= exp α(θ) a(xk ) + nβ(θ) exp b(xk ) .
k=1 k=1

Dacă se consideră
n
!
X
ϕ(X1 , . . . , Xk ) = exp b(Xk )
k=1

şi
h(s, θ) = exp (α(θ)s + nβθ)

atunci
L(X1 , . . . , Xn |θ) = ϕ(X1 , . . . , Xn )h(s, θ).

8.2 Funcţii de estimaţie


Definiţia 8.2.1 Fie caracteristica X cu funcţia de probabilitate f (x; θ), pa-
rametrul θ ∈ A necunoscut şi o selecţie repetată de volum n. Numim funcţie
de estimaţie sau estimator pentru parametrul θ funcţia de selecţie

θb = ϕ(X
b 1 , X2 , . . . , Xn )

care ia valori ı̂n domeniul A, iar valoarea numerică θb = θ(x


b 1 , . . . , xn ) se
numeşte estimaţie a lui θ.

Definiţia 8.2.2 Estimatorul θb = θ(X b 1 , X2 , . . . , Xn ) este un estimator nede-


plasat pentru parametrul necunoscut θ dacă M(θ) b = θ, iar valoarea numerică
θb = θ(x
b 1 , x2 , . . . , xn ) se numeşte estimaţie nedeplasată pentru parametrul θ.

Definiţia 8.2.3 Spunem că estimatorul θb = θ(X


b 1 , X2 , . . . , Xn ) este estima-
p
tor consistent pentru parametrul necunoscut θ dacă θb → θ, adică

lim P (|θb − θ| < ε) = 1,


n→∞

pentru orice ε > 0, iar valoarea numerică θb = θ(x


b 1 , . . . , xn ) se numeşte
estimaţie consistentă pentru parametrul θ.
8.2. Funcţii de estimaţie 139

8.2.1 Estimatori absolut corecţi


Definiţia 8.2.4 θb = θ(X
b 1 , X2 , . . . , Xn ) se numeşte estimator absolut corect
pentru θ dacă satisface condiţiile
b =θ
(i) M(θ)
b = 0,
(ii) lim D 2 (θ)
n→∞
iar valoarea numerică θb = θ(x
b 1 , . . . , xn ) se numeşte estimaţie absolut corectă
pentru parametrul θ.

Propoziţia 8.2.5 Orice estimator absolut corect este consistent.

Demonstraţie. Fie θb = θ(Xb 1 , X2 , . . . , Xn ) un estimator absolut corect


pentru θ. Din inegalitatea lui Cebı̂şev avem

b
D 2 (θ)
1 ≥ P (|θb − θ| < ε) ≥ 1 − , ∀ ε > 0.
ε2
Trecând la limită pentru n → ∞ se obţine

lim P (|θb − θ| < ε) = 1, ε > 0.


n→∞

Propoziţia 8.2.6 Fie caracteristica X pentru care există momentul teoretic


de ordinul 2k, M2k = M(X 2k ). Momentul de selecţie de ordinul k
n
1X k
mk = X
n i=1 i

este o estimaţie absolut corectă pentru parametrul Mk .

Demonstraţie. Din proprietatea momentului de selecţie M(mk ) = Mk


şi
M2k − Mk2
lim D 2 (mk ) = lim = 0.
n→∞ n→∞ n

Observaţia 8.2.7 Momentele de selecţie sunt estimatori absolut corecţi a


momentelor teoretice. În particular, pentru k = 1 se obţine că media de
selecţie X este o estimaţie absolut corectă pentru media teoretică M(X) =
M1 .
140 Estimaţie

8.2.2 Estimatori corecţi


Definiţia 8.2.8 θb = θ(X
b 1 , . . . , Xn ) se numeşte estimator corect pentru θ
dacă
(i) lim M(θ)b =θ
n→∞
b = 0,
(ii) lim D 2 (θ)
n→∞
iar valoarea numerică θb = θ(x
b 1 , . . . , xn ) se numeşte estimaţie corectă pentru
parametrul θ.

Propoziţia 8.2.9 Un estimator corect este consistent.

Demonstraţie. Fie estimatorul θb = θ(Xb 1 , . . . , Xn ) un estimator corect


pentru θ. Conform lui (i) şi (ii) pentru orice ε > 0 şi δ > 0, există N =
N(ε, δ) ∈ N a.ı̂.

ε ε2 δ
|M(θb − θ| < , b <
D 2 (θ) , pentru n > N.
2 4
Aşadar putem scrie

|θb − θ| ≤ |θb − M(θ)|


b + |M(θ) b + ε,
b − θ| < |θb − M(θ)|
2
b < ε , vom avea că |θb− θ| < ε, pentru
pentru n > N, de unde dacă |θb− M(θ)|
2
n > N. Prin urmare avem
 
b < ε ⊂ (|θb − θ| < ε), n > N,
|θb − M(θ)|
2
care conduce la inegalitatea
 ε
b b
P |θ − M(θ)| < ≤ P (|θb − θ| < ε), n > N.
2
Pe de altă parte, folosind inegalitatea lui Cebı̂şev,
  2 b
b < ε ≥ 1 − 4D (θ) .
P |θb − M(θ)|
2 ε2
2
b < ε δ , pentru n > N, rezultă că
Deoarece D 2 (θ)
4
 
b < ε ≥ 1 − δ,
P (|θb − θ| < ε) ≥ P |θb − M(θ)| n > N,
2
p
de unde θb → θ.
8.3. Estimaţii eficiente 141

Propoziţia 8.2.10 Fie caracteristica X pentru care există parametrul teo-


retic de ordin 2k, M2k = E(X 2k ) şi fie o selecţie repetată de volum n. Atunci
momentul centrat de selecţie de ordinul k
n
1X
mk = (Xi − X)k
n i=1

este o funcţie de estimaţie corectă pentru momentul centrat teoretic de ordinul


k, adică
M k = M[(X − M(X))k ].

Demonstraţie. Conform observaţiei 7.3.7 avem


  
1
lim M(mk ) = lim M k + O = M k.
n→∞ n→∞ n
De asemenea avem
" 2 2  #
M 2k − 2kM k−1 M k+1 − M k + k 2 M k M k−1 1
lim D 2 (mk ) = lim +O
n→∞ n→∞ n n
= 0.

Aşadar, sunt satisfăcute condiţiile definiţiei 8.2.8.

Observaţia 8.2.11 Momentul centrat de selecţie de ordinul 2, m2 este o


funcţie de estimaţie corectă pentru dispersia teoretică D 2 (X) = M 2 .
Având ı̂n vedere observaţia 7.3.9, formula (7.1), dispersia de selecţie
n
2 21 X
σ =S = (Xk − X)2
n−1
k=1

este o funcţie de estimaţie absolut corectă pentru dispersia teoretică D 2 (X) =


M 2.

8.3 Estimaţii eficiente


Definiţia 8.3.1 Se numeşte cantitate de informaţie Fisher a unei selecţii de
volum n relativă la parametrul θ ∈ R necunoscut, valoarea medie
" 2 #
∂ ln L(X1 , X2 , . . . , Xn ; θ)
In (θ) = M ,
∂θ

când funcţia de verosimilitate este derivabilă ı̂n raport cu θ.


142 Estimaţie

Observaţia 8.3.2 Dacă parametrul θ este p-dimensional


  
∂ ∂
F = Cov ln L(X1 , . . . , Xn ; θ), ln L(X1 , . . . , Xn ; θ)
∂θi ∂θj i,j=1,p

se numeşte matrice de informaţie Fisher.

Teorema 8.3.3 Dacă domeniul valorilor caracteristicii X ne depinde de θ,


iar funcţia de verosimilitate este de două ori derivabilă ı̂n raport cu θ, atunci
 2 
∂ ln L(X1 , . . . , Xn ; θ)
In (θ) = −E .
∂θ2

Demonstraţie. Vom demonstra numai cazul continuu. Pentru cazul


discret integrala multiplă se ı̂nlocuieşte cu o sumă multiplă.
Se porneşte de la
Z Z
· · · L(X1 , . . . , Xn ; θ)dX1 . . . dXn = 1.
Rn

Se derivează ı̂n raport cu θ şi se ţine cont că

∂L(X1 , . . . , Xn ; θ) ∂ ln L(X1 , . . . , Xn ; θ)
= L(X1 , . . . , Xn ; θ) (8.1)
∂θ ∂θ
Se obţine
Z Z
∂ ln L(X1 , . . . , Xn ; θ)
··· L(X1 , . . . , Xn ; θ)dX1 . . . dXn = 0. (8.2)
∂θ
Rn

Derivând din nou ı̂n raport cu θ


Z Z 2
∂ ln L(X1 , . . . , Xn ; θ)
··· L(X1 , . . . , Xn ; θ)dX1 . . . dXn
∂θ2
Rn
Z Z
∂ ln L(X1 , . . . , Xn ; θ) ∂L(X1 , . . . , Xn ; θ)
+ ··· dX1 . . . dXn = 0,
∂θ ∂θ
Rn

care ţinând cont de (8.1) ne conduce la


Z Z 2
∂ ln L(X1 , . . . , Xn ; θ)
··· L(X1 , . . . , Xn ; θ)dX1 . . . dXn
∂θ2
Rn
8.3. Estimaţii eficiente 143

Z Z  2
∂ ln L(X1 , . . . , Xn ; θ)
+ ··· L(X1 , . . . , Xn ; θ)dX1 . . . dXn = 0
∂θ
Rn
sau echivalent
 2  " 2 #
∂ ln L(X1 , . . . , Xn ; θ) ∂ ln L(X1 , . . . , Xn ; θ)
M +M = 0.
∂θ2 ∂θ

Corolarul 8.3.4 Dacă domeniul de definiţie al lui X nu depinde de θ, atunci


In (θ) = nI1 (θ).
Demonstraţie. Deoarece selecţia este repetată avem
n
∂ 2 ln L(X1 , . . . , Xn ; θ) X ∂ 2 ln f (Xk ; θ)
= .
∂θ2 k=1
∂θ 2

Aplicând teorema 8.3.3 se obţine


Xn  2  X n
∂ ln f (Xk ; θ)
In (θ) = − E 2
= I1 (θ) = nI1 (θ)
k=1
∂θ k=1

căci  
∂ 2 ln f (X; θ)
I1 (θ) = −E .
∂θ2

Observaţia 8.3.5 Din demonstraţia teoremei 8.3.3 rezultă de asemenea că


 
2 ∂ ln L(X1 , . . . , Xn ; θ)
In (θ) = D
∂θ
deoarece din (8.2)
 
∂ ln L(X1 , . . . , Xn ; θ)
M = 0.
∂θ
Exemplul 8.3.6 Fie X ∈ N(m, σ), m necunoscut, σ > 0 cunoscut. Deoa-
rece
1 (X−m)2
f (X, m) = √ e− 2σ2 , X ∈ R
σ 2π
" 2 #  
∂ ln f (X; m) (X − m)4 1
I1 (m) = M =M = .
∂m σ4 σ2
Prin urmare cantitatea de informaţie adusă de o observaţie, relativ la
parametrul m, este cu atât mai mare cu cât dispersia este mai mică.
144 Estimaţie

Teorema 8.3.7 Fie caracteristica X cu funcţia de probabilitate f (X; θ) de-


rivabilă de două ori ı̂n raport cu θ şi statistica S = S(X1 , . . . , Xn ) relativă la
selecţia X, cu funcţia de probabilitate h(S; θ).
Atunci  2 
∂ ln h(S, θ)
IS (θ) := −M ≤ In (θ),
∂θ2
adică cantitatea de informaţie relativă la parametrul θ conţinută ı̂n statistica
S nu depăşeşte cantitatea de informaţie In (θ) conţinută ı̂n selecţia conside-
rată.

Demonstraţie.

L(X1 , . . . , Xn ; θ) = h(S; θ)f (X1 , . . . , Xn ; θ|S)

Deci avem
∂ 2 ln L(X1 , . . . , Xn ; θ) ∂ 2 ln h(S, θ) ∂ 2 ln f (X1 , . . . , Xn ; θ|S)
= + (8.3)
∂θ2 ∂θ2 ∂θ2
deci  
∂ 2 ln f (X1 , . . . , X; θ|S)
In (θ) = IS (θ) − E ≥ IS (θ).
∂θ2

Observaţia 8.3.8 Dacă S este suficientă, atunci f (X1 , . . . , Xn ; θ|S) nu de-


pinde de θ şi rezultă că In (θ) = IS (θ). Acest lucru se obţine imediat din
relaţia (8.3).

Teorema 8.3.9 (Inegalitatea Rao-Cramer) Se consideră caracteristica


∂f
X având funcţia de probabilitate f (X; θ), θ ∈ (a, b) pentru care există şi
∂θ
fie o statistică θb = θ(X
b 1 , . . . , Xn ) absolut corectă pentru θ. Atunci

b ≥ 1
D 2 (θ) .
In (θ)

Demonstraţie. Deoarece estimatorul θb este nedeplasat, avem M(θ) b = θ,


adică Z Z
b 1 , . . . , Xn )L(X1 , . . . , Xn ; θ)dX1 . . . dXn = θ
· · · θ(X
Rn

unde n
Y
L(X1 , . . . , Xn ; θ) = f (Xk ; θ)
k=1
8.3. Estimaţii eficiente 145

este funcţia de verosimilitate. Derivând ı̂n raport cu θ relaţia de mai sus se


obţine că
Z Z n
!
X ∂f (X k ; θ)
b 1 , . . . , Xn )
· · · θ(X f (X1 ; θ) . . . . . . f (Xn ; θ) dX1 . . . dXn = 1
k=1
∂θ
Rn

sau
Z Z " n #" n #
X ∂ ln f (xk ; θ) Y
··· b 1 , . . . , Xn )
θ(X f (Xi ; θ) dX1 . . . dXn = 1
k=1
∂θ i=1
Rn
(8.4)
Pe de altă parte, deoarece
Z
∂ ln f (X; θ)
f (X; θ)dX = 0,
R ∂θ
avem
n Z Z " n #
X ∂ ln f (Xk ; θ) Y
θ ··· f (Xi ; θ) dX1 . . . dXn = 0
k=1
∂θ i=1
Rn

care scăzută din (8.4) ne conduce la


Z Z " n #
X ∂ ln f (Xk ; θ)
b 1 , . . . , Xn )−θ]
· · · [θ(X L(X1 , . . . , Xk ; θ)dX1 . . . dXn = 1,
k=1
∂θ
Rn

adică " !#
n
X
b 1 , . . . , Xn ) − θ) ∂ ln f (Xk ; θ)
M (θ(X = 1.
k=1
∂θ
Aplicăm inegalitatea lui Schwarz şi obţinem
" " n
!##2
X ∂ ln f (X k ; θ)
1 = M (θ(X b 1 , . . . , Xn ) − θ)
∂θ
k=1 !2 
n
X ∂ ln f (Xk ; θ)
b 1 , . . . , Xn ) − θ)2 ]M 
≤ M[(θ(X 
k=1
∂θ
n
!
X ∂ ln f (Xk ; θ)
b 2
= D 2 (θ)D
∂θ
k=1 
2 b 2 ∂ ln f (X; θ)
= D (θ)nD ,
∂θ
146 Estimaţie

adică
b ≥ 1
D 2 (θ)   (8.5)
∂ ln f (X; θ)
nD 2
∂θ
Dar
   2
2 ∂ ln f (X; θ) ∂ ln f (X; θ)
nD = nM = nI1 (θ) = In (θ)
∂θ ∂θ

care ı̂nlocuită ı̂n (8.5) ne dă concluzia.

Definiţia 8.3.10 Se numeşte eficienţă a unei funcţii de estimaţie absolut


corecte θb = θ(X
b 1 , . . . , Xn ) pentru parametrul θ raportul

b = In−1 (θ)
e(θ) .
b
D 2 (θ)

Definiţia 8.3.11 Spunem că funcţia de estimaţie absolut corectă pentru pa-
rametrul θ, Θ b 1 , . . . , Xn ) este eficientă dacă ı̂n inegalitatea Rao-Cramer
b = θ(X
are loc egalitatea, adică e(θ) b = 1.

Teorema 8.3.12 (Rao-Cramer) Se consideră caracteristica X cu funcţia


de probabilitate f (X; θ), θ ∈ (a, b) care satisface condiţiile teoremei 8.3.9 şi
fie funcţia de estimaţie absolut corectă θb = θ(X
b 1 , . . . , Xn ) pentru parametrul
θ. Condiţia necesară şi suficientă pentru ca θb să fie funcţie de estimaţie
eficientă pentru parametrul θ este ca să aibă loc reprezentarea

e
ln f (X; θ) = A′ (θ)[L(X) − θ] + A(θ) + N(X),

ı̂n plus are loc formula

X n
b 1 , . . . , Xn ) = 1
θb = θ(X e k ).
L(X
n
k=1

Demonstraţie. Pentru necesitate, din demonstraţia inegalităţii Rao-


Cramer avem egalitate dacă inegalitatea lui Schwarz are loc cu egalitate,
adică ı̂ntre v.a. considerate avem o relaţie liniară
n
X
b 1 , . . . , Xn ) − θ] = ∂ ln f (Xk ; θ)
K(θ)[θ(X , K 6= 0.
k=1
∂θ
8.3. Estimaţii eficiente 147

Considerând X1 = X (X oarecare), X1 = · · · = Xn = const (=0) de


exemplu avem

b ∂ ln f (x; θ) ∂ ln f (0, θ)
K(θ)[θ(X, 0, . . . , 0) − θ] = + (n − 1)
∂θ ∂θ
de unde
∂ ln f (x; θ)
= U(θ)Q(x) + V (θ).
∂θ
Astfel s-a obţinut că
n
X n
X
∂ ln f (Xk ; θ)
= U(θ) Q(Xk ) + nV (θ)
k=1
∂θ k=1

şi prin urmare


n
X
b 1 , . . . , Xn ) − θ] = U(θ)
K(θ)[θ(X Q(Xk ) + nV (θ),
k=1

de unde
X n
b 1 , . . . , Xn ) = U(θ)
θ(X Q(Xk ) +
nV (θ)
+ θ,
K(θ) k=1 K(θ)
pentru orice X1 , . . . , Xn . Rezultă de aici că

U(θ) nV (θ)
h= , g= +θ
K(θ) K(θ)

sunt constante (nu depind de θ), deoarece θ(X b 1 , . . . , Xn ) nu depinde de θ.


Prin urmare
n
X
b
θ(X1 , . . . , Xn ) = h Q(Xk ) + g,
k=1

e
şi dacă se notează L(X) = nhQ(X) + g, atunci
n e
X n
b 1 , . . . , Xn ) = h L(Xk ) − g 1Xe
θ(X +g = L(Xk ).
nh n
k=1 k=1

Aşadar s-a ajuns la

X n
b 1 , . . . , Xn ) = 1
θb = θ(X e k ).
L(X
n k=1
148 Estimaţie

Pe de altă parte deoarece


∂ ln f (X; θ)
= U(θ)Q(X) + V (θ),
∂θ
obţinem
∂ ln f (X; θ) e
L(X) − g K(θ)(g − θ)
= hK(θ) + ,
∂θ nh n
de unde
∂ ln f (x; θ) K(θ) e
= [L(X) − θ].
∂θ n
K(θ)
Notând A′′ (θ) = şi integrând ultima relaţie ı̂n raport cu θ obţinem
n
Z Z
∂ ln f (X; θ) e
dθ = A′′ (θ)[L(X) − θ]dθ
∂θ
Z
= A (θ)[L(X) − θ] + A′ (θ)dθ

e
= A′ (θ)[L(X) − θ] + A(θ) + N(X),

de unde
e
ln f (X; θ) = A′ (θ)[L(X) − θ] + A(θ) + N(X).
Pentru suficientă se porneşte de la relaţia cunoscută
Z
f (X; θ)dX = 1,
R

adică Z
e
exp{A′ (θ)[L(X) − θ] + A(θ) + N(X)}dX = 1,
R
pe care o derivăm ı̂n raport cu θ:
Z
e
A′′ (θ)(L(X) − θ)f (X; θ)dX = 0,
R

de unde, deoarece A′′ 6= 0, rezultă că


Z
e
(L(X) − θ)f (X; θ)dX = 0.
R

Derivăm din nou ı̂n raport cu θ şi se ajunge la


Z Z
e ∂f (X; θ)
− f (X; θ)dx + (L(X) − θ) dX = 0,
R R ∂θ
8.3. Estimaţii eficiente 149

de unde Z
e
(L(X) − θ)2 A′′ (θ)f (X; θ)dX = 1.
R

e
Deoarece M(L(X)) = 0, am obţinut astfel că

e 1
D 2 (L(X)) = ,
A′′ (θ)

şi deci " #


n
X
b = D2 1 e k) = 1
D 2 (θ) L(X .
n nA′′ (θ)
k=1

Pe de altă parte

In (θ) = nI1 (θ)


Z  2
∂ ln f (X; θ)
=n f (X; θ)dX
R ∂θ
Z
e
= n (A′′ (θ))2 (L(X) − θ)2 f (X; θ)dX
R
1
= n[A′′ (θ)]2
A′′ (θ)
= nA′′ (θ).

Prin urmare, putem scrie

1
b = In−1 (θ)nA′′ (θ)
e(θ) = = 1,
b
V ar(θ) 1
nA′′ (θ)

b 1 , . . . , Xn ) este un estimator eficient pentru θ.


b = θ(X
deci Θ

Exemplul 8.3.13 Se consideră caracteristica X ce urmează legea b(m, p) cu


m cunoscut şi p necunoscut. Vrem să arătăm că media de selecţie este un
estimator eficient pentru parametrul necunoscut θ = M(X) = mp. Pentru
aceasta vom considera o selecţie de volum n relativă la această caracteristică.
Funcţia de frecvenţă a lui X este
   X  m−X
m θ θ
f (X; θ) = 1− ,
X m m
150 Estimaţie

de unde
   
m θ θ
ln f (X; θ) = ln + X ln + (m − X) ln 1 −
X m m
 
θ θ m
= (X − θ) ln + θ ln + m ln(m − θ) + ln − m ln m.
m−θ m−θ X
Considerând
A(θ) = θ ln θ + (m − θ) ln(m − θ)
avem
θ
A′ (θ) = ln ,
m−θ
deci
e
f (X; θ) = [L(X) − θ]A′ (θ) + A(θ) + N(X)
 
e m
unde L(X) = X şi N(X) = ln −m ln m. Pe baza teoremei Rao-Cramer
X
se obţine că
n n
b 1Xe 1X
θ= L(Xk ) = Xk
n k=1 n k=1
este un estimator eficient pentru θ = mp.

8.4 Estimatori optimali


Definiţia 8.4.1 Estimatorul nedeplasat θb = θ(X
b 1 , . . . , Xn ) pentru parame-
trul θ este optimal dacă are dispersia minimă dintre toţi estimatorii nede-
plasaţi ai lui θ.

Observaţia 8.4.2 Un estimator eficient este optimal, dar invers nu este


adevărat.

Propoziţia 8.4.3 Estimatorul optimal al unui parametru este unic.

Demonstraţie. Fie θb1 = θb1 (X1 , . . . , Xn ) şi θb2 = θb2 (X1 , . . . , Xn ) doi
estimatori optimali distincţi pentru θ. Dacă se consideră funcţia de selecţie
1
θb = (θb1 + θb2 ), atunci θb este nedeplasat deoarece
2

b = 1 (M(θb1 ) + M(θb2 )) = 1 (θ + θ) = θ.
M(θ)
2 2
8.4. Estimatori optimali 151

Pe de altă parte

b = 1 [D 2 (θb1 ) + D 2 (θb2 ) + 2Cov(θb1 , θb2 )]


D 2 (θ)
4
1
= [σ 2 + Cov(θb1 , θb2 )]
2
unde σ 2 = D 2 (θb1 ) = D 2 (θb2 ).
Din inegalitatea lui Schwarz se obţine
Cov 2 (θb1 , θb2 ) = M 2 [(θb1 − θ)(θb2 − θ)]
≤ M[(θb1 − θ)2 ]M[(θb2 − θ)2 ] = σ 4

deci Cov(θb1 , θb2 ) ≤ σ 2 . Prin urmare D 2 (θ) b ≤ σ 2 , ceea ce contrazice op-


timalitatea lui θb1 şi θb2 . Rămâne doar posibilitatea ca D 2 (θ)
b = σ 2 , adică
Cov(θb1 , θb2 ) = σ 2 . Având ı̂n vedere aceste rezultate putem scrie:

D 2 (θb1 − θb2 ) = D 2 (θb1 ) + D 2 (θb2 ) − 2Cov(θb1 , θb2 ) = σ 2 + σ 2 − 2σ 2 = 0

adică D 2 (θb1 − θb2 ) = 0. Dar M(θb1 ) = M(θb2 ) de unde rezultă M[(θb1 − θb2 )2 ] = 0.
Prin urmare θb1 = θb2 , contradicţie cu afirmaţia că cei doi estimatori sunt
distincţi.
Statisticile suficiente joacă un rol important ı̂n găsirea unor estimatori
buni pentru parametrii necunoscuţi. Dacă θb este un estimator nedeplasat
pentru θb şi S este o statistică suficientă pentru θ, atunci există o funcţie
de S care este un estimator nedeplasat pentru θ, a cărui dispersie nu este
mai mare decât cea a lui θ. b Dacă căutăm estimatori nedeplasaţi cu dispersie
mică ne putem restrânge căutarea la estimatori care sunt funcţii de statistică
suficiente.
Teorema 8.4.4 (Rao-Blackwell) Fie caracteristica X cu funcţia de pro-
babilitate f (X, θ) şi fie θb = θ(X
b 1 , . . . , Xn ) un estimator nedeplasat pentru θ.
Dacă statistica S = S(X1 , . . . , Xn ) este o statistică suficientă pentru para-
metrul θ, atunci estimatorul θ = θ(X1 , . . . , Xn ) = M(θ/S) b este un estimator
nedeplasat pentru θ şi are loc relaţia
b
D 2 (θ) ≤ D 2 (θ).
Demonstraţie. Deoarece S este suficientă rezultă că funcţia de proba-
bilitate f (X1 , . . . , Xn ; θ|S) a vectorului aleator (X1 , . . . , Xn ) condiţionată de
(S = s) nu depinde de θ, deci
Z Z
b
M(θ|S = s) = · · · θ(X b 1 , . . . , Xn )f (X1 , . . . , Xn ; θ|S)dX1 . . . dXn
Rn
152 Estimaţie

nu depinde de θ, adică este o funcţie de selecţie ce nu depinde de θ. Pe de


altă parte, folosind proprietăţile mediei condiţionate avem
b = 0,
M(θ) = M(M(θ/S)) = M(θ)

deci θ este un estimator nedeplasat pentru θ.


Pentru a stabili inegalitatea dintre dispersii vom stabili relaţia
b = M[D 2 (θ/S)]
D 2 (θ0 b + D 2 (θ). (8.6)

O stabilim astfel pornind de la


b = M[(θb − θ)2 ] = M[(θb − M(θ/S)
D 2 (θ) b b
+ M(θ/S) − θ)2 ]

= M[(θb − M(θ/S))
b 2 b
] + M[(M(θ/S) − θ)2 ] + 2M[(θb − M(θ/S))(M(
b b
θ/S) − θ)].
Dar
b
M[D 2 (θ/S)] = M[M((θb − M(θ/S)))
b 2
/S] = M[(θb − M(θ/S))
b 2
],

b Al doilea termen din această


adică primul termen din expresia lui D 2 (θ).
expresie este
b
M[(M(θ/S) − θ)2 ] = M[(θ − θ)2 ] = D 2 (θ),

b
iar ultimul termen este nul deoarece pentru S = s fixat, avem M(θ/S) −θ =
constant deci

M[(θb − M(θ/S))(M(
b b
θ/S) b
− θ)] = M[(θ/S) − θ]M[θb − M(θ/S)]
b

b
= [M(θ/S) b − M(θ)]
− θ][M(θ) b = 0.
b
Acum, din (8.6) rezultă D 2 (θ) ≤ D 2 (θ).
Odată ce avem un estimator nedeplasat pentru θ, ı̂l putem ı̂mbunătăţi
cu ajutorul teoremei Rao-Blackwell. Am putea fi tentaţi să aplicăm repetat
această teoremă pentru a ı̂mbunătăţi iterativ estimatorul. Estimatorul din
teorema Rao-Blackwell θ = M(θ/S) b va fi o funcţie de S, θ = h(S). Presu-
punem că reaplicăm teorema Rao-Blackwell lui θ, utilizând aceeaşi statistică
suficientă S. Deoarece M(h(S)/S) = h(S), observăm că aplicând din nou
teorema Rao-Blackwell nou estimator este chiar h(S) = θ. Singurul mod
de a obţine estimatori mai buni este de a utiliza statistici suficiente diferite.
Astfel, este nenecesar să aplicăm succesiv teorema Rao-Blackwell; trebuie să
alegem o statistică potrivită.
8.4. Estimatori optimali 153

Definiţia 8.4.5 Statistica S = S(X1 , . . . , Xm ) este completă pentru familia


de legi de probabilitate f (X; θ), θ ∈ A, dacă M[ϕ(S)] = 0, pentru orice
θ ∈ A, implică faptul că ϕ = 0 a.s.
n
X
Exemplul 8.4.6 Statistica S = Xk este completă pentru familia de legi
k=1
Poisson cu parametrul λ > 0.
S este Poisson cu parametrul nλ,d eci

X X ϕ(s)ns∞
(nλ)s −nλ
M[ϕ(S)] = ϕ(s) e = e−nλ λs .
s=0
s! s=0
s!

Pe de altă parte M[ϕ(S)] = 0, pentru orice λ > 0, conduce la



X ϕ(s)ns
λs = 0,
s=0
s!

pentru orice λ > 0, ceea ce are loc dacă fiecare coeficient este nul, adică
ϕ(s) = 0, când s ∈ N.

Dacă statistica S este completă, atunci estimatorul din teorema Rao-


Blackwell este optimal.

Teorema 8.4.7 (Lehmann-Scheffé) În condiţiile teoremei Rao-Blackwell,


dacă statistica S = S(X1 , . . . , Xn ) este completă atunci estimatorul
b
θ = θ(X1 , . . . , Xn ) = M(θ/S)

este optimal.

Demonstraţie. Fie θe = θ(X


e 1 , . . . , Xn ) un estimator nedeplasat pentru
parametrul θ. Folosind teorema Rao-Blackwell, avem că estimatorul
e
θ1 = θ1 (X1 , . . . , Xn ) = M(θ/S)
e Aşadar M(θ1 ) =
este nedeplasat, adică M(θ1 ) = θ şi D 2 (θ1 ) ≤ D 2 (θ).
b
M(θ) = θ sau M[M(θ/S)] e
= M[M(θ/S)] = θ, de unde
b
M[M(θ/S) e
− M(θ/S)] = 0.
b
Având ı̂n vedere că statistica S este completă, rezultă că M(θ/S) e
= M(θ/S)
2 2
a.s., de unde D (θ) = D (θ1 ).
e adică θe este optimal.
În final D 2 (θ) = D 2 (θ1 ) ≤ D 2 (θ),
154 Estimaţie

Exemplul 8.4.8 Fie caracteristica X ∈ P0 (λ). Vrem să determinăm un


estimator optimal pentru parametrul θ = e−λ .
Funcţia de frecvenţă a caracteristicii X este
 X
λX −λ 1 1
f (X; θ) = e =θ ln .
X! X! θ
n
X
În exemplul 8.4.6 am văzut că statistica suficientă S = Xk este com-
k=1
pletă pentru familia de legi Poisson şi urmează legea Poisson de parametru
1
nλ = n ln .
θ
Dacă se consideră funcţia de selecţie

b 1 , . . . , Xn ) = 1 card{Xi | Xi = 0, i = 1, n},
θb = θ(X
n

atunci θb are distribuţia


 
k
 
θb  n n 
k n−k
θ (1 − θ)
k k=0,n

b = 1 nθ = θ, adică θb este nedeplasat.


deci E(θ)
n
Dacă se introduc variabilele aleatoare Y1 , Y2 , . . . , Yn cu distribuţiile date
prin 
1, dacă Xi = 0
Yi =
0, dacă Xi 6= 0,
deci P (Yi = 1) = θ, P (Yi ) = 0 = 1 − θ, atunci avem că
n
1X
θb = Yk .
n k=1

Aplicăm teorema Rao-Blackwell şi obţinem


n
!
1 X
b
θ = M(θ/S) = M Yk |S = M(Y1 |S).
n k=1

Pentru S = s, avem

M(Y1 |S = s) = P (Y1 = 1|S = s) · 1 = P (X1 = 0/S = s).


8.5. Metode de estimaţie punctuală 155

Folosind formula lui Bayes avem


P (X1 = 0)P (S = s/X1 = 0)
P (X1 = 0/S = s) =
P (S = s)
P (X1 = 0)P (X2 + · · · + Xn = S)
=
P (S = s)
((n − 1)λ)s
exp(−λ) exp[−(n − 1)λ]
= s!
(nλ)s
exp(−nλ)
 s s!
n−1
=
n
de unde se obţine că
 s
b = M(Y1 |S) = 1 − 1
θ = M(θ|S) .
n

Am ajuns astfel la estimatorul optimal pentru parametrul θ = e−λ , care


este dat prin formula
 nX
1
θ = θ(X1 , . . . , Xn ) = 1 − .
n

8.5 Metode de estimaţie punctuală


8.5.1 Metoda verosimilităţii maxime
Este o metodă clasică pentru construirea de estimaţii consistente, asimp-
totic eficiente şi asimptotic normale.
Se consideră caracteristica X cu funcţia de probabilitate f (X, θ), θ ∈ Rp
parametru necunoscut. Relativ la caracteristica X se consideră o selecţie
repetată de volum n.

Definiţia 8.5.1 Statistica

θb = θ(X
b 1 , . . . , Xn )

pentru care se obţine maximul funcţiei de verosimilitate


n
Y
L(X1 , . . . , Xn ; θ) = f (X; θ)
k=1
156 Estimaţie

se numeşte estimator de verosimilitate maximă pentru parametrul θ, iar va-


loarea θb = θ(x
b 1 , . . . , xn ) se numeşte estimaţia de verosimilitate maximă pen-
tru θ.

Observaţia 8.5.2 În definiţia estimatorului de verosimilitate maximă θb nu


este necesar ca f (X; θ) să fie diferenţiabilă ı̂n raport cu θ. De asemenea
estimatorul nu este neapărat unic şi nedeplasat.

Dacă funcţia de verosimilitate maximă este diferenţiabilă de două ori ı̂n


raport cu θ, atunci estimatorul de verosimilitate maximă se obţine ca soluţie
a sistemului de ecuaţii
∂L(X1 , X2 , . . . , Xn ; θ)
= 0, k = 1, p.
∂θk
Maximul lui L se atinge ı̂n acelaşi timp cu maximul lui ln L; sistemul
precedent este echivalent cu
n
∂ ln L(X1 , . . . , Xn ; θ) X ∂ ln f (Xi ; θ)
= = 0, k = 1, p
∂θk i=1
∂θ k

numit sistemul de ecuaţii de verosimilitate maximă.

Propoziţia 8.5.3 Dacă S = S(X1 , . . . , Xn ) este o statistică suficientă pen-


tru θ, iar θb este estimator de verosimilitate maximă pentru θ, atunci θb este
funcţie de S.

Demonstraţie. Deoarece statistica S este suficientă rezultă că

L(x1 , . . . , xn ; θ) = ϕ(x1 , . . . , xn )h(s, θ),

deci maximul lui L ı̂n raport cu θ se obţine atunci şi numai atunci când se
obţine maximul lui h după θ. Deci θb se exprimă ı̂n funcţie de S.

Teorema 8.5.4 Dacă θb = θ(Xb 1 , . . . , Xn ) este funcţie de estimaţie eficientă


pentru parametrul θ, atunci θb este estimator de verosimilitate maximă pentru
θ.

Demonstraţie. θb eficient rezultă că inegalitatea Rao-Cramer are loc cu


egalitate; din demonstraţie, egalitate ı̂n inegalitatea lui Schwarz are loc ı̂n
caz de proporţionalitate, deci
∂ ln L(X1 , . . . , Xn ; θ)
= K(θ)(θb − θ).
∂θ
8.5. Metode de estimaţie punctuală 157

Înlocuind θ cu θb obţinem
b
∂ ln L(X1 , . . . , Xn ; θ) b θb − θ)
= K(θ)( b =0
∂θ

adică θb verifică ecuaţia verosimilităţii maxime.


Pentru estimatorii de verosimilitate maximă are loc proprietatea de inva-
rianţă şi anume: dacă θ∗ este estimator de verosimilitate maximă pentru θ
atunci β ∗ = g(θ∗ ) va fi estimator de verosimilitate maximă pentru β = g(θ)
dacă g este inversabilă.
Această proprietate se bazează pe teorema

Teorema 8.5.5 (Zehna) Fie X o v.a. cu d.p. f (X; θ), θ parametru ne-
cunoscut, θ ∈ Dθ ⊆ R şi λ = g(θ), λ ∈ Dλ ⊆ R, unde g este inversabilă.
Atunci θn∗ = θn∗ (X1 , . . . , Xn ) este estimator de verosimilitate maximă pen-
tru θ dacă şi numai dacă g[θn∗ (X1 , . . . , Xn )] este estimator de verosimilitate
maximă pentru parametrul necunoscut λ.

Demonstraţie. θ = g −1(λ) există; deci avem

h(X; λ) = f [X, g −1 (λ)], λ ∈ Dλ

h[X; g(θ)] = f (X; θ), θ ∈ D(0).


Fie L funcţia de verosimilitate pentru θ, θ∗ estimator de verosimilitate
maximă
L(X1 , . . . , Xn ; θn∗ ) = max L(X1 , . . . , X)n; θ) (8.7)
θ∈Dθ

Fie funcţia de verosimilitate


n
Y
e 1 , . . . Xn ; λ) =
L(X e 1 , . . . , Xn ; g(θ))
h(X; λ) = L(X
i=1
Yn
= h[Xi ; g(θ)].
i=1

g(θ∗ ), estimator de verosimilitate maximă pentru λ se va reprezenta fie prin


relaţia
e 1 , . . . , Xn ; g(θ))
L(X1 , . . . , Xn ; g(θn∗ )) = max L(X (8.8)
θ∈D(θ)

fie prin relaţia

L(X e 1 , . . . , Xn ; λ).
e 1 , . . . , Xn ; g(θ∗ )) = max L(X (8.9)
n
λ∈Dλ
158 Estimaţie

Deoarece (8.7) ⇔ (8.8) ⇔ (8.9), rezultă că θn∗ maximizează L(X1 , . . . , Xn ; θ)


şi deci că λ∗n = g(θn∗ ) maximizează

e 1 , . . . , Xn ; λ) = L(X
L(X e 1 , . . . , Xn ; g(θ)).

Observaţia 8.5.6 Dacă valoarea adevărată a parametrului θ este θ0 se arată


că estimatorul de verosimilitate maximă θb pentru θ are următoarele pro-
prietăţi
as
θb → θ0 (n → ∞)
 
1
θb asimptotic N θ0 ,
In (θ0 )

Exemplul 8.5.7 Estimaţie de verosimilitate maximă pentru para-


metrii repartiţiei normale N(m, σ 2 ). Parametrul de estimat este θ =
(m, σ 2 ) ∈ R2 ; deoarece densitatea de probabilitate este
1 (x−m)2
f (x; m, σ 2 ) = √ e− 2σ2 ,
σ 2π
funcţia de verosimilitate va fi
1 P
− 12 n 2
i=1 (xi −m) ,
P (x1 , . . . , xn ; m, σ 2 ) = 2 n/2
e 2σ
(2πσ )
iar
n
2 2 n 2 n 1 X
H(m, σ ) = ln P (x1 , . . . , xn ; m, σ ) = − ln σ − ln 2π− 2 (xi −m)2 .
2 2 2σ i=1

Ecuaţia de verosimiliate maximă este


 2
 ∂H(m, σ ) = 0

∂m 2 ,

 ∂H(m, σ )
=0
∂σ 2
adică  n

 1X

 σ2 (xi − m) = 0
i=1
n ,

 n 1 X

 − 2+ n
2
(xi − m) = 0
2σ 2σ i=1
8.5. Metode de estimaţie punctuală 159

cu soluţiile
n
1X
m
b = xi = x̄
n i=1
n
1X
σb2 = (xi − x̄)2 = s2 .
n i=1

Exemplul 8.5.8 Estimaţie de verosimilitate maximă pentru para-


metrul p al repartiţiei binomiale b(n, p). Considerăm n observaţii, x1 ,
. . ., xn , fiecare din ele având valoarea P 0 sau 1, după cum s-a ı̂nregistrat suc-
ces sau insucces. Valoarea kn = i=1 xi reprezintă numărul de succese ı̂n n
probe. Funcţia de verosimilitate este
 
n kn
P (x1 , . . . , xn ; p) = p (1 − p)n−kn ,
kn
cu p ∈
/ {0, 1}. Avem
 
n
H(p) = ln P (x1 , . . . , xn ; p) = ln + kn ln p + (n − kn ) ln(1 − p),
kn
iar ecuaţia de verosimilitate maximă este
1 1
H ′ (p) = kn − (n − kn ) = 0,
p 1−p
cu soluţia
n
kn 1X
pb = = xi = x̄.
n n i=1

Exemplul 8.5.9 Estimaţie de verosimilitate maximă pentru para-


metrul λ al repartiţiei Poisson. Funcţia de verosimilitate maximă este
n
Y λx i
P (x1 , . . . , xn ; λ) = e−nλ , λ 6= 0,
i=1
xi !
iar n
X
H(λ) = ln P (x1 , . . . , xn ; λ) = −nλ + (xi ln λ − ln(xi !)) .
i=1
Se obţine următoare ecuaţie de verosimilitate maximă
n
1X
H ′ (λ) = −n + xi = 0
λ i=1

b = x̄.
cu soluţia λ
160 Estimaţie

8.5.2 Metoda momentelor


Se consideră caracteristica X care are densitatea de probabilitate f (X; θ)
cu parametrul necunoscut θ = (θ1 , θ2 , . . . , θp ) ∈ A ⊂ Rp şi o selecţie repetată
de volum n.
Estimatorul prin metoda momentelor pentru θ, θ = (θ1 , . . . , θp ) este
soluţia sistemului
Mk = mk , k = 1, p

unde Mk este momentul teoretic Mk = M(X k ), iar mk este momentul de


selecţie de ordin k, adică
n
1X k
mk = X .
n i=1 i

Metoda momentelor este fundamentată teoretic pe faptul că momentele


de selecţie sunt estimatori absolut corecţi pentru momentele teoretice cores-
as
punzătoare. De asemenea θ → θ, când n → ∞.

Exemplul 8.5.10 Se consideră caracteristica X ∈ γ(a, b). Densitatea sa de


probabilitate este

1 a−1 − X
f (X; a, b) = X e b, X > 0.
Γ(a)ba

Vrem să estimăm parametrii a şi b prin metoda momentelor


Z ∞ Z ∞
1 X
M1 (X) = M(X) = Xf (X; a, b)dX = a X a e− b dX = ab
−∞ b Γ(a) 0

Z ∞
12 X
M2 (X) = M(X ) X a+1 e− b dX = ab2 (a + 1).
γ(a)ba 0

Suntem conduşi la sistemul



ab = M(X) = X
2
ab2 (a + 1) = m2 = X + m2

care are soluţia


2
X m2
a= , b= .
m2 X
8.5. Metode de estimaţie punctuală 161

8.5.3 Metoda minimului lui χ2


Fie o caracteristică X cu funcţia de probabilitate f (X; θ), unde θ =
(θ1 , . . . , θs ) ∈ A ⊂ Rs . Vom considera că domeniul valorilor lui X este
compus din clasele Ci , i = 1, k. Vom nota cu pi probabilitatea ca un individ
să aparţină clasei Ci , adică pi = pi (θ) = P (X ∈ Ci ).
Dacă se consideră o selecţie repetată de volum n cu variabilele de selecţie
X1 , . . . , Xn şi datele de selecţie x1 , . . . , xn , vom nota cu ni frecvenţa absolută
a clasei ni . Vectorul aleator N = (N1 , . . . , Nk ) unde Ni este variabila de
selecţie corespunzătoare lui ni urmează legea multinomială de parametrii
pi = pi (θ), i = 1, k.

Definiţia 8.5.11 Estimatorul cu χ2 minim pentru parametrul θ este esti-


matorul θ = θ(X1 , . . . , Xn ) care minimizează expresia

k
X [Ni − npi (θ)]2
χ2 =
i=1
npi (θ)

ı̂n raport cu θ, iar θ = θ(x1 , . . . , xn ) se numeşte estimaţie cu χ2 pentru


parametrul θ.

ni
Dacă notăm pbi = , atunci valoarea lui χ2 se poate scrie sub forma
n

k k k
!
X (ni − npi )2 X pi − npi )2
(nb X pb2
2 i
χ = = =n −1
i=1
npi i=1
npi i=1
pi

Se observă că minimul lui χ2 se atinge odată cu minimul expresiei

k
X pbi
.
i=1
pi

Dacă pi (θ), i = 1, k sunt diferenţiabile de două ori ı̂n raport cu θ, atunci


θ este soluţia sistemului
" k #
∂ X (Ni − npi (θ))2
= 0, j = 1, s.
∂θj i=1 npi (θ)
162 Estimaţie

8.6 Metoda intervalelor de ı̂ncredere


A da un interval de ı̂ncredere pentru parametrul unidimensional θ cu
coeficientul de ı̂ncredere 1 − α revine la construirea pe baza unei selecţii
x1 , . . . , xn a unui interval

[θ(x1 , . . . , xn ), θ(x1 , . . . , xn )]

cu proprietăţile

(i) θ(x1 , . . . , xn ) ≤ θ(x1 , . . . , xn );

(ii) P (θ(x1 , . . . , xn ) ≤ θ ≤ θ(x1 , . . . , xn )) = 1 − α.

Pentru determinarea statisticilor θ şi θ̄ se caută o statistică Zn = Z(X1 ,


. . ., Xn ) care urmează o lege de probabilitate cunoscută (independentă de θ),
dar ı̂n a cărei expresie intervine parametrul necunoscut θ. Pentru α ∈ [0, 1],
mic, se determină un interval numeric (z1 , z2 ) astfel ı̂ncât P (Zn ∈ (z1 , z2 )) =
1 − α. De aici, prin operaţii algebrice, se obţine o relaţie de tipul celei
din condiţia (ii) de mai sus. Cu cât intervalul (θ, θ̄) este mai mic, cu atât
estimaţia este mai bună.

8.6.1 Intervale de ı̂ncredere pentru medie


Dacă caracteristica X urmează legea normală N(m, σ 2 ), cu m ∈ R necu-
noscut şi σ 2 > 0 cunoscut, atunci statistica

X̄ − m
Z=
√σ
n

urmează legea normală standard (propoziţia 7.2.3). Fie zα cuantila de ordin


α a repartiţiei normale reduse. Deoarece

P (zα/2 < Z < z1−α/2 ) = 1 − α

(vezi figura 8.1), se obţine pentru m următorul interval de ı̂ncredere 100(1 −


α)%:
σ σ
x̄ + zα/2 √ < m < x̄ + z1−α/2 √
n n
sau ţinând cont că zα/2 = −z1−α/2 , putem spune că intervalul are forma
x̄ ± zα/2 √σn .
8.6. Metoda intervalelor de ı̂ncredere 163

0.4

0.35

0.3

0.25

0.2

0.15

0.1

0.05

0
z z
α/2 1−α/2

−0.05

−0.1
−3 Figura
−2 8.1: Intervale
−1 de0 ı̂ncredere1 pentru medie
2 3

Exemplul 8.6.1 Să presupunem că avem n = 25 de date, x̄ = 20 şi că


σ = 5. Să se determine un interval de ı̂ncredere de 95% pentru medie.
Soluţie. Deoarece α = 5%, avem zα/2 = −1.96, şi se obţine
5 5
x̄ − 1.96 · √ < m < x̄ + 1.96 · √ ,
25 25
adică m ∈ (18.04, 21.96). Rezultatul obţinut se poate interpreta astfel: ı̂n
95% din cazuri intervalul (18.04, 21.96) va acoperi media m, sau probabilita-
tea ca m să cadă ı̂n intervalul (18.04, 21.96) este de 95%.
Dacă σ este necunoscut, vom ı̂nlocui σ cu estimaţia absolut corectă a sa

s , dată de formula (6.3). Conform teoremei 4.2.15 statistica
X̄ − m
T = s′

n

urmează legea Student cu n − 1 grade de libertate T (n − 1). Dacă tn,α este


cuantila de ordinul α a repartiţiei T (n), raţionând ca ı̂n cazul precedent se
obţine un interval de ı̂ncredere pentru medie de forma
s′ s′
x̄ + tn−1,α/2 √ < m < x̄ + tn−1,1−α/2 √ .
n n
Exemplul 8.6.2 Un fabricant de praf de puşcă doreşte să testeze o nouă
pulbere. El testează 8 cartuşe, măsurând viteza glontelui la gura ţevii. Se
obţin următoarele viteze ı̂n m/s:
1001. 7 975.0 978. 33 988. 33
998. 33 1001. 7 979.0 968. 33
164 Estimaţie

Determinaţi un interval de ı̂ncredere de 95% pentru media vitezelor ı̂n ipoteza


că vitezele sunt normal distribuite.

Soluţie. Cu datele de mai sus media este x̄ = 986. 33, s′ = 13.03, iar
cuantilele sunt t7,0.025 = −2.365 şi t7,0.9755 = 2.365 (distribuţia este simetrică).
Se obţine intervalul 986.33 ± 2.365 · 13.03√
8
= 986.33± 10. 895, adică (986.33−
10. 895, 986.33+ 10. 895) = (975. 44, 997. 23).

8.6.2 Intervale de ı̂ncredere pentru diferenţa a două


medii
Fie două populaţii cu caracteristicile X1 ∈ N(m1 , σ12 ) şi X2 ∈ N(m2 , σ22 ).
Se consideră două selecţii repetate de volume n1 şi respectiv n2 . Mediile şi
dispersiile lor de selecţie sunt
n1 n2
1 X 1 X
X̄2 = X1i , X̄2 = X2i
n1 i=1 n2 i=1

şi
n n
1 X 1
2 1 X 2
2
s′2
1 = X1i − X̄1 , s′2
2 = X2i − X̄1 .
n1 − 1 i=1 n2 − 1 i=1

(a) Dacă σ1 şi σ2 sunt cunoscuţi, atunci statistica

(X̄1 − X̄2 ) − (m1 − m2 )


Z= q 2
σ1 σ2
n1
+ n22

urmează legea normală standard. Obţinem următorul interval de ı̂n-


credere pentru diferenţa m1 − m2 a mediilor
s s
σ12 σ22 σ12 σ22
X̄1 − X̄2 + zα/2 + < m1 − m2 < X̄1 − X̄2 + z1−α/2 + .
n1 n2 n1 n2

(b) Dacă σ1 şi σ2 sunt necunoscuţi şi σ1 = σ2 = σ, atunci σ poate fi ı̂nlocuit


prin s
(n1 − 1)s′2 ′2
1 + (n2 − 1)s2
Sp = ,
n1 + n2 − 2
iar statistica
(X̄1 − X̄2 ) − (m1 − m2 )
T = q
Sp n11 + n12
8.6. Metoda intervalelor de ı̂ncredere 165

este repartizată Student cu n1 + n2 − 2 grade de libertate. Expresia


intervalului de ı̂ncredere este analoagă celei de mai sus, cu precizarea că
ı̂n locul cuantilelor legii normale standard se iau cuantilele repartiţiei
T (n1 + n2 − 2).

Exemplul 8.6.3 Se compară două procedee de montaj pentru un dispozitiv,


unul clasic şi unul nou, care necesită pentru aplicarea corectă o perioadă de
instruire de o lună şi respectiv 3 săptămâni. Au fost instruite două grupuri
de câte 9 muncitori, unul cu metoda clasică şi celălat cu metoda nouă. S-a
ı̂nregistrat timpul de montaj (ı̂n minute) pentru fiecare muncitor, obţinânduse
rezultatele din tabela de mai jos:

Procedura Timpul
Clasică 32 37 35 28 41 44 35 31 34
Nouă 35 31 29 25 34 40 27 32 31

Determinaţi un interval de ı̂ncredere de 95% pentru diferenţa mediilor ı̂n


ipoteza că timpii au distribuţia normală şi dispersiile sunt egale.

Soluţie. Pentru datele din tabelul de mai sus avem

x̄1 = 35.22 x̄2 = 31.56


P 9 2
P 9 2
i=1 (x1i − x̄1 ) = 195.56 i=1 (x2i − x̄2 ) = 160.22.

Deci r
195.56 + 160.22
Sp = = 4. 7155.
9+9−2
Cum numărul de grade de libertate este n1 + n2 − 2 = 16 şi t16,0.975 = 2.120
se obţine un interval de forma
r
1 1
(x̄1 − x̄2 ) ± tn1 +n2 −2,1−α/2 Sp + ,
n1 n2
de unde prin ı̂nlocuire avem
r
1 1
(35.22 − 31.56) ± 2.120 · 4.7155 · + = 3. 66 ± 4. 7126 =
9 9
= (−1. 0526, 8. 3726) .

(c) Dacă σ1 şi σ2 sunt necunoscuţi şi σ1 6= σ2 , atunci statistica

(X̄1 − X̄2 ) − (m1 − m2 )


T = q ′2
s1 s′2
n1
+ n22
166 Estimaţie

urmează legea Student cu n grade de libertate, unde n este soluţia


ecuaţiei
1 c2 (1 − c)2
= + ,
n n1 − 1 n2 − 1
iar c este dat de
s′2
1
n1 −1
c= s′2 s′2
.
1
n1 −1
+ 2
n2 −1

Observaţia 8.6.4 Dacă volumul selecţiei este mare diferenţa ı̂ntre valorile
cuantilelor repartiţiei Student şi cele ale repartiţiei normale standard este
neglijabilă şi atât la determinarea intervalelor de ı̂ncredere pentru medie cât
şi pentru diferenţa a două medii se poate considera că statisticile utilizate au
distribuţia normală.

8.6.3 Estimarea unei proporţii


Metodele folosite pentru estimarea valorii medii pot fi folosite şi pentru
a estima proporţia p de indivizi dintr-o populaţie care au o anumită ca-
racteristică (calitativă), de exemplu pentru a estima cu ajutorul unei selecţii
proporţia de alegători care au votat ı̂n favoarea unui anumit candidat. Proporţia
indivizilor dintr-o selecţie care au o anumită caracteristică poate fi tratată
ca un caz special de medie, introducând o variabilă aleatoare X care ia va-
loarea 1 pentru indivizii care au caracteristica respectivă şi 0 pentru ceilalţi
indivizi. Media acestor variabile aleatoare X̄n are, pentru selecţii de volum
mare, o repartiţie aproximativ
q normală cu media egală cu p şi abaterea me-
die pătratică √σn = p(1−p)
n
. Faptul că abaterea medie pătratică depinde de
parametrul p necunoscut ı̂ngreunează calculele, dar totuşi putem să afirmăm
că:

a) oricare
√ ar fi valoare lui p ∈ [0, 1], p(1 − p) ≤ 41 ; aşadar dacă folosim
0.5/ n ı̂n loc de √σn , vom folosi un număr care nu este mai mic decât
media pătratică;

b) q
dacă n este suficeient de mare, eroare ce provine din ı̂nlocuirea cantităţii
p(1−p)
p
n
cu x̄n (1 − x̄n )/n este mică.

Folosind unul din aceste procedee, putem forma intervale de ı̂ncredere


pentru p ı̂n acelaşi mod ca şi pentru m.
8.6. Metoda intervalelor de ı̂ncredere 167

Exemplul 8.6.5 La un sondaj organizat ı̂n timpul alegerilor, din 1000 de


persoane chestionate, 300 s-au pronunţat ı̂n favoarea unui anumit candidat.
Intervalul de ı̂ncredere de 95% pentru procentul de alegători care este pentru
acel candidat este dat de
r r
300 0.3 · 0.7 300 0.3 · 0.7
− 1.96 <p< + 1.96 ,
1000 1000 1000 1000

adică 0. 2716 < p < 0.3284.

Vom prezenta ı̂n continuare o aplicaţie a estimaţiei de mai sus la deter-


minarea volumului unei selecţii.
Eroarea maximă a estimaţiei pentru o proporţie este jumătate din lungi-
mea intervalului de ı̂ncredere, adică
r
pq
E = |zα/2 | . (8.10)
n

De aici rezultă
2
zα/2 pq
n= . (8.11)
E2

Exemplul 8.6.6 Determinaţi dimensiunea selecţiei necesare pentru a es-


tima proporţia de studenţi cu ochi albaştrii, dacă dorim ca estimaţia să fie
ı̂n limita de 0.02 cu probabilitatea de ı̂ncredere de 90%.

Soluţie. Avem zα/2 = −1.65, şi deoarece pq este maxim dacă p = q,


p = 0.5. Aplicând formula (8.11) obţinem

1.652 · 0.5 · 0.5


n= = 1701. 6 ≈ 1702.
0.022

Exemplul 8.6.7 Un producător susţine că marfa sa are defecte ı̂n proporţie
de 5%. Să se determine dimensiunea selecţiei astfel ı̂ncât estimaţia să fie cu
precizia 0.02 (eroarea) la nivelul de 90%.

Soluţie. Avem zα/2 = −1.65, p = 0.05, q = 0.95;

1.652 · 0.05 · 0.95


n= = 323. 3 ≈ 324.
0.022
168 Estimaţie

8.6.4 Intervale de ı̂ncredere pentru dispersie şi rapor-


tul a două dispersii
Estimarea lui σ 2 cu ajutorul intervalelor de ı̂ncredere se bazează pe repartiţia
dispersiei de selecţie s2 (sau s′2 ). Conform teoremei 4.2.10 statistica
ns2 (n − 1)s′2
X2 = =
σ2 σ2
urmează legea hi-pătrat standard cu n − 1 grade de libertate χ2 (n − 1, 1).
Pentru a determina un interval de ı̂ncredere 1 − α pentru σ 2 , vom determina
valorile χ21 şi χ22 astfel ı̂ncât

P χ21 < X 2 < χ22 = 1 − α.
Dacă χ2n,α este cuantila de ordin α a repartiţiei χ2 (n, 1), atunci putem lua
χ21 = χ2n−1,α/2 şi χ22 = χ2n−1,1−α/2 , aşa cum se arată ı̂n figura 8.2. Avem
ns2
χ2n−1,α/2 < X 2 < χ2n−1,1−α/2 ⇔ χ2n−1,α/2 < < χ2n−1,1−α/2 ,
σ2
de unde se obţine

ns2 2 ns2
<σ < . (8.12)
χ2n−1,1−α/2 χ2n−1,α/2

0.09

0.08

0.07

0.06

0.05

0.04

0.03

0.02

0.01

0
χ2
n−1,α/2
χ2
n−1,1−α/2
−0.01

0 5 10 15 20 25 30 35

Figura 8.2: Interval de ı̂ncredere pentru σ 2

Exemplul 8.6.8 Un experimentator doreşte să determine variabilitatea e-


chipamentului pentru măsurarea volumului unei surse audio. S-au efectuat
trei măsurători independente pentru acelaşi sunet şi s-au obţinut valorile 4.1,
5.2 şi 10.2. Daţi un interval de ı̂ncredere de 90% pentru σ 2 .
8.6. Metoda intervalelor de ı̂ncredere 169

Soluţie. Presupunând că datele sunt normale, avem s′2 = 10.57, α/2 =
0.05, numărul de grade de libertate este n−1 = 2, iar cuantilele sunt χ22,0.05 =
0.103 şi χ22,0.95 = 5.991. Aplicând formula (8.12) se obţine intervalul
!
(n − 1)s′2 (n − 1)s′2
, = (3.53, 205.4).
χ2n−1,1−α/2 χ2n−1,α/2

Pentru estimarea raportului a două dispersii, folosind teorema 4.2.16,


deducem că statistica ′2 s1
σ12
F = s′2
2
σ22

urmează legea F cu n1 − 1 şi n2 − 1 grade de libertate (notaţiile sunt cele


din secţiunea 8.6.2). Raţionând ca mai sus se obţine

1 s′2
1 σ12 1 s′2
1
< < .
fn1 −1,n2 −1;1−α/2 s′2
2 σ2
2
f s
n1 −1,n2 −1;α/2 2
′2

Exemplul 8.6.9 Să considerăm datele din exemplul 8.6.3. Dorim să deter-
minăm un interval de ı̂ncredere 95 % pentru raportul dispersiilor.

Soluţie. Avem n1 = 8, n2 = 8, cuantilele sunt f8,8,0.025 = 0.224707,


f8,8,0.975 = 4.45023, iar dispersiile de selecţie s′2 ′2
1 = 24.4444, s2 = 20.0278.
s ′2
Raportul dispersiilor de selecţie este s′21 = 1.22053, iar intervalul de ı̂ncredere
2
(0.274262, 5.43163).
170 Estimaţie
Capitolul 9

Verificarea ipotezelor statistice

În geometria euclidiană poate fi luată ca ipoteză afirmaţia că suma un-
ghiurilor unui triunghi este 180◦ . Cu procedee general acceptate de demon-
straţie se verifică dacă această ipoteză este adevărată sau falsă. În acest caz
avem de-a face cu o demonstraţie matematică a ipotezei şi dacă demonstraţia
este riguroasă, suntem siguri că ipoteza este adevărată sau falsă. În alte ştinţe
decât matematica, pot fi propuse ipoteze sau teorii referitoare la un anumit
univers sau la o anumită populaţie. Aceste ipoteze le vom numi ipoteze
statistice şi singura cale de a fi absolut siguri de adevărul sau falsitatea lor
este de a cerceta ı̂ntreaga populaţie. Acest procedeu nu este practic (sau este
chiar imposibil) şi suntem nevoiţi să considerăm o selecţie dintr-o populaţie
şi s-o utilizăm pentru a decide asupra valabilităţii sau falsităţii ipotezei.
Procedeul de a folosi o selecţie pentru a verifica dacă o ipoteză este
adevărată (sau falsă) este numit test statistic asupra valabilităţii (sau fal-
sităţii) ipotezei.
Nu există nici o certitudine că nu vom comite o eroare. Într-adevăr există
două tipuri de erori pe care le putem face. Dacă se ı̂ntâmplă ca ipoteza
cercetată să fie adevărată şi noi decidem că este falsă, facem o eroare de
ordinul I (speţa, genul, tipul I). Probabilitatea acestei erori se notează cu
α; dacă dimpotrivă, ipoteza este falsă şi noi decidem că este adevărată,
facem o eroare de ordinul II, probabilitatea acestei erori notându-se cu β.
Frecvenţa cu care facem o greşeală este, desigur, foarte importantă şi vom
vedea că această frecvenţă poate fi controlată până la un anumit grad.
Decizia dacă ipoteza va fi acceptată sau respinsă se va baza pe informaţia
pe care o deţinem făcând observaţii şi pe riscul pe care suntem dispuşi să-l
acceptăm ı̂n a lua o decizie greşită.
Stabilim, de exemplu, ipoteza că un anumit parametru al unei populaţii
are o anumită valoare. Din populaţia studiată considerăm o selecţie şi
cercetăm dacă rezultatele obţinute pot fi considerate ca provenind sau nu

171
172 Verificarea ipotezelor statistice

din populaţia stabilită pe baza ipotezei făcute. Dacă există o concordanţă


strânsă ı̂ntre ipoteza emisă şi rezultatele obţinute, acceptăm ipoteza. Dacă
concordanţa este slabă vom respinge ipoteza. Decizia dacă concordanţa este
strânsă sau nu revine la calcularea unei anumite statistici şi la compararea
valorii particulare obţinute cu repartiţia de selecţie pentru această statistică,
ı̂n cazul când considerăm că ipoteza este adevărată.

Definiţia 9.0.1 Numim ipoteză statistică o presupunere relativă la legea pe


care o urmează o caracteristică X.

Când ipoteza statistică se referă la parametrii de care depinde legea de


probabilitate a caracteristicii X se obţine un test parametric, iar ı̂n caz
contrar un test neparametric.
Pentru testele parametrice vom considera că θ ∈ A = A0 ∪ A1 , unde
A0 ∩ A1 = ∅. Ipoteza H0 : θ ∈ A0 o vom numi ipoteză nulă, iar ipoteza
H1 (sau Ha ): θ ∈ A1 o vom numi ipoteză alternativă. Dacă ipoteza
nulă are forma H0 : θ = θ0 (ipoteză simplă), putem avea pentru ipoteza
alternativă una din formele: H1 : θ 6= θ0 (test bilateral), H1 : θ < θ0 (test
unilateral stânga), H1 : θ > θ0 (test unilateral dreapta). Ipoteza nulă este
cea asupra căreia ne focalizăm atenţia. În general ea este o propoziţie de
forma ,,un parametru al unei populaţii are o valoare specificată“. Adesea ı̂n
interpretarea ei este utilizată propoziţia ,,nu există nici o diferenţă“, de unde
şi numele de ipoteză nulă. Ipoteza alternativă este o propoziţie despre acelaşi
parametru al populaţiei care este utilizat şi ı̂n ipoteza nulă. În general ea ne
spune că parametrul populaţiei are o valoare diferită de cea dată ı̂n ipoteza
nulă. Respingerea ipotezei nule va implica acceptarea ipotezei alternative.
Ca şi concluzie la un test de verificare a ipotezelor vom lua o decizie.
Vom decide că acceptăm ipoteza nulă (de fapt nu reuşim să o respingem) sau
o respingem. Avem de fapt patru situaţii sintetizate ı̂n tabelul de mai jos.
Decizia Ipoteza nulă este
adevărată falsă
Acceptăm H0 decizie corectă eroare de ordinul II
Respingem H0 eroare de ordinul I decizie corectă
Construirea unui test revine la obţinerea regiunii critice U ⊂ Rn pentru
un nivel de semnificaţie (probabilitate de risc) α dat astfel ı̂ncât
P ((X1 , . . . , Xn ) ∈ U|H0 ) = α,
unde X1 , . . . , Xn sunt variabilele de selecţie corespunzătoare selecţiei de vo-
lum n considerate. Dacă (x1 , . . . , xn ) ∈
/ U, H0 va fi acceptată şi dacă (x1 ,
. . ., xn ) ∈ U, H1 va fi respinsă.
173

Există două abordări pentru testele statistice: abordarea clasică şi abor-
darea bazată pe probabilitate.

a) Abordarea clasică are urmatorii paşi:

Pasul 1. Formularea ipotezei nule.


Pasul 2. Formularea ipotezei alternative.
Pasul 3. Determinarea criteriului de test – constă ı̂n
i. determinarea unei statistici a testului;
ii. specificarea unui nivel de semnificaţie α;
iii. determinarea regiunii critice.
Pasul 4. Calcularea valorii statisticii.
Pasul 5. Luare unei decizii şi interpretarea ei.
Decizia. Dacă valoarea statisticii testului cade ı̂n interiorul regiunii critice
se respinge H0 , iar ı̂n caz contrar se acceptă.

b) Abordarea bazată pe probabilităţi. Valoarea de probabilitate, sau nive-


lul de semnificaţie P , asupra unei ipoteze este cel mai mic nivel α pentru
care informaţiile din selecţia observată sunt semnificative, cu condiţia
ca ipoteza nulă să fie adevărată. La luarea unei decizii se va compara
P cu valoarea statisticii.

Pasul 1. Formularea ipotezei nule.


Pasul 2. Formularea ipotezei alternative.
Pasul 3. Se determină α.
Pasul 4. Se calculează valoarea statisticii z ∗ ca la pasul 4 anterior.
Pasul 5. Calculul valorii P . Avem trei cazuri ı̂n funcţie de tipul testului
(bilateral sau unilateral).
i. Dacă H1 este unilaterală dreapta (>), atunci P = P (Z > z ∗ )
(aria din dreapta lui z ∗ );
ii. Dacă H1 este unilaterală stânga (<), atunci P = P (Z < z ∗ )
(aria din stânga lui z ∗ );
iii. Dacă H1 este bilaterală (6=), atunci P = 2P (Z > |z ∗ |).
Pasul 6. Decizia se ia comparând P cu valoarea stabilită anterior pentru
α:
i. dacă P ≤ α, se respinge H0 ;
174 Verificarea ipotezelor statistice

ii. dacă P > α, se acceptă H0 .

Pentru ı̂nceput, exemplele vor fi rezolvate ı̂n ambele abordări. Cele ı̂n
abordarea clasică vor avea sigla (C), iar cele ı̂n abordarea bazată pe proba-
bilităţi sigla (P). După ce cititorul va fi familiarizat cu testele statistice vom
utiliza doar una din abordări, şi anume cea mai convenabilă.

9.1 Teste asupra unei populaţii


9.1.1 Testul Z privind media teoretică
Se consideră caracteristica X care urmează legea normală N(m, σ 2 ), unde
m ∈ R este necunoscut, iar σ > 0 este cunoscut. Relativ la media teoretică
m = M(X), avem ipoteza nulă

H0 : m = m0 ,

ı̂n raport cu una din alternativele:


H1 : m 6= m0 (testul Z bilateral);
H1 : m > m0 (testul Z unilateral dreapta);
H1 : m < m0 (testul Z unilateral stânga).
Pentru verificarea ipotezei H0 , ı̂n raport cu una din alternativele de mai
sus, se consideră o selecţie repetată de volum n şi un nivel de semnificaţie
α ∈ (0, 1). Se ştie că statistica

X̄ − m
Z= (9.1)
√σ
n

urmează legea normală N(0, 1). Prin urmare, pentru α ∈ (0, 1) putem de-
termina un interval numeric (z1 , z2 ) astfel ı̂ncât

P (z1 < Z < z2 ) = Φ(z2 ) − Φ(z1 ) = 1 − α.

Intervalul (z1 , z2 ) nu este determinat ı̂n mod unic, dar având ı̂n vedere alter-
nativa H1 considerată, adăugăm una din condiţiile suplimentare:

(i) z1 = −z2 dacă H1 : m 6= m0 , adică Φ(z1−α/2 ) = 1 − α/2;

(ii) z1 = −∞, z2 = z1−α , unde Φ(z1−α ) = 1 − α, pentru H1 : m > m0 ;

(iii) z1 = zα , z2 = +∞, unde Φ(zα ) = α, pentru H1 : m < m0 .


9.1. Teste asupra unei populaţii 175

Corespunzător celor trei alternative definim regiunea critică:


( )
n |ū − m0 |
U = (u1 , . . . , un ) ∈ R | σ ≥ z1−α/2 (pentru (i))

n
( )
ū − m0
U= (u1 , . . . , un ) ∈ Rn | ≥ z1−α (pentru (ii))
√σ
n
( )
ū − m0
U= (u1 , . . . , un ) ∈ Rn | ≤ zα . (pentru (iii))
√σ
n
P
unde ū = n1 nk=1 uk .
Ipoteza nulă va fi admisă dacă datele de selecţie satisfac condiţia (x1 , . . .,
xn ) ∈
/ U, iar ı̂n caz contrar va fi respinsă.
Observaţia 9.1.1 Testul Z se poate aplica şi pentru caracteristici care nu
sunt normale, dacă volumul selecţiei este mare (n > 30) şi dacă media este
necunoscută, iar dispersia cunoscută.

0.4 0.4

0.35 0.35

0.3 0.3

0.25 0.25

0.2 0.2

0.15 0.15

0.1 0.1

0.05 0.05

0 0

−1.96 1.96 −1.96 1.96


−0.05 −0.05
−1.204 −1.204

−0.1 −0.1
−2 0 2 −2 0 2

Figura 9.1: Testul Z – abordarea clasică (stânga) şi abordarea bazată pe


probabilităţi (dreapta)

Exemplul 9.1.2 S-a afirmat că greutatea media a studentelor dintr-o uni-
versitate este 54.4 kg. Profesorul X nu crede asta. Pentru a verifica ipoteza
el a considerat o selecţie aleatoare de 100 de studente, obţinând o medie de
selecţie de 53.75. Se poate respinge ipoteza că media este 54.4 kg, pentru
α = 5% şi σ = 5.4 kg?
176 Verificarea ipotezelor statistice

Soluţie.
(C) (P)
P1. H0 : m = 54.4kg P1. H0 : m = 54.4kg
P2. H1 : m 6= 54.4kg P2. H1 : m 6= 54.4kg
P3. Statistica testului: P3. α = 0.05
Z = X̄−m
√σ
P4. Z = 53.75−54.4
√5.4
= −1. 2037
n 100
α = 0.05 P5. Φ(−1.2037) = 0.1151
Regiunea critică: P = 2 · 0.1151 = 0. 2302
vezi figura 9.1 (figura 9.1)
P4.Z = 53.75−54.4
√5.4
= −1. 2037 P6. P > 0.05, deci
100
P5.z ∗ ∈
/ U, H0 se acceptă H0 se acceptă

Exemplul 9.1.3 Biroul de internări al unui spital afirmă că vârsta medie
a pacienţilor săi este de 42 de ani. O selecţie aleatoare de 120 de vârste
obţinute din ı̂nregistrările bolnavilor dă o medie de selecţie de 44.2 ani. Este
selecţia semnificativă pentru a afirma că media este mai mare de 42 de ani,
pentru α = 5% şi σ = 20?

Soluţie.
(C) (P)
P1. H0 : m = 42 P1. H0 : m = 42
P2. H1 : m > 42 P2. H1 : m > 42
P3. Statistica testului: P3. α = 0.05
Z = X̄−m
√σ
P4. Z = 44.2−42
√20
= 1. 205
n 120
α = 0.05 P5. P = 1 − Φ(1. 205) =
Regiunea critică: = 1 − 0. 8849 = 0. 1151
vezi figura 9.2 (figura 9.2, dreapta)
P4. Z = 44.2−42
√20
= 1. 205 P6. P > 0.05, deci se acceptă H0 .
120
P5. z ∗ < 1.64 deci H0 se acceptă. Nu putem spune că m > 42.
Nu putem spune că m > 42.

9.1.2 Testul t (Student) privind media teoretică


Se consideră caracteristica X ce urmează legea normală N(m, σ 2 ), para-
metrii m ∈ R şi σ > 0 fiind necunoscuţi. Dorim să verificăm ipoteza nulă
H0 : m = m0 ı̂n raport cu una din alternativele

• H1 : m 6= m0 (testul t bilateral),

• H1 : m > m0 (testul t unilateral dreapta),


9.1. Teste asupra unei populaţii 177

0.4 0.4

0.35 0.35

0.3 0.3

0.25 0.25

0.2 0.2

0.15 0.15

0.1 0.1

0.05 0.05

0 0

1.64 1.64
−0.05 −0.05
0.45 0.45

−0.1 −0.1
−2 0 2 −2 0 2

Figura 9.2: Test Z cu o regiune critică unilaterală dreapta (ı̂n ambele


abordări)

• H1 : m < m0 (testul t unilateral stânga).

Pentru verificarea acestei ipoteze se consideră o selecţie repetată de volum


n, cu datele de selecţie x1 , . . . , xn . Statistica

X̄ − m X̄ − m
T = s′
= q
√ m̄2
n n−1

urmează legea Student cu n − 1 grade de libertate (teorema 4.2.15).


Prin urmare, pentru nivelul de semnificaţie α ∈ (0, 1) dat, se poate de-
termina intervalul (t1 , t2 ) astfel ı̂ncât

P (T ∈ (t1 , t2 )) = Fn−1 (t2 ) − Fn−1 (t1 ) = 1 − α,

unde Fm (t) este funcţia de repartiţie Student cu m grade de libertate. Inter-


valul (t1 , t2 ) nu este determinat unic din statistica de mai sus. În funcţie de
alternativa aleasă H1 se consideră suplimentar:

(1) t1 = −t2 , t2 = tn−1,1−α/2 , dacă H1 : m 6= m0 ;

(2) t1 = −∞, t2 = tn−1,1−α , dacă H1 : m > m0 ;

(3) t1 = tn−1,α , t2 = +∞, dacă H1 : m < m0 ,

unde tm,γ este cuantila de ordin γ a repartiţiei Student cu m grade de liber-


tate, adică Fm (tm,γ ) = γ. Corespunzător celor trei ipoteze alternative de mai
sus avem regiunile critice:
178 Verificarea ipotezelor statistice

(1)
( )
n |ū − m0 |
U= (u1 , . . . , un ) ∈ R | s′
≥ tn−1,1−α/2 ;

n

(2)
( )
ū − m0
U= (u1 , . . . , un ) ∈ Rn | s′
≥ tn−1,1−α ;

n

(3)
( )
|ū − m0 |
U= (u1 , . . . , un ) ∈ Rn | s′
≤ tn−1,α .

n

Ipoteza H0 este admisă dacă (x1 , . . . , xn ) ∈


/ U, iar ı̂n caz contrar este
respinsă.

0.4 0.4

0.35 0.35

0.3 0.3

0.25 0.25

0.2 0.2

0.15 0.15

0.1 0.1

0.05 0.05

0 0

1.71 1.71
−0.05 −0.05
0.48 0.48

−0.1 −0.1
−2 0 2 −2 0 2

Figura 9.3: Testul t – abordarea clasică (stânga) şi abordarea bazată pe


probabilităţi (dreapta)

Exemplul 9.1.4 Autorităţile orăşeneşti din oraşul X afirmă că nivelul de


CO din atmosferă nu este mai mare de 4.9. Ne permite o selecţie aleatoare
de 25 de determinări cu media x̄ = 5.1 şi s′ = 2.1 să respingem afirmaţia la
nivelul de semnificaţie α = 5%?

Soluţie.
9.1. Teste asupra unei populaţii 179

(C) (P)
P1. H0 : m = 4.9 P1. H0 : m = 4.9
P2. H1 : m > 4.9 P2. H1 : m > 4.9
P3. Statistica testului: P3. α = 0.05
T = X̄−m
s′

P4. T = 5.1−4.9
√2.1 = 0. 47619
n 25

α = 0.05 P5.P = P (T > 0. 47619) >


Regiunea critică: > 0.25 (figura 9.3)
figura 9.3 P6. P > 0.05, deci nu se
P4. T = 5.1−4.9
2.1

= 0. 47619 respinge H0 – nu putem
25
P5. Nu se respinge H0 – nu afirma că nivelul de CO> 4.9
avem suficiente dovezi să afirmăm
că nivelul de CO> 4.9

9.1.3 Teste asupra proporţiilor


Dacă k este numărul de realizări ale unui eveniment A ı̂n n probe inde-
pendente, probabilitatea de realizare la fiecare probă a evenimentului A fiind
p, atunci pentru a verifica ipoteza nulă

H 0 : p = p0 ,

ı̂n raport cu alternativa unilaterală

H 1 : p > p0 ,

calculăm expresia
Xn  
n l
P = p0 (1 − p0 )n−l
l=k
l
şi respingem ipoteza nulă la pragul de semnificaţia α dacă P > α.
Dacă n are valori mari, putem folosi statistica Z şi respingem H0 dacă
k
k − np0 − p0
Z=p = qn > Φ−1 (α) = Ψ(α).
np0 (1 − p0 ) p0 (1−p0 )
n

Lăsăm ı̂n seama cititorului formularea procedurii de verificare ı̂n cazul ipo-
tezei alternative bilaterale sau unilaterale stânga.

Exemplul 9.1.5 Cu ocazia unor săpături s-au descoperit 10 fosile, dintre


care 6 sunt clasificate ca aparţinând unor femei şi 4 unor bărbaţi. Sunt
aceste date compatibile cu ipoteza că raportul dintre sexe este 1 : 1, la pragul
de semnificaţie de 0.01?
180 Verificarea ipotezelor statistice

Soluţie.(C) Ipoteza nulă este H0 : p = 21 , iar ipoteza alternativă H1 : p >


1
2
. Calculăm

10  
X 10  
10 l 10−l 1 X 10 386
P = p0 (1 − p0 ) = 10 = = 0.377.
l 2 l 1024
l=6 l=6

Deoarece P > 0.01, ipoteza că raportul dintre sexe este 1 : 1 nu poate fi
respinsă la nivelul de semnificaţie 0.01.

0.4 0.4

0.35 0.35

0.3 0.3

0.25 0.25

0.2 0.2

0.15 0.15

0.1 0.1

0.05 0.05

0 0

−1.28 −1.28
−0.05 −0.05
−2.6 −2.6

−0.1 −0.1
−2 0 2 −2 0 2

Figura 9.4: Testul Z pentru o proporţie, stânga – abordarea clasică, dreapta


– abordarea bazată pe probabilităţi

Exemplul 9.1.6 Oficiul pentru protecţia consumatorilor afirmă că 15% din
fasolea dintr-un lot supus controlului are gărgăriţe. Pentru a verifica afirmaţia
la nivelul 0.10 se iau 200 de boabe şi se găsesc 7 cu gărgăriţe. Avem motive
să ne ı̂ndoim de afirmaţia Oficiului pentru protecţia consumatorilor?

Soluţie.
9.1. Teste asupra unei populaţii 181

(C) (P)
P1. H0 : p = 0.15(≥) P1. H0 : p = 0.15(≥)
P2. H1 : p < 0.15 P2. H1 : p < 0.15
P3. Statistica testului: P3. α = 0.10

Z = q pp −p 0
(1−p )
, p′ = nk P4. 17
p′ = 200 = 0.0 85
0 0
n
α = 0.10, z0.15 = −1.28 Z = 0.085−0.150
√ 0.15·0.85 = −2. 5744 = z ∗
200
Regiunea critică: P5. P = P (Z < z ∗ ) =
vezi figura 9.4 P (Z < −2. 5744) = 0.0047
17
P4. p′ = 200 = 0.0 85 figura 9.4
0.085−0.150

Z = 0.15·0.85 = −2. 5744 = z ∗ P6. P < 0.10. Se respinge H0
200
P5. Se respinge H0 . Se pare că mai Se pare că mai puţin de 15%
puţin de 15% din boabele de fasole din boabele de fasole au
au gărgăriţe. gărgăriţe.

9.1.4 Testul χ2 asupra dispersiei


Fie caracteristica X ce urmează legea normală N(m, σ 2 ) unde m şi σ 2
sunt necunoscuţi. Relativ la dispersia teoretică se formulează ipoteza nulă

H0 : σ 2 = σ02 ,

cu una din alternativele

• H1 : σ 2 6= σ02 (testul χ2 bilateral);

• H1 : σ 2 > σ02 (testul χ2 unilateral dreapta);

• H1 : σ 2 < σ02 (testul χ2 unilateral stânga).

Pentru a verifica ipoteza nulă H0 ı̂n raport cu una din alternativele H1


precizate, se consideră o selecţie repetată de volum n, cu datele de selecţie
x1 , . . . , xn . Statistica
n
2 1 X 2 (n − 1)s′2
X = 2 Xk − X̄ = (9.2)
σ k=1 σ2

urmează legea χ2 cu n − 1 grade de libertate.


Pentru nivelul de semnificaţie α ∈ (0, 1) dat se poate determina un inter-
val (χ21 , χ22 ) astfel ı̂ncât

P X 2 ∈ (χ21 , χ22 ) = Fn−1 (χ22 ) − Fn−1 (χ21 ) = 1 − α,
182 Verificarea ipotezelor statistice

unde Fm (x) este funcţia de repartiţie pentru legea χ2 cu m grade de libertate.


Deoarece intervalul (χ21 , χ22 ) nu este determinat unic, ı̂n funcţie de alternativa
H1 aleasă se consideră condiţia suplimentară:

(1) χ21 = χ2n−1,α/2 , χ22 = χ2n−1,1−α/2 , dacă H1 : σ 2 6= σ02 ;

(2) χ21 = 0, χ22 = χ2n−1,1−α , dacă H1 : σ 2 > σ02 ;

(3) χ21 = χ2n−1,α , χ22 = +∞, dacă H1 : σ 2 < σ02 ,

unde χ2m,γ este cuantila de ordin γ a legii χ2 cu m grade de libertate, adică


Fm ( χ2m,γ ) = γ.
Regiunile critice sunt

(1)
( n
)
1 X
U= (u1 , . . . , un ) ∈ Rn | 2 (uk − ū)2 ∈
/ (χ2n−1,α/2 , χ2n−1,1−α/2 ) ;
σ0 k=1

(2)
( n
)
1 X
U= (u1 , . . . , un ) ∈ Rn | 2 (uk − ū)2 ≥ χ2n−1,1−α ;
σ0 k=1

(3)
( n
)
X
n 1
U= (u1 , . . . , un ) ∈ R | 2 (uk − ū)2 ≤ χ2n−1,α .
σ0 k=1

Ipoteza nulă va fi admisă dacă (x1 , . . . , xn ) ∈


/ U; ı̂n caz contrar va fi
respinsă.

Exemplul 9.1.7 Să presupunem că o companie de ı̂mbuteliat băuturi răco-


ritoare doreşte să detecteze situaţia când variabilitatea volumului de băutură
dintr-o sticlă scapă de sub control. O dispersie de 0.0004 se consideră accep-
tabilă şi se procedează la reglarea maşinii de ı̂mbuteliat atunci când dispersia
devine mai mare decât acea valoare. Să presupunem că avem o selecţie de
28 de sticle cu dispersia de selecţie (varianţa) de 0.0010. Ne indică aceasta
că procesul este ı̂nafara controlului la un nivel de 5%?
9.1. Teste asupra unei populaţii 183

0.09

0.08

0.07

0.06

0.05

0.04
2*
χ =67.5
0.03

0.02

0.01

0
2
χn−1,1−α=40.1
−0.01

0 5 10 15 20 25 30 35
Figura 9.5: Test χ2 pentru dispersie cu regiune critică unilaterală dreapta

Soluţie.
(C) (P)
P1. H0 : σ 2 = 0.0004 P1. H0 : σ 2 = 0.0004
P2. H1 : σ 2 > 0.0004 P2. H1 : σ 2 > 0.0004
P3. Statistica testului: X 2 , n = 28 P3. α = 0.05
27 grade de libertate P4. X 2 = 27·0.001
0.0004
= 67. 5 = χ2∗
α = 0.05, χ227,0.95 = 40.1 P5. P = P (X 2 > χ2∗ ) =
Regiunea critică: = P (X 2 > 67. 5) < 0.005
vezi figura 9.5 (figura 9.5)
P6. P < 0.005 < 05, deci
P4. X 2 = 27·0.001
0.0004
= 67. 5 = χ2∗ ipoteza se respinge
P5. Respingem H0 .

Exemplul 9.1.8 Un indicator al calităţii unui test de verificarea cunoştin-


ţelor se consideră a fi ı̂mprăştierea rezultatelor care apar. Pentru un examen
la care se poate obţine un punctaj maxim egal cu 100, s-a afirmat că abaterea
medie pătratică ideală este de 12 puncte. Pentru a vedea dacă testul este bun,
profesorul a testat ipoteza de mai sus la un nivel α = 5% pe o selecţie de 28
de rezolvări şi a găsit o abatere medie pătratică de 10.5. Se poate afirma la
nivelul de α de mai sus că testul nu are abaterea medie pătratică specificată?

Soluţie.
184 Verificarea ipotezelor statistice

0.09

0.08

0.07

0.06

0.05

0.04
20.672

0.03

0.02

0.01

0
2
χn−1,α/2=14.6 2
χn−1,1−α/2=43.2
−0.01

0 5 10 15 20 25 30 35

Figura 9.6: Regiune critică bilaterală χ2

(C) (P)
P1. H0 : σ = 12 P1. H0 : σ = 12
P2. H1 : σ 6= 12 P2. H1 : σ 6= 12
P3. Statistica testului: X 2 cu P3. α = 0.05
2
27 de grade de libertate P4. X 2 = 27·10.5
122
= 20. 672 = χ2∗
α = 0.05, cuantilele P5. P = P (|X | > χ2∗ ) =
2

χ227,0.025 = 14.6, χ227,0.975 = 43.2 = 2P (X 2 > 20. 672)


Regiunea critică: figura 9.6
2
P4. X 2 = 27·10.5
122
= 20. 672 = χ2∗ P6. P > 0.05
P5. Decizia: H0 se acceptă Decizia: H0 se acceptă

9.2 Teste referitoare la două populaţii


9.2.1 Selecţii dependente şi independente
O sursă poate fi o persoană, un obiect sau orice altceva ce poate pro-
duce o dată. Când comparăm două populaţii avem nevoie de două selecţii,
câte una pentru fiecare populaţie. Dacă se utilizează aceeaşi mulţime de
surse pentru a obţine date reprezentând ambele populaţii avem de-a face cu
selecţii dependente. Dacă se utilizează două mulţimi de surse nelegate,
câte una pentru fiecare populaţie, avem selecţii independente.

Exemplul 9.2.1 Se elaborează un test pentru a vedea dacă studenţii ı̂şi


ı̂mbunătăţesc pregătirea fizică ı̂n urma participării la orele de Educaţie fi-
zică. Să presupunem că avem 500 de studenţi care participă la ore şi pentru
9.2. Teste referitoare la două populaţii 185

verificare alegem 50 de studenţi la ı̂nceputul anului şi 50 la terminare. Avem


două proceduri:

– Procedura A – se selectează aleator 50 de studenţi şi se dă un pre-test


la ı̂nceputul anului. La sfârşitul anului se selectează aleator alţi 50 de
studenţi şi se dă un post-test.

– Procedura B – se selectează 50 de studenţi la ı̂nceputul anului şi se dă


pre-testul, iar la sfârşit aceiaşi studenţi dau post-testul.

Procedura A conduce la selecţii independente, iar B la selecţii dependente.

Exemplul 9.2.2 Se compară calitatea a două tipuri de pneuri.

– Procedura A – se selectează aleator n maşini şi se echipează cu pneuri


de tipul 1 şi se conduc timp de o lună şi apoi alte m maşini cu pneuri
de tipul 2 şi se conduc tot o lună.

– Procedura B – n maşini se selectează aleator, li se pune un pneu de


tipul 1 şi un pneu de tipul 2 şi se conduc timp de o lună .

Selecţiile din procedura A sunt independente, iar cele din B dependente.

9.2.2 Teste pentru diferenţa a două medii – selecţii


independente
Se consideră două populaţii independente P1 şi P2 cercetate din punct de
vedere al aceleiaşi caracteristici, notate cu X1 pentru P1 , având distribuţia
N(m1 , σ12 ) şi X2 pentru P2 , având distribuţia N(m2 , σ22 ). Relativ la mediile
teoretice ale celor două caracteristici se face ipoteza nulă

H0 : m1 6= m2

(sau echivalent m1 − m2 = 0), cu una din alternativele:


H1 : m1 6= m2 (test bilateral);
H1 : m1 > m2 (test unilateral dreapta);
H1 : m1 < m2 (test unilateral stı̂nga).
Distribuţia lui X̄1 − X̄2 are proprietăţile:

1. este aproximativ normală;

2. are media m1 − m2 ;
186 Verificarea ipotezelor statistice

σ12 σ22
3. are dispersia σ 2 = m1
+ m2
.

Cazul 1. Dispersii cunoscute sau selecţii mari


Statistica
(X̄1 − X̄2 ) − (m1 − m2 )
Z= q 2 (9.3)
σ1 σ2
n1
+ n22

este N(0, 1), deci se poate aplica testul Z pentru media teoretică. Pentru
α ∈ (0, 1) se obţin regiunile critice corespunzătoare celor trei alternative:

(1)
 
 

n1 +n2 |ū − v̄|
U = (u1, . . . , un1 , v1 , . . . vn2 ) ∈ R
 q σ2 σ2 ≥ z1−α/2  ;
1
+ 2
n1 n2

(2)
 
 
ū − v̄
U = (u1 , . . . , un1 , v1 , . . . vn2 ) ∈ Rn1 +n2 q 2 ≥ z1−α ;
 σ1 + σ2
2 
n1 n2

(3)
 
 
ū − v̄
U = (u1 , . . . , un1 , v1 , . . . vn2 ) ∈ Rn1 +n2 q 2 ≤ zα .
 σ1 + σ2
2 
n1 n2

Exemplul 9.2.3 Se consideră concentraţia de substanţă S din sângele a


două populaţii, A şi B. Se poate afirma că media populaţiei A este mai mare
decât media populaţiei B la un nivel de semnificaţie de 0.02? Valorile de
selecţie pentru cele două populaţii se dau ı̂n tabelul de mai jos

Selecţia n x̄ s′
A 50 57.5 6.2
B 60 54.4 10.6
Soluţie.
Ambele selecţii fiind mai mari decât 30 se poate aplica testul Z.
9.2. Teste referitoare la două populaţii 187

0.4

0.35

0.3

0.25

0.2

0.15

0.1

0.05

0
2.01
−0.05
1.908

−0.1
−3 −2 −1 0 1 2 3

Figura 9.7: Test Z pentru compararea a două medii

(C) (P)
P1. H0 : mA − mB = 0(≤) P1. H0 : mA − mB = 0(≤)
P2. H1 : mA − mB > 0 P2. H1 : mA − mB > 0
P3. Statistica testului: P3. α = 0.02
Z = (X̄1 −r
X̄2 )−(m1 −m2 )
σ2 σ2
P4. Z = q57.5−54.4
6.22 10.62
= 1. 9074 =
1+ 2 50
+ 60
n1 n2

α = 0.02, z0.98 = 2.05 =z
P5. Φ(1.9074) = 0.9761
Regiunea critică: P = P (Z > z ∗ ) = 1−0.9761 =
figura 9.7 = 0.0 239
P4. Z = q57.5−54.4
6.22 10.62
= 1. 9074 = z ∗ P6. P > 0.02, deci H0 se acceptă.
50
+ 60

P5. z < z0.98 , deci H0 se acceptă. La nivelul de semnificaţie
Nu se poate afirma că mA > mB α = 0.02 mediile nu diferă.

Cazul 2. Dispersii necunoscute şi selecţii mici


(2a) σ12 = σ22 = σ 2
Se consideră statistica

(X̄1 − X̄2 ) − (m1 − m2 )


T = q , (9.4)
Sp n11 + n12

unde s
(n1 − 1)s′2 ′2
1 + (n2 − 1)s2
Sp = .
n1 + n2 − 2
188 Verificarea ipotezelor statistice

Statistica T urmează legea Student cu n = n1 + n2 − 2 grade de libertate,


deci putem aplica testul t.
Exemplul 9.2.4 Datele de mai jos dau conţinutul ı̂n mg/100g de vitamina
C a două sucuri de fructe:
Sucul A (xi ) 16 20 23 17 19
Sucul B (yj ) 22 20 13 18 25 28
Se poate afirma că unul dintre sucuri este mai bogat ı̂n vitamina C decât
celălalt, la nivelul α = 0.05 ?

Soluţie. (C)
P1. m1 = m2 .
P2. m1 < m2 .
P3. Statistica testului este dată de formula (9.4), numărul de grade de
libertate este 9, iar α = 0.05. Regiunea critică este dată ı̂n figura 9.8
t9,0.05 = −2.262.

0.4

0.35

0.3

0.25

0.2

0.15

0.1

0.05

−2.262
−0.05
0.759

−0.1
−3 −2 −1 0 1 2 3

Figura 9.8: Regiune critică pentru un test t unilateral stânga

P4. Avem x̄1 = 19, x̄2 = 21, iar


rP P r
(xi − x̄1 )2 + (yj − x̄2 )2 30 + 140
Sp = = = 4. 3461.
5+6−2 9
Pentru T obţinem
19 − 21
T =q q = −0. 75996 = t∗ .
30+140 1 1
9 5
+ 6

P5. Deoarece t9,0.05 = −2.262 < t∗ , H0 se acceptă, deci nu se poate afirma


că unul din sucuri este mai bogat ı̂n vitamina C decât celălalt.
9.2. Teste referitoare la două populaţii 189

(2b) σ12 6= σ22 .


Statistica folosită este
(X̄1 − X̄2 ) − (m1 − m2 )
T = q ′2 , (9.5)
s1 s′2
n1
+ n2
2

care urmează legea Student cu n grade de libertate, unde n se obţine din

1 c2 (1 − c)2
= + , (9.6)
n n1 − 1 n2 − 1
iar
s′2
1
n1
c= s′2 s2′2
. (9.7)
1
n1
+ n2

Observaţia 9.2.5 O aproximaţie grosieră pentru n este n = min(n1 −1, n2 −


1).

Exemplul 9.2.6 Se consideră două selecţii din două populaţii normale, in-
dependente, cu dispersii diferite, care conduc la valorile
Selecţia n x̄ s′
A 10 5.38 1.89
B 12 5.92 0.83
Pentru α = 0.05, se poate trage concluzia că media lui A este mai mică
decât media lui B?

Soluţie. (C)
P1. H0 : mA = mB .
P2. H1 : mA < mB .
P3. Statistica testului este dată de (9.5), α = 0.05, iar regiunea critică
apare ı̂n figura 9.9. Numărul de grade de libertate se obţine cu ajutorul
formulelor (9.6) şi (9.7):
1.892
9
c= 1.892 0.832
= . 86371
9
+ 11

1
n= . 863712 (1−. 86371)2
= 11. 824
10−1
+ 12−1

Cuantila tn,0.05 = t11.824,0.05 = −1.7844, iar cu aproximarea din observaţia


9.2.5 tn,0.05 = t9,0.05 = −1.83358.
190 Verificarea ipotezelor statistice

0.4

0.35

0.3

0.25

0.2

0.15

0.1

0.05

−1.784
−0.05
−0.83

−0.1
−3 −2 −1 0 1 2 3

Figura 9.9: Testul t pentru compararea a două medii – dispersii diferite

P4. Statistica testului are valoarea


5.38 − 5.92
T =q = −0. 83863 = t∗ .
1.89 2 2
10
+ 0.83
12

P5. Deoarece tn,0.05 < t∗ se acceptă H0 . Nu putem afirma că media lui A
este mai mică decât media lui B.

9.2.3 Teste pentru medii dependente (observaţii pe-


rechi)
Pentru selecţii dependente procedura de verificare este diferită de cea
din cazul observaţiilor independente. Datorită faptului că datele provin din
aceeaşi sursă, ele vor trebui să apară ı̂n perechi. Perechile se vor compara
considerând diferenţele dintre valorile lor numerice. Utilizarea datelor ı̂n
perechi are proprietatea de a ı̂nlătura anumiţi factori necontrolabili care ar
putea să afecteze experimentul.
Statistica testului va fi
d¯ − md
T = sd ,

n

unde di = xi,1 − xi,2 ,


n
1X
d¯ = di ,
n i=1
sP
n ¯2
i=1 (di − d)
sd = .
n−1
9.2. Teste referitoare la două populaţii 191

Ea este repartizată Student cu n − 1 grade de libertate.

Exemplul 9.2.7 Un medicament se testează pentru efectul său asupra ten-


siunii arteriale. Pentru 12 oameni se ia tensiunea ı̂nainte şi după consumarea
medicamentului şi se găseşte că media diferenţelor este 5 şi abaterea medie
pătratică este 5.83.

a) Să se determine un interval de ı̂ncredere de 99% pentru media diferen-


ţei.

b) Folosind rezultatul de la punctul a) să se decidă dacă există o diferenţă


semnificativă ı̂ntre folosirea şi nefolosirea medicamentului (α = 1%).

Soluţie. a) Avem t11,0.01 = −3.106, t11,0.99 = 3.106. Intervalul de


ı̂ncredere se obţine punând condiţia

d¯ − md
−3.106 < T = sd < 3.106,

n

din care se obţine

5.83 5.83
5 − 3.106 · √ < md < 5 + 3.106 · √ ,
12 12

adică md ∈ (−0. 22732, 10. 227).


b) Ipoteza nulă este H0 : md = 0, iar ipoteza alternativă H1 : md 6= 0.
Deoarece 0 aparţine intervalului de ı̂ncredere, ipoteza nulă se acceptă şi se
poate trage concluzia că nu există diferenţe semnificative ı̂ntre folosirea şi
nefolosirea medicamentului.

9.2.4 Teste pentru două proporţii


Adesea suntem interesaţi să facem verificări de ipoteze privind proporţii,
procentaje sau probabilităţi asociate cu două populaţii. Reamintim că:

1. frecvenţa observată este p′i = nxii , unde ni este numărul de observaţii,


iar xi numărul de succese, i = 1, 2;

2. pi este probabilitatea de succes ı̂ntr-un experiment binomial cu ni pro-


be, i = 1, 2.
192 Verificarea ipotezelor statistice

Variabila aleatoare p′1 −p′2 este aproximativ normală cu media m = p1 −p2


şi abaterea medie pătratică
r
p1 q1 p2 q2
+ .
n1 n2

Vom folosi statistica


(p′1 − p′2 ) − (p1 − p2 )
Z= r   , (9.8)
1 1
pq n1 + n2

unde
x1 + x2
p= .
n1 + n2
Ipoteza nulă este H0 : p1 = p2 ; sunt posibile şi ipoteze alternative bilaterale
şi unilaterale.

Exemplul 9.2.8 Un nou tratament al unei boli este comparat cu tratamentul


folosit ı̂n mod obişnuit. Materialul clinic obţinut sub un contrul atent este
trecut ı̂n tabelul
Tratamentul\Rezultatul Vindecat Nevindecat Total
Vechi 5(x1 ) 8(n1 − x1 ) 13(n1 )
Nou 9(x2 ) 3(n2 − x2 ) 12(n2 )
Total 14(x1 + x2 ) 11(n1 + n2 − 25(n1 + n2 )
x1 − x2 )
Datele atestă superioritatea noului tratament? (α = 1%)

Soluţie. (C)
P1. H0 : p1 = p2 .
P2. H1 : p1 6= p2 .
P3. Statistica testului este dată de (9.8), α = 0.01, zα = −2.58, iar
regiunea critică apare ı̂n figura 9.10.
P4.
x1 5 x2 9 x1 + x2 14
p′1 = = , p′2 = = , p= = .
n1 13 n2 12 n1 + n2 25
5 9

Z = q 13 12
= −1. 8387 = z ∗ .
14 11 25
25 25
· 13·12

P5. Deoarece zα = −2.58 < z ∗ < z1−α = 2.58, ipoteza nulă se acceptă;
datele nu ne permit să afirmăm superioritatea noului tratament.
9.2. Teste referitoare la două populaţii 193

0.4

0.35

0.3

0.25

0.2

0.15

0.1

0.05

−2.58 2.58
−0.05
−1.83

−0.1
−3 −2 −1 0 1 2 3

Figura 9.10: Testul Z pentru două proporţii

9.2.5 Teste asupra dispersiilor a două populaţii


Să considerăm două populaţii independente, cercetate din punct de vedere
al aceleiaşi caracteristici notate cu X1 pentru prima populaţie şi X2 pentru
a doua populaţie şi care urmează legea N(m1 , σ12 ) şi respectiv N(m2 , σ22 ).
Relativ la cele două populaţii se face ipoteza nulă
σ2
H0 : σ12 = σ22 (sau echivalent σ12 = 1)
2
cu alternativele
σ2
H1 : σ12 6= σ22 (sau echivalent σ12 6= 1, test bilateral)
2
σ12
H1 : σ12 > σ22 (sau echivalent σ22
> 1, test unilateral dreapta)
σ12
H1 : σ12 < σ22 (sau echivalent < 1, test unilateral stânga) .
σ22
Pentru verificarea ipotezei nule H0 cu una din alternativele considerate se
efectuează câte o selecţie repetată de volume n1 şi n2 din cele două populaţii.
Statistica
s′2
F = 1′2 (9.9)
s2
urmează legea F (Snedecor-Fisher) cu n1 − 1 şi n2 − 1 grade de libertate
(teorema 4.2.16). Testul corespunzător se numeşte testul F sau testul
Snedecor-Fisher.

Exemplul 9.2.9 O firmă de ı̂mbuteliat băuturi răcoritoare trebuie să decidă


dacă va achiziţiona o maşină nouă de ı̂mbuteliat sau o va folosi pe cea veche.
Un criteriu de decizie este egalitatea dispersiilor corespunzătoare volumelor
celor două maşini. Informaţiile de mai jos ne permit să respingem afirmaţia
194 Verificarea ipotezelor statistice

producătorului maşinii noi că maşina modernă are o dispersie mai mică decât
a maşinii actuale, pentru α = 1%?

Selecţia n s′2
maşina actuală, p 22 0.0008
maşina modernă, m 25 0.0018
Soluţie. 2
P1. H0 : σm2
= σp2 sau σσm2 = 1(≤).
p
2
σm
2
P2. H1 : σm> σp2sau > 1.
σp2
P3. Statistica testului este F dată de (9.9), n1 = 24, n2 = 21, α = 0.01,
cuantila este f24,21,0.99 = 2.80, iar regiunea critică apare ı̂n figura 9.11.
0.8

0.7

0.6

0.5

0.4

0.3 F*=2.25

0.2

0.1

0
fn ,n ,1−α=2.8
1 2
−0.1

0 1 2 3 4 5 6

Figura 9.11: Diagramă pentru un test F

P4.
s′2 0.0018
F = m
′2
= = 2. 25 = F ∗ .
sp 0.0008
P5. Deoarece F ∗ < f24,21,0.99 ipoteza nulă se acceptă, deci respingem
afirmaţia producătorului maşinii noi.

9.3 Puterea unui test şi lema Neyman-Pearson


Testele prezentate ı̂n acest capitol sunt dintr-un anumit punct de vedere
cele mai bune din clasa lor. Vom justifica acest lucru ı̂n secţiunea prezentă
şi ı̂n următoarea.
Să considerăm un test relativ la ipoteza nulă H0 ı̂n raport cu alternativa
H1 . Reamintim că respingerea unei ipoteze adevărate se numeşte eroare de
9.3. Puterea unui test şi lema Neyman-Pearson 195

speţa I, iar probabilitatea ei

α = P ((X1, . . . , Xn ) ∈ U|H0 ).

Admiterea unei ipoteze false se numeşte eroare de speţa a II-a iar proba-
bilitatea ei se notează cu β

β = P ((X1, . . . , Xn ) 6∈ U|H1 ).

Definiţia 9.3.1 Puterea unui test este probabilitatea respingerii unei ipoteze
false, adică
e = π(U, θ)
π(θ) e = P ((X1 , . . . , Xn ) ∈ U|θ = θ),

unde θ este parametrul asupra căruia se formulează ipoteza statistică, iar U


este regiunea critică corespunzătoare lui H0 cu nivelul de semnificaţie α ∈
(0, 1) fixat.

Definiţia 9.3.2 Dacă se consideră o selecţie dintr-o distribuţie care depinde


de parametrul θ, o ipoteză se va numi simplă dacă determină unic distribuţia
din care selecţia este extrasă. În caz contrar ipoteza se va numi compusă.

Observaţia 9.3.3 Dacă testul considerat se referă la ipoteza nulă H0 : θ =


θ0 ı̂n raport cu ipoteza alternativă θ = θ1 , atunci π(θ0 ) = α şi π(θ1 ) = 1 − β.

Aplicaţia 9.3.4 Calculăm ı̂n continuare puterea testului Z pentru ipoteza


nulă H0 : m = m0 ı̂n raport cu alternativa H1 : m = m1 6= m0 . Regiunea
critică este
 

 

n |U − m0 |
U = (U1 , . . . , Un ) ∈ R | σ ≥ z1− 2 .
α

 √ 

n
Pentru calculul puterii π(m1 ) avem
 
 |X − m0 | 
π(m1 ) = P ((X1 , . . . , Xn ) ∈ U|H1 ) = P  σ ≥ z1− α2 |H1  .

n
Considerând evenimentul contrar, avem succesiv
 
 |X − m0 | 
β = 1 − π(m1 ) = P  σ < z1− α2 |H1 

n
196 Verificarea ipotezelor statistice

 
 X − m1 m0 − m1 
= P −z1− α2 < σ − σ < z1− α2 |H1 
√ √
n n
 
 m0 − m1 X − m1 m0 − m1 
=P σ − z1− α2 < σ < σ + z1− α2 |H1  ,
√ √ √
n n n
de unde avem că
   
 m0 − m1   m0 − m1 
β = φ σ + z1− α2  − φ  σ − z1− α2  , (9.10)
√ √
n n
adică
   
 m0 − m1   m0 − m1 
π(m1 ) = 1 − φ  σ + z1− α2  + φ  σ − z1− α2  . (9.11)
√ √
n n
Deoarece φ(+∞) = 0.5 şi φ(−∞) = −0.5, rezultă că, pentru n → ∞
vom avea β → 0, adică π(m1 ) → 1. Aşadar, putem determina, din relaţia
precedentă valoarea lui n (volumul selecţiei) astfel ı̂ncât puterea testului să
fie atinsă pentru acel n.

Observaţia 9.3.5 Formula (9.10) poate fi folosită la determinarea volumu-


lui optim al selecţiei.

Exemplul 9.3.6 Să se determine volumul optim al selecţiei pentru H0 : m =


3.5 şi alternativa H1 : m = 3.4 şi β = 0.05, α = 0.01, σ = 0.5, ştiind că
X ∈ N(m, σ 2 ).

   
 3.5 − 3.4   
β = 0.05 = φ  + 2.58  − φ  3.5 − 3.4 − 2.58
 0.5   0.5 
√ √
n 5
   
1√ 1√
=φ n + 2.58 − φ n − 2.58 .
5 5
1√
Dacă n este a.ı̂. n− 2.58 < 0 se observă că valoarea β = 0.05 nu poate
5  
1√ 1√
fi atinsă. Dacă n − 2.58 > 0, atunci n > 166, şi avem Ω n + 2.58 ≈
5 5
9.3. Puterea unui test şi lema Neyman-Pearson 197

 
1√
0.5. Prin urmare pentru determinarea lui n optim avem relaţia φ n − 2.58 =
5
1√ √
0.45, de unde 5 − 2.58 = 1.65 ⇒ n = 5 · 4.23 = 21.15 de unde se obţine
5
n = 448.
Presupunem că vrem să testăm ipoteza nulă simplă H0 : θ = θ0 ı̂n raport
cu alternativa H1 : θ = θ1 . Deoarece avem de-a face doar cu două valori
particulare ale lui θ (θ0 şi θ1 ) vom alege regiunea critică astfel ca α să fie
fixat şi β = 1 − π(θ1 ) să fie cât mai mic posibil. Echivalent căutăm un cel
mai puternic test, adică un test cu π(θ1 ) maxim. Rezultatul care urmează
ne furnizează o metodologie pentru deducerea celui mai puternic test pentru
testarea ipotezei simple H0 ı̂n raport cu alternativa simplă H1 .

Lema 9.3.7 (Neymann-Pearson) Fie caracteristica X cu legea de proba-


bilitate dată de f (x, θ), unde θ ∈ A este parametrul necunoscut asupra căruia
se face ipoteza nulă simplă H0 : θ = θ0 cu ipoteza alternativă H1 : θ = θ1 6=
θ0 . Se consideră o selecţie repetată de volum n relativă la caracteristica X şi
nivelul de semnificaţie dat α ∈ (0, 1). Atunci

max{P ((X1, . . . , Xn ) ∈ U|H1 ) ⊂ Rn , P ((X1, . . . , Xn ) ∈ U|H0 ) = α}

e |H0 ),
= P ((X1 , . . . , Xn ) ∈ U
e fiind definită prin
regiunea critică U
 
e = (U1 , . . . , Un ) ∈ R |
n L(U1 , . . . , Un ; θ1 )
U ≥ Kα > 0
L(U1 , . . . , Un ; θ0 )

unde
n
Y
L(U1 , . . . , Un ; θ) = f (Uk , θ)
k=1

este funcţia de verosimilitate.

Demonstraţie. Arătăm ı̂ntâi existenţa constantei Kα > 0.


Introducem notaţiile

A(k) := {(U1 , . . . , Un ) ∈ Rn |L(U1 , . . . , Un ; θ1 ) ≥ kL(U1 , . . . , Un ; θ0 )}

s(k) := P ((X1 , . . . , Xn ) ∈ A(k)(H0 )


Z Z
= · · · L(U1 , . . . , Un ; θ0 ) = dU1 . . . dUn = 1
A(k)
198 Verificarea ipotezelor statistice

Se observă că s(+∞) = 0 şi că


Z Z
s(0) = · · · L(U1 , . . . , Un ; θ0 ) = dU1 . . . dUn = 1.
Rn

Funcţia s(k) este monoton descrescătoare. Prin urmare pentru α ∈ (0, 1)


fixat, există Kα > 0 astfel ı̂ncât s(Kα ) = α adică

P ((X1 , . . . , Xn ) ∈ A(Kα )|H0 ) = α.

Vom arăta că dacă se cunoaşte Kα > 0


e |H1 ) = 1 − β.
1 − β = P ((X1 , . . . , Xn ) ∈ U|H1 ) ≤ P ((X1, . . . , Xn ) ∈ U

Notăm W = U ∩ U; e obţinem
Z Z
· · · L(U1 , . . . , Un ; θ0 )dU1 . . . dUn = P ((X1 , . . . , Xn ) ∈ U|H0 ) = α
U
Z Z
e |H0 ) =
= P ((X1, . . . , Xn ) ∈ U ··· L(U1 , . . . , Un ; θ0 )dU1 . . . dUn
e
U

de unde
Z Z Z Z
L(U1 , . . . , Un ; θ0 )dU1 . . . dUn + · · · L(U1 , . . . , Un ; θ0 )dU1 . . . dUn
U \W W

Z Z Z Z
= ··· L(U1 , . . . , Un ; θ0 )dU1 . . . dUn + ··· L(U1 , . . . , Un ; θ0 )dU1 . . . dUn
e \W
U W

adică
Z Z Z Z
· · · L(U1 , . . . , Un ; θ0 )dU1 . . . dUn = · · · L(U1 , . . . , Un ; θ0 )dU1 . . . dUn .
U \W e \W
U
(9.12)
e
Calculăm acum diferenţa β − β:

β−βe = (1−β)−(1−β)
e e |H1 )−P ((X1 , . . . , Xn ) ∈ U|H1 )
= P ((X1, . . . , Xn ) ∈ U
Z Z Z Z
= · · · L(U1 , . . . , Un ; θ1 )dU1 . . . dUn − · · · L(U1 , . . . , Un ; θ1 )dU1 . . . dUn
e
U U
9.3. Puterea unui test şi lema Neyman-Pearson 199

Z Z Z Z
= ··· L(U1 , . . . , Un ; θ1 )dU1 . . . dUn − ··· L(U1 , . . . , Un ; θ1 )dU1 . . . dUn
e \W
U U \W

Scriem diferenţa sub forma


Z Z
e L(U1 , . . . , Un ; θ1 )
β −β = ··· L(U1 , . . . , Un ; θ0 )dU1 . . . dUn
L(U1 , . . . , Un ; θ0 )
e \W
U
Z Z
L(U1 , . . . , Un ; θ1 )
− ··· L(U1 , . . . , Un ; θ0 )dU1 . . . dUn
L(U1 , . . . , Un ; θ0 )
U \W

Vom aplica fiecărei integrale teorema de medie; există punctele (ξ1 , . . . , ξn ) ∈


e
U \ W şi (η1 , . . . , ηn ) ∈ U \ W astfel ı̂ncât
Z Z
e L(ξ1 , . . . , ξn ; θ1 )
β−β = · · · L(U1 , . . . , Un ; θ0 )dU1 . . . dUn
L(ξ1 , . . . , ξn ; θ0 )
e \W
U
Z Z
L(η1 , . . . , ηn ; θ1 )
− ··· L(U1 , . . . , Un ; θ0 )dU1 . . . dUn
L(η1 , . . . , ηn ; θ0 )
U \W

Folosind acum relaţia (9.12), avem că


 
e L(ξ1 , . . . , ξn ; θ1 ) L(η1 , . . . , ηn ; θ1 )
β−β = − ·
L(ξ1 , . . . , ξn ; θ0 ) L(η1 , . . . , ηn ; θ0 )
Z Z
· · · · L(U1 , . . . , Un ; θ0 )dU1 . . . dUn
U \W

Integrala din membrul drept este pozitivă, iar din modul de definiţie al
e rezultă
regiunii U
L(ξ1 , . . . , ξn ; θ1 ) L(η1 , . . . , ηn ; θ1 )
≥ Kα > ,
L(ξ1 , . . . , ξn ; θ0 ) L(η1 , . . . , ηn ; θ0 )

deci β − βe > 0, adică 1 − βe > 1 − β.

Observaţia 9.3.8 Demonstraţia lemei Neyman-Pearson s-a dat ı̂n cazul con-
tinuu. Demonstraţia pentru cazul discret este analoagă, integralele multiple
ı̂nlocuindu-se prin sume după mai mulţi indici.

Definiţia 9.3.9 Un test pentru care puterea este maximă se numeşte cel mai
puternic test.
200 Verificarea ipotezelor statistice

Definiţia 9.3.10 Un test pentru care are loc inegalitatea

1 − β = P ((X1 , . . . , Xn ) ∈ U|H1 ) > P ((X1 , . . . , Xn ) ∈ U|H0 ) = α,

adică puterea testului este mai mare decât riscul de speţa I se numeşte test
nedeplasat.

Propoziţia 9.3.11 Cel mai puternic test dat de lema Neyman-Pearson este
un test nedeplasat, adică 1 − βe > α.

Demonstraţie. Cu notaţiile din lema Neyman-Pearson, avem


Z Z Z Z
· · · L(U1 , . . . , Un ; θ1 )dU1 . . . dUn ≥ Kα · · · L(U1 , . . . , Un ; θ0 )dU1 . . . dUn .
e
U e
U

Cazul 1. Kα > 1.
Z Z
1−β = ··· L(U1 , . . . , Un ; θ1 )dU1 . . . dUn
U
Z Z
≥ Kα ··· L(U1 , . . . , Un ; θ0 )dU1 . . . dUn
e
U
Z Z
> ··· L(U1 , . . . , Un ; θ0 )dU1 . . . dUn = α
e
U

Cazul 2. Kα ≤ 1.
Z Z
βe = ··· L(U1 , . . . , Un ; θ1 )dU1 . . . dUn
e
CU
Z Z
< Kα ··· L(U1 , . . . , Un ; θ0 )dU1 . . . dUn
e
CU
Z Z
≤ ··· L(U1 , . . . , Un ; θ0 )dU1 . . . dUn = 1 − α
e
cU

de unde 1 − βe > α.

Observaţia 9.3.12 Micşorând α creşte β; pentru a le micşora pe amândouă


va trebui să creştem volumul selecţiei.
9.3. Puterea unui test şi lema Neyman-Pearson 201

Aplicaţia 9.3.13 Fie X ∈ N(m, σ), m ∈ R necunoscut, σ > 0 cunoscut.


Fie ipoteza nulă H0 : m = m0 cu ipoteza alternativă H1 : m = m1 6= m0 .
Putem determina cel mai puternic test pentru verificarea ipotezei nule cu
ajutorul lemei Neyman-Pearson.

Funcţia de verosimilitate este


 n " n
#
1 1 X 2
L(U1 , . . . , Un ; m) = √ exp − 2 (Uk − m)
σ 2π 2σ k=1

Vom determina regiunea critică U e.


( " n n
#)
L(U1 , . . . , Un ; m1 ) 1 X X
= exp (Uk − m0 )2 − (Uk − m1 )2
L(U1 , . . . , Un ; m0 ) 2σ 2 k=1 k=1

e se obţine prin logaritmare


Din definiţia regiunii critice U
n
X n
X
2
(Uk − m0 ) − (Uk − m1 )2 ≥ 2σ 2 ln Kα
k=1 k=1

sau n
X
2(m1 − m0 ) Uk − n(m1 − m0 )(m1 + m0 ) ≥ 2σ 2 ln Kα
k=1

adică n
X
2(m1 − m0 ) Uk ≥ 2σ 2 ln Kα + n(m1 − m0 )(m1 + m0 )
k=1

Avem două cazuri.


C1. m0 > m1
n
1X σ 2 ln Kα m1 + m0
Uk = U ≤ +
n k=1 (m − m0 )n 2
| 1 {z }

e = {(U1 , . . . , Un ) ∈ Rn |U ≤ Kα }
U
C2. m0 < m1 . Analog
e = {(U1 , . . . , Un ) ∈ Rn |U ≥ Kα }
U

Mai avem de determinat Kα . În cazul m0 > m1 scriem


e |H0 ) = P (X ≤ Kα |H0 )
α = P ((X1 , . . . , Xn ) ∈ U
202 Verificarea ipotezelor statistice

sau  
 X − m0 Kα − m0 
α=P σ ≤ σ |H0  = α.
√ √
n n
Prin urmare Kα se va determina astfel ca
 
 Kα − m0 
φ σ =α

n

unde φe este f. rep. pentru legea N(0, 1). Deci,


σ
Kα = m0 + √ zα .
n

Regiunea critică se poate scrie sub forma


 
e n σ
U = (U1 , . . . , Un ) ∈ R |U ≤ m0 + √ zα
n
 

 

U − m0
= (U1 , . . . , Un ) ∈ Rn | σ < zα .

 √ 

n
În cazul m0 < m1 , se obţine analog
 

 

e n U − m 0
U = (U1 , . . . , Un ) ∈ R | σ ≥ z1−α .

 √ 

n

e depinde de
Observaţia 9.3.14 1) În aplicaţia precedentă, regiunea critică U
m1 numai prin faptul că m1 < m0 sau m1 > m0 . Prin urmare putem ı̂nlocui
H1 prin H1 : m > m0 şi respectiv H1 : m < m0 . Deci, cel mai puternic test
pentru această ipoteză alternativă este testul z unilateral dreapta, respectiv
unilateral stânga.
2) Dacă se consideră ipoteza alternativă H1 : m 6= m0 (testul z bilateral)
nu putem construi un cel mai puternic test folosind lema Neyman-Pearson.

Aplicaţia 9.3.15 Să se determine puterea testului din aplicaţia 9.3.13.


9.3. Puterea unui test şi lema Neyman-Pearson 203

Cazul 1. m0 > m1

π(m1 ) = 1 − βe = P ((X1 , . . . , Xn ) ∈ U
e |m = m1 )
 
σ
= P X ≤ m0 + zα √ |m = m1
n
   
 X − m1 m0 − m1   m0 − m1 
=P σ ≤ σ + zα |m = m1  = φe  σ + zα 
√ √ √
n n n
Dacă m0 < m1

π(m1 ) = 1 − βe = P ((X1 , . . . , Xn ) ∈ U
e |m = m1 )

σ
= P (X ≥ m0 + z1−α √ |m = m1 )
n
   
 X − m1 m0 − m1   m0 − m1 
=P σ ≥ σ + z1−α |m = m1  = 1 − φ  σ + z1−α 
√ √ √
n n n
Se observă că, ı̂n ambele cazuri π(m1 ) → 1, când n → ∞, adică βe → 0.
Să dăm şi modul de determinare a volumului selecţiei pentru a se atinge
o putere fixată (şi deci β fixat). α este dat!
C1. m0 > m1
σ
Kα = m0 + √ zα (9.13)
n
e |H1) = 1 − β se rescrie sub forma
Dar P ((X1 , . . . , Xn ) ∈ U
 
 X − m1 Kα − m1  e
P σ ≤ σ |H1  = 1 − β,
√ √
n n

adică  
 Kα − m1 
φ σ = 1−β

n
De aici
Kα − m1
σ = z1 − βe (9.14)

n
204 Verificarea ipotezelor statistice

Din (9.13), (9.14) rezultă


σ σ
m0 + √ zα = m1 + √ z1−βe ⇒
n n

σ 2 (z1−βe − zα )2
n= (9.15)
(m0 − m1 )2
C2. m0 < m1
σ
Kα = m0 + √ z1−α
n
Kα − m1
σ = zβe,

n
de unde
σ 2 (zβe − z1−α )
n= .
(m0 − m1 )2

9.4 Testul raportului verosimilităţilor


Fie caracteristica X cu legea de probabilitate f (x; θ), unde parametrul
necunoscut θ ∈ A ⊂ Rp . Relativ la parametrul θ se consideră ipoteza nulă
H0 : θ ∈ A0 cu alternativa H1 : θ ∈ A \ A0 . Se consideră o selecţie repetată
de volum n cu ajutorul căreia se construieşte statistica

b 1 , . . . , Xn ) = supθ∈A0 L(X1 , . . . , Xn ; θ) ,
b = Λ(X
Λ
supθ∈A L(X1 , . . . , Xn ; θ)

unde
n
Y
L(U1 , . . . , Un ; θ) = f (Uk ; θ)
k=1

este funcţia de verosimilitate.


b < 1; ipoteza H0 va fi acceptată când Λ
Se observă că 0 < Λ b este apropiată
de 1. Pentru α ∈ (0, 1) dat se determină regiunea critică din relaţia P (Λb≤
λα |H0 ) = α, unde λα este cuantila de ordin α pentru legea de probabilitate
b
a statisticii Λ.

Exemplul 9.4.1 Fie X ∈ N(m, σ 2 ) cu m şi σ necunoscuţi. Vrem să ve-


rificăm H0 : m = m0 , σ > 0 ı̂n raport cu alternativa H1 : (m 6= m0 , σ >
0). Pentru aceasta considerăm o selecţie repetată de volum n şi nivelul de
semnificaţie α ∈ (0, 1) fixat.
9.4. Testul raportului verosimilităţilor 205

Funcţia de verosimilitate este:


 n " n
#
1 1 X
L(U1 , . . . , Un ; m, σ) = √ exp − 2 (Uk − m)2
σ 2π 2σ k=1
Dacă H0 este adevărată EVM pentru σ este
v
u n
u1 X
b1 = t
σ (Xk − m0 )2
n k=1

iar
 n  
1 1 X 2
sup L(X1 , . . . , Xn ; m0 , σ) = √ exp − 2 (Xk − m0 )
σ>0 σ
b1 2π 2b
σ1
  n2
 
 n 
=
 n


 X
2
2πe (Xk − m0 )
k=1
Pentru numitor avem EVM
n
1X
m
b = Xk = X
n k=1
v
u n
u1 X √
σ=t (Xk − X)2 = m2
n k=1
 n " n
#
1 1 X
sup L(X1 , . . . , Xn ; m, σ) = √ exp − (Xk − X)2
m∈R,σ>0 2πm2 2µ2 k=1
  n2
 
 n 
=
 n


 X
2
2πe (Xk − X)
k=1
Scriem acum statistica raportului verosimilităţilor
 n  n2
X
 (Xk − X)2 
 
b =  k=1
Λ 
X n 
 2
(Xk − m0 )
k=1
206 Verificarea ipotezelor statistice

Ţinând cont că


n
X n
X
2
(Xk − m0 ) = (Xk − X)2 + n(X − m0 )2
k=1 k=1

avem
 − n2
 
 n(X − m 0 ) 2 
b = 1 +
Λ 
 n
X 
 
(Xk − X)2
k=1

Introducând statistica T

X − m0 X − m0
T = ′ = v
s u n
√ 1 u
t 1 X
n √ (Xk − X)2
n n − 1 k=1

se obţine
  n2
 1 
b=
Λ 
 T 2 
1+
n−1
Regiunea critică U, pentru α ∈ (0, 1) se obţine din

b ≤ 2α|H0) ⇔ P (|T | < t|m = m0 )


P (Λ

Altfel spus, determinarea cuantilei 2α revine la determinarea lui t > 0


a.ı̂.
P (|T | < t|m = m0 ) = 1 − α
Rezultă t = tn−1,1− α2 . Regiunea critică este
 

 

 |U − m | 
n 0
U = (U1 , . . . , Un ) ∈ R | ≥ t α
n−1,1− 2 ,

 s′ 

 √ 
n

deci testul obţinut prin această metodă este testul T bilateral. Referitor la
b avem următorul rezultat
Λ
9.4. Testul raportului verosimilităţilor 207

Observaţia 9.4.2 De fapt testele referitoare la medii, diferenţa a două me-


dii, dispersii, raportul a două dispersii se pot obţine cu ajutorul testului ra-
portului verosimilităţilor. Pentru multe probleme practice, metoda raportului
verosimilităţilor produce cel mai bun test, din punct de vedere al puterii. Din
b este necunoscută ı̂n cele mai multe cazuri. Dacă vo-
păcate distribuţia lui Λ
lumul selecţiei este suficient de mare şi dacă populaţia ı̂ndeplineşte anumite
condiţii de regularitate, cum ar fi existenţa derivatelor funcţiei de verosi-
militate ı̂n raport cu parametrii şi independenţa regiunii de pozitivitate a
funcţiei de verosimilitate faţă de valorile parametrilor necunoscuţi atunci are
loc următorul rezultat.

Teorema 9.4.3 Dacă Λ b este statistica raportului verosimilităţilor, atunci


b urmează legea χ2 cu p grade de libertate când n → ∞, unde p este
−2 ln Λ
numărul parametrilor necunoscuţi.

Demonstraţie. Vom da demonstraţia numai pentru p = 1. Folosind


formula lui Taylor de ordinul I putem scrie
b
ln L(X1 , . . . , Xn ; θ0 ) − ln L(X1 , . . . , Xn ; θ)
b 2
b ∂ ln L(X1 , . . . , Xn ; θ) + 1 (θ0 − θ)
= (θ0 − θ) b 2 ∂ ln L(X1 , . . . , Xn ; ξ) ,
∂θ 2 ∂θ2
b sau ξ ∈ (θ,
unde ξ ∈ (θ0 , θ) b θ0 ). Dar cum θb este estimator de verosimilitate
maximă pentru θ,
b
∂ ln L(X1 , . . . , Xn ; θ)
=0
∂θ
obţinem
2
b = −(θ0 − θb0 )2 ∂ ln L(X1 , . . . , Xn ; ξ) .
−2 ln Λ
∂θ2
a.s.
Pe de altă parte, dacă ipoteza H0 : θ = θ0 este adevărată, atunci θb −→ θ0 ,
a.s.
deci ξ −→ θ0 , când n → ∞. Putem scrie
∂ 2 ln L(X1 , . . . , Xn ; ξ) ∂ 2 ln L(X1 , . . . , Xn ; θ0 )

∂θ2 ∂θ2
n
X n
∂ 2 ln f (Xk ; θ0 ) 1 X ∂ 2 ln f (Xk ; θ0 )
= =n· .
k=1
∂θ2 n k=1 ∂θ2
Din legea tare a numerelor mari rezultă
n  2 
1 X ∂ 2 ln f (Xk ; θ0 ) a.s. ∂ ln f (X; θ0 )
−→ M = −I1 (θ0 ),
n k=1 ∂θ2 ∂ 2 θ2
208 Verificarea ipotezelor statistice

de unde
∂ 2 ln L(X1 , . . . , Xn ; ξ)
≃ −nI1 (θ0 ) = −In (θ0 )
∂θ2
sau
b 2 In (θ0 ).
b ≃ (θ0 − θ)
−2 ln Λ
θb − θ0
Dar statistica p este asimptotic N(0, 1), de unde rezultă că (θ0 −
In−1 (θ0 )
b 2 In (θ0 ) urmează legea χ2 (1, 1), ceea ce trebuia demonstrat.
θ)

9.5 Testul χ2
Până acum testul χ2 a fost utilizat pentru a verifica ipoteze asupra disper-
siei teoretice a unei populaţii. Distribuţia χ2 se poate de asemenea utiliza la
teste asupra experimentelor multinomiale şi tabelelor de contingenţă (analiza
categorială a datelor - Categorical Data Analysis). Aceste tipuri de teste vor
fi utilizate la compararea rezultatelor experimentale cu cele teoretice pentru
a determina: (1) preferinţele, (2) independenţa, (3) omogenitatea. Datele
care vor fi utilizate ı̂n cadrul acestor tehnici vor fi enumerative, adică vor
rezulta din numărarea apariţiilor.

9.5.1 Statistica χ2
Există multe probleme ı̂n care datele sunt grupate ı̂n clase sau catego-
rii, iar rezultatele sunt ilustrate prin numărare. Să presupunem că avem
un număr k de clase sau celule, ı̂n care sunt ı̂nregistrate n observaţii.
Frecvenţele observate din fiecare celulă sunt notate cu O1 , O2 , . . . , Ok .
Suma frecvenţelor observate este O1 +O2 +· · ·+On = n. Dorim să comparăm
aceste frecvenţe cu frecvenţele teoretice notate cu E1 , E2 , . . . , Ek . Suma aces-
tor frecvenţe este E1 + E2 + · · · + Ek = n. Pentru a decide dacă frecvenţele
observate sunt ı̂n concordanţă cu cele teoretice vom utiliza distribuţia χ2 .
Statistica testului va fi:
k
X
2 (Oi − Ei )2
X = . (9.16)
i=1
Ei

Această valoare calculată pentru X 2 va fi suma mai multor numere nenega-


tive, câte unul pentru fiecare categorie. O valoare mică a numărătorului
ı̂nseamnă o diferenţă mică ı̂ntre valoarea observată şi cea teoretică; pentru
a face distincţie ı̂ntre o valoare Oi = 110 şi Ei = 115, |Oi − Ei | = 10
şi una obţinută din Oi = 15 şi Ei = 10, |Oi − Ei | = 10 se ı̂mparte la
9.5. Testul χ2 209

valoarea teoretică. Observaţia aceasta sugerează ideea că valori mici ale
statisticii ı̂nseamnă concordanţă, iar valori mari discordanţă. Pentru selecţii
repetate mari, distribuţia statisticii X 2 poate fi aproximată bine cu ajutorul
distribuţiei χ2 . Această aproximare este considerată adecvată când toate
frecvenţele teoretice sunt ≥ 5 şi k ≥ 5. Pentru k < 4, Ei trebuie să fie mult
mai mare decât 5. Dacă aceste condiţii nu se realizează, se poate proceda la
o regrupare a datelor.

9.5.2 Teste privind experimentele multinomiale


Se numeşte experiment multinomial un experiment cu următoarele
caracteristici:

1. constă din n probe identice;

2. rezultatul unui experiment cade ı̂n exact una din cele k celule sau clase
posibile;

3. fiecare celulă i are asociată o probabilitate pi care rămâne constantă


pe parcursul experimentului şi p1 + p2 + · · · + pk = 1;

4. experimentul conduce la o mulţime de frecvenţe observate O1 , O2 , . . .,


Ok , unde Oi este numărul de probe al căror rezultat cade ı̂n celula i şi
O1 + O2 + · · · + On = n.

Ipoteza nulă are forma:


(0)
H0 : pi = pi , i = 1, k,
(0)
unde valorile pi sunt date, iar ipoteza alternativă
(0)
H1 : ∃i0 ∈ {1, . . . , k} pi0 6= pi0 .
De multe ori ipoteza alternativă nu este formulată explicit ci este formu-
lată ı̂n cuvinte sau subı̂nţeleasă. Statistica testului va fi (9.16), care urmează
legea χ2 . Pentru un experiment multinomial se va utiliza o regiune critică
unilaterală dreapta (a se vedea raţionamentul de la sfârşitul secţiunii prece-
dente). Frecvenţa teoretică va fi Ei = npi , iar numărul gradelor de libertate
k − 1. Într-adevăr, vectorul aleator O(O1, O2 , . . . , Ok ) urmează legea multi-
nomială, adică dacă ni sunt valorile de selecţie corespunzătoare variabilelor
aleatoare Oi , avem:
n!
P (O1 = n1 , O2 = n2 , . . . , Ok = nk ) = pn1 pn2 . . . pnk k , (9.17)
n1 !n2 ! . . . nk ! 1 2
210 Verificarea ipotezelor statistice

unde n1 + n2 + . . . + nk = n, ni ∈ {0, . . . , n}, i = 1, k, p1 + p2 + · · · +


pk = 1. Examinând ipoteza nulă observăm că ea se referă la parametri unei
legi multinomiale. Afirmaţia că statistica X 2 este asimptotic χ2 (k − 1, 1) se
bazează pe teorema de mai jos.

Teorema 9.5.1 Statistica


k
X
2 (Oi − npi )2
X = (9.18)
i=1
npi

urmează legea χ2 cu k − 1 grade de libertate, când n → ∞.

Demonstraţie. Probabilităţile √ din formula (9.17) se vor aproxima folo-


n −n
sind formula lui Stirling n! ≃ n e 2πn, obţinându-se

nn e−n 2πn
P (O1 = n1 , O2 = n2 , . . . , Ok = nk ) ≃ Qk ni −ni √
pn1 1 pn2 2 . . . pnk k ,
i=1 (ni e 2πni )
sau
k 
Y n + 1
npi i 2
P (O1 = n1 , O2 = n2 , . . . , Ok = nk ) ≃ K · ,
i=1
ni
K fiind o constantă.
Logaritmând această relaţie avem

Xk  
1 npi
ln P (O1 = n1 , O2 = n2 , . . . , Ok = nk ) ≃ ln K + ni + ln
i=1
2 ni

şi introducând notaţiile


ni − npi ni xi
xi = √ ⇔ =1+ √ ,
npi npi npi

obţinem

X k    
1 xi
ln P (O1 = n1 , O2 = n2 , . . . , Ok = nk ) ≃ ln K − ni + ln 1 + √ .
i=1
2 np i

Dezvoltând logaritmul ı̂n serie Taylor şi păstrând doar primii doi termeni din
dezvoltare  
xi xi x2
ln 1 + √ ≃√ − i ,
npi npi 2npi
9.5. Testul χ2 211

obţinem succesiv

ln P (O1 = n1 , O2 = n2 , . . . , Ok = nk ) ≃
Xk   
1 xi x2i
≃ ln K − ni + √ − =
i=1
2 np i 2np i

Xk   
√ 1 xi x2i
= ln K − ni + xi npi + √ − ≃
i=1
2 np i 2np i

Xk  
√ x2i
≃ ln K − xi npi + .
i=1
2

Deoarece
k
X Xk

xi npi = (ni − npi ) = 0,
i=1 i=1
avem
k
1X 2
ln P (O1 = n1 , O2 = n2 , . . . , Ok = nk ) ≃ ln K − x
2 i=1 i
sau Pk
1
x2i .
P (O1 = n1 , O2 = n2 , . . . , Ok = nk ) ≃ Ke− 2 i=1

Oi −npi
Punând Xi = √
npi
, rezultă că

1 Pk
x2i ,
P (X1 = x1 , X2 = x2 , . . . , Xk = xk ) ≃ Ke− 2 i=1

adică componentele Xi urmează legea normală. Din teorema 4.2.10 rezultă


imediat concluzia.

Exemplul 9.5.2 Să presupunem că dorim să testăm dacă un zar este perfect
sau măsluit. Se aruncă zarul de mai multe ori şi dacă fiecare faţă apare cam
ı̂n 16 din cazuri, se poate presupune că zarul este bun. Aruncând zarul de 60
de ori se obţin frecvenţele
Număr 1 2 3 4 5 6
Apariţii 7 12 10 12 8 11
Să se verifice dacă zarul este corect, pentru α = 5%.

Soluţie.
P1. Ipoteza nulă este H0 : pi = 61 , i = 1, 6 sau echivalent p1 = 16 ∧ p2 = 61 ∧
p3 = 61 ∧ p4 = 16 ∧ p5 = 61 ∧ p6 = 61 .
212 Verificarea ipotezelor statistice

P2. Ipoteza alternativă este H1 : ∃j ∈ {1, . . . , 6} pj 6= 16 sau formulat


echivalent p1 6= 61 ∨ p2 6= 61 ∨ p3 6= 16 ∨ p4 6= 61 ∨ p5 6= 61 ∨ p6 6= 61 .
P3. Statistica testului este (9.16) sau echivalent (9.18), α = 0.05, iar
numărul de grade de libertate este k − 1 = 5. Regiunea critică apare ı̂n
figura 9.12 şi χ25,0.95 = 11.07.

0.09

0.08

0.07

0.06

0.05

0.04

0.03

0.02

0.01

0
χ2
n−1,1−α
=11.7
−0.01 χ2*=2.2

0 5 10 15 20 25 30 35

Figura 9.12: Test χ2 pentru proporţii

1
P4. Frecvenţele teoretice sunt Ei = npi = 60 · 6
= 10, i = 1, 6. Valoarea
statisticii este
1
X2 = (7 − 10)2 + (12 − 10)2 + (10 − 10)2 + (12 − 10)2 +
10 
+(8 − 10)2 + (11 − 10)2 = 2.2. = χ2∗

P5. Deoarece χ2∗ nu este ı̂n regiunea critică se acceptă H0 . Concluzia:


selecţia nu ne permite să afirmăm că zarul este măsluit.

Exemplul 9.5.3 Teoria mendeliană a eredităţii afirmă că atunci când se


ı̂ncrucişează două varietăţi de mazăre, frecvenţele pentru rotund şi galben,
zbârcit şi galben, rotund şi verde, zbârcit şi verde apar ı̂n raportul 9:3:3:1.
Când a testat această teorie, Mendel a obţinut frecvenţele 315, 101,108 şi
respectiv 32. Ne permit aceste date de selecţie să respingem teoria la nivelul
de semnificaţie de 5%?

Soluţie.
P1. Raportul de moştenire este 9:3:3:1, sau ı̂n formulare matematică
9 3 3 1
H0 : p1 = 16 , p2 = 16 , p3 = 16 , p4 = 16 .
9.5. Testul χ2 213

P2. Raportul de moştenire nu este 9:3:3:1, sau ı̂n formulare matematică


9 3 3 1
H1 : p1 6= 16 sau p2 6= 16 sau p3 6= 16 sau p4 6= 16 .
P3. Statistica testului este (9.16) sau echivalent (9.18), α = 0.05, iar
numărul de grade de libertate este k − 1 = 3. Regiunea critică apare ı̂n
figura 9.13 şi χ23,0.95 = 7.82.
9
P4. n = 556, iar frecvenţele teoretice E1 = np1 = 556 · 16 = 312. 75,
3 1
E2 = E3 = np2 = np3 = 556 · 16 = 104. 25, E4 = np4 = 556 · 16 = 34. 75.
Valoarea statisticii este
(315 − 312.75)2 (101 − 104.25)2 (108 − 104.25)2 (32 − 34.75)2
X2 = + + +
312.75 104.25 104.25 34.75
= 0.47002 = χ2∗ .
P5. Deoarece χ2∗ nu este ı̂n regiunea critică H0 se acceptă; teoria nu
poate fi respinsă.

0.09

0.08

0.07

0.06
2*
χ =0.47

0.05

0.04

0.03

0.02

0.01

0
χ2 =7.82
n−1,1−α
−0.01

0 5 10 15 20 25 30 35
Figura 9.13: Diagrama pentru verificarea teoriei mendeliene a eredităţii

9.5.3 Tabele de contingenţă


Am văzut ı̂n secţiunea 7.5 că o tabelă de contingenţă este o aranjare a
datelor pentru a permite o clasificare după doi factori (variabile). De obicei
datele sunt frecvenţe absolute, dar acest lucru nu este obligatoriu. Problema
care se pune cel mai frecvent asupra unor astfel de tabele este a verifica dacă
variabilele sunt independente sau dependente.
Testarea independenţei. În general, pentru a testa independenţa fac-
torului de pe linie de cel de pe coloană se utilizează o tabelă de contingenţă
214 Verificarea ipotezelor statistice

r × s (r este numărul de linii, iar s numărul de coloane). Numărul de grade


de libertate se va determina cu formula

gl = (r − 1)(s − 1). (9.19)

Justificare: ţinând cont că avem ı̂n total rs căsuţe ı̂n tabel, iar totalurile
pe linii şi coloane sunt fixate şi suma totalurilor pe linii şi coloane este n,
ne rămân posibilităţile fixate de formulă. Formula de mai sus este valabilă
numai dacă r 6= 1 şi s 6= 1. Dacă r = 1, gl = s − 1, iar dacă s = 1, atunci
gl = r − 1. Deci

 (r − 1)(s − 1) dacă r 6= 1 ∧ s 6= 1,
gl = s−1 dacă r = 1,

r−1 dacă s = 1.
Folosind notaţiile din secţiunea 7.5 referitoare la selecţii bidimensionale, ipo-
teza nulă se scrie:
H0 : pij = pi. p.j , i = 1, r, j = 1, s.
Frecvenţele teoretice pentru o tabelă de contingenţă r × s sunt date de
ni. n.j
Eij = , (9.20)
n
unde n este volumul selecţiei. Justificare: totalurile marginale de pe linii
trebuie distribuite proporţional cu cele de pe coloană. În tabela finală ı̂n
căsuţe se trec ı̂n paranteză sau mai jos şi frecvenţele teoretice.
Statistica testului are expresia:
Xr X s r s n n
2 (nij − Eij )2 X X (nij − i.n .j )2
X = = ni. n.j . (9.21)
i=1 j=1
Eij i=1 j=1 n

Exemplul 9.5.4 (Clasificarea studenţilor după sex şi disciplina preferată).


Fiecărui student dintr-un grup de 300 de studenţi i se identifică sexul şi
apoi este ı̂ntrebat dacă preferă discipline din sfera ştiinţelor naturii (SN),
ştiinţelor sociale(SS) sau umaniste (SU). Tabela de mai jos ne dă frecvenţele
determinate pentru aceste categorii. Ne permite această selecţie să respingem
ipoteza ,,preferinţa pentru SN, SS sau SU este independentă de sex“ la nivelul
de semnificaţie α = 5%?

Disciplina favorită
Sex SN SS SU Total
M 37 41 44 122
F 35 72 71 178
Total 72 113 115 300
9.5. Testul χ2 215

Soluţie.
P1. H0 : pij = pi. p.j , i = 1, 2, j = 1, 3 (preferinţa pentru SN, SU, SS este
independentă de sex).
P2. Preferinţa nu este independentă de sex, adică
H1 : ∃i0 ∈ {1, 2} ∃j0 ∈ {1, 2, 3} pi0 j0 6= pi0 . p.j0 .
P3. Statistica testului este dată de (9.21), gl = 2, α = 0.05, χ22,0.95 = 6.00.
Regiunea critică apare ı̂n figura 9.14.

0.09

0.08

0.07

0.06

0.05
2*
χ =3.01
0.04

0.03

0.02

0.01

0
χ2 =6
n−1,1−α
−0.01

0 5 10 15 20 25 30 35

Figura 9.14: Test χ2 pentru independenţă

P4.Vom determina frecvenţele teoretice, folosind formula (9.20):

72 113
E11 = · 122 = 29. 28, E12 = · 122 = 45. 95,
300 300
115 72
E13 = · 122 = 46. 77, E21 = · 178 = 42. 72,
300 300
113 115
E22 = · 178 = 67. 05, E23 = · 178 = 68. 23.
300 300
Tabela de contingenţă completă este următoarea:
Disciplina favorită
Sex SN SS SU Total
M 37 41 44 122
(29.28) (45.95) (46.77)
F 35 72 71 178
(42.72) (67.05) (68.23)
Total 72 113 115 300
216 Verificarea ipotezelor statistice

Valoarea statisticii este


(37 − 29.28)2 (41 − 45.95)2 (44 − 46.67)2 (35 − 42.72)
X2 = + + + +
29.28 45.95 46.67 42.72
(72 − 67.05)2 (71 − 68.23)2
+ +
67.05 68.23
2∗
= 3. 0186 = χ

P5. Deoarece χ2∗ nu este ı̂n regiunea critică nu se poate respinge H0 , deci
preferinţele sunt independente de sex.
Testarea omogenităţii. Aceste teste se utilizează când una din cele
două variabile este controlată de experimentator, astfel ı̂ncât totalurile mar-
ginale pe linii sau pe coloane să aibă valori predeterminate.
De exemplu să presupunem că vrem să sondăm preferinţele asupra unui
proiect de lege propus de guvern. În cadrul sondajului se selectează alea-
tor 200 de persoane din mediul urban, 200 din suburbii şi 100 din mediul
rural şi acestea sunt chestionate asupra părerii faţă de iniţiativa guvernului.
Rezultatele se vor trece ı̂ntr-o tabelă de forma:
Tip de Propunerea guvernului
reşedinţă Da Nu Total
Urban 200
Suburban 200
Rural 100
Total 500
Într-un test de acest tip, dorim să testăm ipoteza ,,distribuţia proporţiilor
ı̂n interiorul liniilor este aceiaşi pentru toate liniile“. Alternativa la această
ipoteză este aceea că proporţiile ı̂n interiorul liniilor nu coincid pentru toate
liniile. Acest tip de exemplu poate fi gândit ca o comparaţie ı̂ntre mai multe
experimente multinomiale. Înafara acestei diferenţe conceptuale, testul de
independenţă şi testul de omogenitate (ambele realizate prin intermediul ta-
belelor de contingenţă) coincid.
Să ilustrăm acest lucru finalizând exemplu cu sondajul. Să presupunem
că am obţinut datele:
Tip de Propunerea guvernului
reşedinţă Da Nu Total
Urban 143 57 200
Suburban 98 102 200
Rural 13 87 100
Total 254 246 500
Ne permite selecţia să afirmăm că persoanele din diverse medii au opinii
diferite asupra propunerii guvernamentale (α = 5%)?
9.6. Teste de concordanţă 217

Soluţie.
P1. H0 : pij = pj , i = 1, 3, j = 1, 2 (proporţia ı̂n interiorul celor trei
grupuri este aceeaşi, adică purban,da = pda , psuburban,da = pda , prural,da = pda ,
etc...)
P2. H1 : Proporţia nu este aceeaşi ı̂n interiorul grupurilor (există măcar
unul pentru care proporţia diferă de a celorlalte).
P3. Statistica testului este dată de (9.21), gl = 2, α = 0.05, χ22,0.95 = 6.00.
Regiunea critică apare ı̂n figura 9.15.
P4. După calculul frecvenţelor teoretice obţinem tabela
Tip de Propunerea guvernului
reşedinţă Da Nu Total
Urban 143 57 200
(101.6) (98.4)
Suburban 98 102 200
(101.6) (98.4)
Rural 13 87 100
(50.8) (49.2)
Total 254 246 500
Valoarea statisticii este

2 (143 − 101.6)2 (57 − 98.4)2 (98 − 101.6)2 (102 − 98.4)2


X = + + +
101.6 98.4 101.6 98.4
(13 − 50.8)2 (87 − 49.2)2
+ +
50.8 49.2
2∗
= 91.715 = χ

P5. H0 se respinge. Concluzia: cele trei grupuri de oameni nu au aceeaşi


proporţie de oameni favorabili iniţiativei legislative.

9.6 Teste de concordanţă


Fie caracteristica X ce urmează o lege de probabilitate cu funcţia de
repartiţie F necunoscută. Dorim să verificăm ipoteza nulă H0 : F = F0 ı̂n
raport cu alternativa H1 : F 6= F0 , unde F0 este dată.

9.6.1 Testul χ2 de concordanţă


Dacă domeniul valorilor caracteristicii X este intervalul [a, b], se consideră
clasele precizate prin diviziunea:

a = a0 < a1 < a2 < . . . < ak = b.


218 Verificarea ipotezelor statistice

0.09

0.08

0.07

0.06

0.05

0.04 2*
χ =91.71

0.03

0.02

0.01

0
2
χn−1,1−α=6
−0.01

0 5 10 15 20 25 30 35
Figura 9.15: Diagrama pentru un test χ2 de omogenitate

Fie Ei evenimentul ,,X ∈ [ai−1 , ai ]“, i = 1, k. Avem

pi = P (Ei ) = P (ai−1 ≤ X < ai ) = F (ai ) − F (ai−1 ).


(0)
Aceste probabilităţi sunt necunoscute. Fie pi = F0 (ai ) − F0 (ai−1 ). În acest
fel se ajunge la acelaşi tip de ipoteze ca la testul χ2 pentru proporţii. Pentru
verificarea ipotezei se consideră o selecţie repetată de volum n, cu valorile
x1 , x2 , . . . , xn . Se notează cu ni frecvenţa clasei [ai−1 , ai ). Suma acestor
frecvenţe este n1 + n2 + · · · + nk = n. Statistica testului este
 2
(0)
k
X ni − npi
χ2 = (0)
,
i=1 npi

care este repartizată χ2 cu k − 1 grade de libertate. Testul se mai numeşte


testul χ2 neparametric.

9.6.2 Testul Kolmogorov


Fie F n funcţia de repartţie empirică şi dn = supx∈R |F √n (x) − F (x)|. Con-
form teoremei lui Kolmogorov (teorema 7.4.6), statistica ndn urmează legea
lui Kolmogorov, care nu depinde de F . Teorema 7.4.6 serveşte ca bază pen-
tru verificarea concordanţei ı̂ntre repartiţia teoretică şi cea empirică. Astfel,
pentru un nivel de semnificaţie α ∈ (0, 1) dat se determină k1−α astfel ı̂ncât
9.6. Teste de concordanţă 219

K(k1−α ) = 1 − α (cuantila repartiţiei Kolmogorov). Cu ajutorul datelor de


selecţie se calculează valoarea statisticii
√ √
k = ndn = n max |Fn (xk ) − F (xk )|,
k=1,n

dacă xk < x ≤ xk+1 , k = 0, n, cu convenţia că x0 = −∞ şi xk+1 = +∞.


Dacă k < k1−α , ipoteza H0 se acceptă, iar ı̂n caz contrar se respinge.

Exemplul 9.6.1 Rezultatele măsuratorilor diametrului X pentru 1000 de


piese de acelaşi tip ı̂n mm sunt cele ce urmează:
Diametru frecvenţa
97.75 − 98.25 21
98.25 − 98.75 47
98.75 − 99.25 87
99.25 − 99.75 158
99.75 − 100.25 181
100.25 − 100.75 201
100.75 − 101.25 142
101.25 − 101.75 97
101.75 − 102.25 41
102.25 − 102.75 25

Folosind nivelul de semnificaţie α = 0.05 şipcunoscând media m = M(X)


= 100.25mm şi abaterea medie pătratică σ = D 2 (X) = 1mm se cere veri-
ficarea normalităţii caracteristicii X

a) cu ajutorul testului lui Kolmogorov;

b) cu ajutorul testului χ2 neparametric.

Soluţie.
a) Z x
1 (t−m)2
H0 : F (x) = F0 (X) = √ e− 2σ2 dt, x ∈ R,
σ 2π −∞
cu m = 100.25, σ = 1.
Calculăm dn = sup{x ∈ R : |Fn (x)−F0 (x)|} = maxi=1,10 |Fn (ai )−F0 (ai )|,
unde ai = 97.75 + 0.5i, i = 0, 10 şi Fn (x) = F1000 (x) este funcţia de repartiţie
de selecţie. Valorile lui F0 se pot calcula cu formula
 
x−m
F0 (x) = Φ ,
σ
220 Verificarea ipotezelor statistice

iar pentru F1000 avem


i
1 X
F1000 (x) = nj , i = 0, 10.
1000 j=1

Calculele sunt aranjate ı̂n următorul tabel:


ai ni ai − m Fn (ai ) |Fn (ai ) − F0 (ai )|
F0 (ai )
97.75 − −2.5 0.0062
0 0.0062
98.25 21 −2.0 0.0228
0.021 0.0018
98.75 47 −1.5 0.0668
0.068 0.0012
99.25 87 −1.0 0.1587
0.155 0.0037
99.75 158 −0.5 0.3085
0.313 0.0045
100.25 181 0.0 0.5000
0.494 0.0060
100.75 201 0.5 0.6915
0.695 0.0035
101.25 142 1.0 0.8413
0.837 0.0043
101.75 97 1.5 0.9332
0.934 0.0008
102.25 41 2.0 0.9772
0.975 0.0022
102.75 25 2.5 0.9938
1 0.0062
√ √
d1000 = 0.0062, de unde rezultă că ndn = 10 10 · 0.0062 = 0.196.
Cuantila pentru funcţia lui Kolmogorov k1−α = k0.95 = 1.36 şi deoarece

ndn = 0.196 < 1.36 = k1−α , H0 se acceptă.
b) Calculăm probabilităţile
(0)
pi = P (ai−1 ≤ X < ai |F = F0 ) = Φ(ai − m) − Φ(ai−1 − m), i = 1, 10,
unde a0 = −∞, a10 = +∞. Obţinem
(0)
X pi
(−∞, a1 ) 0.0228
[a1 , a2 ) 0.0440
[a2 , a3 ) 0.0919
[a3 , a4 ) 0.1498
[a4 , a5 ) 0.1915
[a5 , a6 ) 0.1915
[a6 , a7 ) 0.1498
[a7 , a8 ) 0.0918
[a8 , a9 ) 0.0440
[a9 , a10 ) 0.0228
de unde
 2
(0)
X 10 ni − npi (21 − 22.8)2 (25 − 22.8)2
χ2 = (0)
= + · · · + = 3.21 = χ2∗ .
i=1 npi 22.8 22.8
9.6. Teste de concordanţă 221

Cuantila corespunzătoare este χ2k−1,1−α = χ29,0.95 = 16.9 şi cum χ2∗ = 3.21 <
16.9 = χ29,0.95 , ipoteza nulă se acceptă.
222 Verificarea ipotezelor statistice
Capitolul 10

Modele liniare şi estimaţii prin


metoda celor mai mici pătrate

10.1 Introducere
Până acum am presupus că variabilele aleatoare de selecţie Y1 , Y2 , . . . , Yn
sunt independente şi identic distribuite. M(Yi ) = µ este o constantă. Această
presupunere este nerealistă pentru multe probleme. În acest capitol vom
considera o v.a. Y , numită variabilă dependentă care are o medie care este
o funcţie de una sau mai multe variabile nealeatoare X1 , X2 , . . . , Xk numite
variabile independente. (Aici dependent şi independent au sensul matematic
clasic, nu cel din calculul probabilităţilor.)
Vom utiliza diverse tipuri de funcţii matematice pentru a modela un
răspuns care este o funcţie de una sau mai multe variabile independente.
Modelele pot fi clasificate ı̂n două categorii: deterministice şi probabilistice.
Un model este deterministic dacă nu admite nici o eroare la calculul lui y ca
funcţie de variabile independente. De exemplu dacă

y = β0 + β1 x

unde β0 şi β1 sunt parametrii necunoscuţi, y va avea valoarea β0 + β1 · 5.5 ori


de câte ori x = 5.5.
Presupunem că avem n valori de selecţie ale lui Y ce corespund la n
valori independente ale variabilei x şi reprezentăm datele aşa cum se arată
ı̂n figura 10.1. Se vede din figură că valoarea medie a lui Y poate creşte ca
funcţie liniară de x, dar un model determinist este departe de a o descriere
adevărată a realităţii. Repetând experimentul pentru a valoare fixată a lui
x, de exemplu x = 5.5 se obţine o valoare a lui Y ce variază ı̂n mod aleator.
Dacă vrem să prevedem valoarea lui Y ı̂ntr-un x fixat, de exemplu, x = 5.5,

223
224 Modele liniare şi metoda celor mai mici pătrate

predicţia va fi afectată de erori necunoscute. Aceasta ne conduce la utilizarea


metodelor statistice.
13.5

13

12.5

12

11.5

11

10.5

10
1 2 3 4 5 6 7

Figura 10.1: Date aleatoare

În contrast cu modelele deterministe, ı̂n statistică se utilizează modele


probabilistice. De exemplu, să presupunem că vrem să modelăm răspunsul
din figura 10.1 prin modelul
M(Y ) = β0 + β1 x,
sau echivalent
Y = β0 + β1 x + ε,
unde ε este o variabilă ce urmează o distribuţie specificată cu media zero.
Putem gândi Y ca suma dintre o componentă deterministă M(Y ) şi o com-
ponentă aleatoare. Acest model ţine cont de comportarea aleatoare a lui
Y din figura 10.1 şi furnizează o descriere mai precisă a realităţii decât un
model determinist. Mai mult, proprietăţile predicţiei erorii pentru Y pot fi
deduse pentru multe modele probabilistice.
Figura 10.2 dă o reprezentare grafică a modelului probabilistic Y =
β0 + β1 x + ε. Când x = 5.5 avem o populaţie de valori posibile ale lui
Y . Distribuţia acestei populaţii este indicată ı̂n porţiunea principală a grafi-
cului şi este centrată pe dreapta E(Y ) = β0 + β1 ı̂n punctul x = 5.5. Această
populaţie are o distribuţie cu media β0 + β1 · 5.5 şi dispersia σ 2 , aşa cum se
arată ı̂n porţiunea mărită a distribuţiei ı̂ncadrate ı̂n figura 10.2.

10.2 Modele liniare


Definiţia 10.2.1 Un model statistic liniar pentru Y este de forma
Y = β0 + β1 x1 + β2 x2 + · · · + βk xk + ε
10.2. Modele liniare 225

unde β0 , β1 , . . . , βk sunt parametri necunoscuţi, ε este o variabilă aleatoare şi


x1 , x2 , . . . , xk sunt valori cunoscute. Vom presupune că E(ε) = 0 şi deci

M(Y ) = β0 + β1 x1 + β2 x2 + · · · + βk xk .

Dacă k = 1 modelul se numeşte simplu.

Să considerăm interpretarea fizică a modelului liniar Y . El ne spune că


Y este egal cu o valoare medie, β0 + β1 x1 + β2 x2 + · · · + βk xk (o funcţie de
variabilele independente x1 , x2 , . . . , xk ) plus o eroare aleatoare ε. Din punct
de vedere practic ε confirmă incapacitatea noastră de a furniza un model
exact al naturii. În experimente repetate, Y variază ı̂n jurul lui M(Y ) ı̂ntr-o
manieră aleatoare, deoarece nu putem include ı̂n modelul nostru numărul
mare de variabile care afectează Y . Din fericire, efectul acestor variabile,
nemăsurat şi necunoscut va face Y să varieze ı̂ntr-un mod care poate fi apro-
ximat adecvat prin presupunerea comportamentului aleator.

0
6
4
4
2 2
0 0

β0+β1(5.5)

Figura 10.2: Reprezentarea grafică a modelului probabilistic Y = β0 +β1 x+ε

Vom estima parametrii necunoscuţi β0 , β1 , . . . , βk din modelul liniar de


regresie prin metoda celor mai mici pătrate. În multe aplicaţii, unul sau
226 Modele liniare şi metoda celor mai mici pătrate

mai mulţi dintre aceşi parametri au o interpretare fizică. Din acest motiv
vom dezvolta metode inferenţiale pentru un parametru individual β şi pentru
mulţimi de parametri β.

10.3 Metoda celor mai mici pătrate


Vom ilustra metoda printr-un exemplu: regresia simplă. Presupunem că

Y = β0 + β1 x + ε

unde ε are o distribuţie de probabilitate cu M(ε) = 0. Dacă β̂0 şi β̂1 sunt
estimatori ai parametrilor β0 şi β̂1 atunci Ŷ = β0 + β̂1 x este evident un
estimator al lui M(Y ).
Dacă
ŷi = β̂0 + β̂1 xi
este predicţia pentru valoarea lui y când x = xi , atunci abaterea valorii
observate a lui y de la dreapta ŷ (numită eroare) este

yi − ŷ;

vom determina parametrii β astfel ca să minimizeze suma pătratelor abate-


rilor
X n X n
2
SSE = (yi − ŷ) = [yi − (β̂0 + β̂1 xi )]2 .
i=1 i=1

Prescurtarea SSE vine de la sum of squares for error. Obţinem minimul


anulând derivatele parţiale

∂SSE ∂SSE
= 0 şi = 0;
∂ β̂0 ∂ β̂1

aceste două ecuaţii se numesc ecuaţii normale.

∂SSE
n
X X X 
=− 2[yi − (β̂0 + β̂1 xi ] = −2 yi − nβ0 + βˆ1 xi = 0
∂ β̂0 i=1
∂SSE X
=− 2[yi − (β̂0 + β1 xi )]xi
∂ β̂1
n n n
!
X X X
= −2 xi yi − β̂0 xi − β̂1 x2i =0
i=1 i=1 i=1
10.3. Metoda celor mai mici pătrate 227

Soluţiile sistemului sunt


n
X n
X n n
1X X
(xi − x)(yi − y) xi yi − xi yi
i=1 i=1
n i=1 i=1
β1 = n = !2
X X n Xn
(xi − x) 2 1
x2i − xi
i=1 i=1
n i=1

β0 = y − β̂1 x.
Pentru a arăta că acesta este ı̂ntr-adevăr minim trebuie să arătăm că matricea
hessiană este pozitiv definită (exerciţiu). Cantităţile
n
X n
X
Sxy = (xi − x)(yi − y) şi Sxx = (xi − x)2
i=1 i=1

apar frecvent ı̂n dezvoltarea modelelor liniare simple. Cu ajutorul lor putem
scrie
Sxy
β̂1 = , β̂0 = y − β̂1 x.
Sxx

Exemplul 10.3.1 Utilizaţi metoda celor mai mici pătrate pentru a obţine
dreapta de regresie corespunzătoare datelor

x −2 −1 0 1 2
y 0 0 1 1 3

Care este valoarea pentru x = 3.

Soluţie.
n
X n
1X X
xi yi − xi yi 1
Sxy n 7− ·0·5
β̂1 = = i=1 i=1
!2 = 5 = 0.7
Sxx X n Xn 1 2
1 10 − · 0
x2i − xi 5
i=1
n i=1

5
− 0.7 · 0 = 1
β̂0 = y − β̂1 x =
5
Deci ŷ = 1 + 0.7x. Pentru x = 3, ŷ = 1 + 0.7 · 3 = 3.1. Graficul apare ı̂n
figura 10.3.
228 Modele liniare şi metoda celor mai mici pătrate

2.5

1.5

0.5

−0.5
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2

Figura 10.3: Dreapta de regresie pentru exemplul 10.3.1

10.4 Proprietăţi ale estimatorilor ı̂n sensul


celor mai mici pătrate pentru modelul
regresiei liniare simple
Considerăm modelul
Y = β0 + β1 x + ε,
unde ε este o variabilă aleatoare cu media 0 şi dispersia σ 2 . Presupunem că
diferenţa dintre Y şi M(Y ) = β0 + β1 x este distribuită ı̂n jurul lui 0 cu o
dispersie care nu depinde de x. De notat că D 2 (Y ) = D 2 (ε) = σ 2 .

Propoziţia 10.4.1 1. Estimatorii β̂0 şi β̂1 sunt nedeplasaţi, adică

M(β̂i ) = βi , i = 0, 1.
X
x2i
2 2
2. D (β̂0 ) = c00 σ unde c00 = .
nSxx
1
3. D 2 (β̂1 ) = c11 σ 2 , unde c11 = .
Sxx
−x
4. Cov(β̂0 , β̂1 ) = c01 σ 2 , unde c01 = .
Sxx
5. Un estimator nedeplasat
X al lui σ 2 este S 2 = SSE/(n − 2) unde SSE =
Syy − β̂1 Sxy şi Syy = (yi − y)2 . În plus dacă εi , erorile individuale, sunt
normal distribuite atunci:
6. β̂0 şi β̂1 sunt normal distribuite.
10.4. Proprietăţi ale estimatorilor 229

(n − 2)S 2
7. Variabila aleatoare are o distribuţie χ2 cu n − 2 grade de
σ2
libertate.
8. Statistica S 2 este independentă atât de β̂0 cât şi de β̂1 .

Demonstraţie. Presupunem că am făcut n observaţii independente şi


că ı̂nainte de selecţie avem n variabile independente de forma

Yi = β0 + β1 xi + εi .

Dar
0
X X zX }| {
Sxy (xi − x)(Yi − Y ) (xi − x)Yi − Y (xi − x)
β̂1 = = X =
Sxx (xi − x)2 Sxx

X
(xi − x)Yi
=
Sxx
şi X X
(xi − x)M(Yi ) (xi − x)(β0 + β1 xi )
M(β̂1 ) = =
Sxx Sxx
0
zX }| { X X
(xi − x) (xi − x)x (xi − x)2
= β0 + β1 = β1 = β1 ,
Sxx Sxx Sxx
adică β̂1 este un estimator nedeplasat al lui β1 .
Să calculăm acum dispersia lui β1 .
 2 X  2 X
2 1 2 1 σ2
D (β1 ) = D [(xi − x)Yi ] = (xi − x)D 2 (Yi ) =
Sxx Sxx Sxx

Să calculăm acum valoarea medie şi dispersia lui β̂0 = Y − β̂1 x

D 2 (β0 ) = D 2 (Y ) + x2 D 2 (β1 ) − 2xCov(Y , β1 )

Trebuie să găsim D 2 (Y ) şi Cov(Y , β̂1 ) pentru a obţine D 2 (β̂0 ). Deoarece
Yi = β0 + β1 xi + εi observăm că
1X
Y = Yi = β0 + β1 x + ε
n
230 Modele liniare şi metoda celor mai mici pătrate

Astfel
E(Y ) = β0 + β1 x + M(ε) = β0 + β1 x
şi
1 2 σ2
D 2 (Y ) = D 2 (ε) = D (εi ) =
n n
Pentru a găsi Cov(Y , β̂1 ) rescriem expresia lui β̂1 sub forma
X
β̂1 = ci y i

unde
xi − x
ci = .
Sxx
X
Observăm că ci = 0. Atunci
X   X 
1
Cov(Y , β̂1 ) = Cov Yi , ci Y i
n
X  ci  X X  cj 
= D 2 (Yi ) + Cov(Yi , Yj ).
n i<j
n

Deoarece Yi şi Yj unde i 6= j sunt independente, Cov(Yi , Yj ) = 0. De


asemenea V (Yi ) = σ 2 şi deci

σ2 X
Cov(Y , β1 ) = ci = 0.
n
Revenind la calculul mediei şi dispersiei lui

β̂0 = Y − β̂1 x

M(β̂0 ) = M(Y ) − M(β̂1 )x = β0 + β1 x − β1 x = β0 .


Deoarece D 2 (Y ), D 2 (β̂1 ) şi Cov(Y , β̂1 ) au fost calculate

D 2 (β̂0 ) = D 2 (Y ) + x2 D 2 (β̂1 ) − 2xCov(Y , β1 )

2
 2  2
 σ 2 X x2
σ σ 1 x i
= + x2 = σ2 + = .
n Sxx n Sxx nSxx
Mai departe

Cov(β̂0 , β1 ) = Cov(Y − β̂1 x, β1 ) = Cov(Y , β1 ) −xCov(β1 , β1 )


| {z }
0
10.4. Proprietăţi ale estimatorilor 231

−xσ 2
= −xD 2 (β1 ) =
Sxx
Deci β̂0 şi β̂1 sunt corelate (şi deci dependente), ı̂n afară de cazul când
x = 0.
Dispersiile estimatorilor sunt exprimate cu ajutorul lui σ 2 = D 2 (ε), care
este necunoscut. Vom arăta că
n
1 X 1
S2 = (Yi − Ŷi )2 = SSE
n − 2 i=1 n−2

este un estimator nedeplasat al lui σ 2 . De notat că 2 de la numitor corespunde


numărului de parametri β estimaţi ı̂n model
hX i hX i
M(SSE) = M (Yi − Ŷi )2 = M (Yi − β̂0 − β̂1 xi )2
hX i hX i
=M (Yi − Y + β̂1 x − β̂1 xi )2 = M [(Yi − Y ) − β̂1 (xi − x)]2
hX X X i
=M (Yi − Y )2 + β̂12 (xi − x) − 2β̂1 (xi − x)(Yi − Y )
X X
Deoarece (xi − x)(Yi − Y ) = (xi − x)2 β̂1 , ultimii doi termeni din
X
medie dau −β̂12 (xi − x)2 . De asemenea
X X 2
(Yi − Y )2 = Yi2 − nY

şi deci
hX i hX 2
i
2 2 2
M (Yi − Ŷi ) = M Yi − nY − β̂1 Sxx
X
= M(Yi2 ) − nM(Y )2 − Sxx M(β̂12 ).

Ţinând cont că M(U 2 ) = D 2 (U) + [M(U)]2 , pentru orice variabilă alea-
toare U, observăm că
hX i X
2
M (Yi − Ŷi ) = {D 2 (Yi ) + [M(Yi )]2 } − n{D 2 (Y ) + [M(Y )]2 }

−Sxx {D 2 (β̂1 ) + [M(β1 )]2 }


X  2   2 
2 2 σ 2 σ 2
= nσ + (β0 + β1 xi ) − n + (β0 + β1 x) − Sxx + β1
n Sxx
232 Modele liniare şi metoda celor mai mici pătrate

Ultima expresie se simplifică la (n − 2)σ 2 . Deci un estimator nedeplasat


al lui σ 2 este
 X
2 1 1
S = (Yi − Ŷi )2 = SSE
n−2 n−2
Un mod simplu de a calcula SSE este dat de
X X
SSE = (yi − y)2 − β̂1 (xi − x)(yi − y) = Syy − β 1 Sxy
n
X
unde Syy = (yi − y)2 .
i=1
Până acum am folosit doar faptul că M(ε) = 0 şi D 2 (ε) = σ 2 (indepen-
dentă de x). Este natural să presupunem că ε ∈ N(0, σ 2 ). Rezultă că Yi
este normal distribuit cu media β0 + β1 x2 şi dispersia σ 2 . Deoarece β̂0 şi
β̂1 sunt funcţii liniare de Y1 , Y2, . . . , Yn , estimatorii sunt normali distribuiţi.
Mai mult, dacă ipoteza de normalitate este garantată rezultă că
(n − 2)S 2 SSE
2
=
σ σ2
are o distribuţie χ2 cu n − 2 grade de libertate.

10.5 Inferenţe privind parametrii βi ai regre-


siei liniare
Dacă ε este normală, β̂i , i = 0, 1 sunt estimatori normali şi nedeplasaţi ai
lui βi cu X
x2i
2 2
D (β̂0 ) = c00 σ cu c00 = (10.1)
nSxx
şi
1
D 2 (β̂1 ) = c11 σ 2 cu c11 = (10.2)
Sxx
Putem testa ipoteza H0 : βi = βi0 (βi0 dată) utilizând statistica

β̂i − βi0
Z= √
σ cii

cu cii daţi de (10.1) şi (10.2).


Pentru a putea utiliza Z avem nevoie să cunoaştem fie σ fie o estimaţie
bună a ei (30 sau mai multe grade de libertate). În general o astfel de
10.6. Testarea ipotezelor pentru βi 233

r
SSE
estimaţie nu este disponibilă. Dacă se estimează σ prin S = , statis-
n−2
tica
β̂i − βi0
T = √
S cii
este distribuită Student cu n − 2 grade de libertate.
Putem testa ipoteze asupra lui β̂i sau să dăm intervale de ı̂ncredere bazate
pe statistica T de mai sus.

10.6 Testarea ipotezelor pentru βi


H0 : βi = βi0
Ha : βi > βi0 (test unilateral dreapta)
βi < βi0 (test unilateral stânga)
βi 6= βi0 (test bilateral)
Statistica testului
β̂i − βi0
T = √
S cii
Regiunea de respingere
t > tα
t < −tα
|t| > tα/2
unde X
x2i 1
c00 = şi c11 =
nSxx Sxx
Avem n − 2 grade de libertate. Intervalele de ı̂ncredere 1 − α pentru βi
au forma

βi = β̂i ± tn−2, α2 S cii

10.7 Inferenţe asupra funcţiilor liniare de pa-


rametrii modelului
Cazul regresiei liniare simple
Considerăm funcţia
θ = a0 β0 + a1 β1
234 Modele liniare şi metoda celor mai mici pătrate

unde a0 şi a1 sunt constante reale. Estimatorul

θ̂ = a0 β̂0 + a1 β̂1

este un estimator nedeplasat pentru θ. Dispersia lui este

D 2 (θ̂) = a20 D 2 (β̂0 ) + a21 D 2 (β̂1 ) + 2a0 a1 Cov(β̂1 , β̂1 )

care, aplicând propoziţia 10.4.1 ne dă


X
x2i
2
a0 + a21 − 2a0 a1 x
2
D (θ̂) = n σ2. (10.3)
Sxx

Deoarece β̂0 şi β̂1 sunt normali distribuiţi, θ̂ este de asemenea normal
distribuit, iar statistica
θ̂ − θ
Z=
σθ̂
este normală standard. Putem testa ipoteza H0 : θ = θ0 , unde θ0 este o
valoare specificată a lui θ = a0 β0 + a1 β1 . De asemenea intervalul de ı̂ncredere
1 − α pentru θ este θ̂ ± zα/2 σθ̂ .
Dacă σ 2 nu este disponibil, se ı̂nlocuieşte cu estimaţia sa S 2 şi se ajunge
la o distribuţie Student cu n − 2 grade de libertate.
Test pentru θ = a0 β0 + a1 β1
H0 : θ= θ0
 θ > θ0
Ha : θ < θ0

θ 6= θ0
Statistica testului

θ̂ − θ0
T = v X  ∈ T (n − 2)
u 2
u xi
u a2 + a21 − 2a0 a1 x 
u 0 
u
S u n 
t S xx 

Regiunea de respingere 
 t > tα
t < −tα

|t| > tα/2
10.8. Predicţia unei valori particulare ı̂n cazul regresiei simple 235

Intervalul de ı̂ncredere 1 − α pentru θ = a0 β0 + a1 β1


v X 
u
u x2
u 2 i
u a0 + a21 − 2a0 a1 x 
u n 
θ̂ ± tn−2, α2 S u 
t Sxx 

Tehnicile de mai sus se pot aplica la estimarea lui M(Y ) pentru o valoare
dată x = x∗ , căci
M(Y ) = β0 + β1 x∗
este un caz special al lui a0 β0 + a1 β1 pentru a0 = 1 şi a1 = x∗ .
Utilizând expresia (10.3) a dispersiei obţinem
X
x2i
2
a0 + a21 − 2a0 a1 x 1 (x∗ − x)2
n = +
Sxx n Sxx
De aici se obţine un interval de ı̂ncredere 1 − α pentru M(Y ) când x = x∗
s
1 (x∗ − x)2
β̂0 + β̂1 x ± tn−2, α2 S +
n Sxx

10.8 Predicţia unei valori particulare ı̂n cazul


regresiei simple
Vom estima valoarea Y = β0 +β1 x+ε pentru x = x∗ prin Ŷ ∗ = β̂0 + β̂1 Y ∗ .
Ŷ va fi atât un predictor pentru y ∗ cât şi un estimator pentru E(Y ). Eroarea

va fi
err = Y ∗ − Ŷ ∗
Deoarece Y ∗ şi Ŷ ∗ sunt normal distribuite eroarea este de asemenea nor-
mal distribuită
M(err) = M(Y ∗ − Ŷ ∗ ) = M(Y ∗ )−M(Ŷ 2 ) = β0 +β1 x∗ +M(n)−β0 −β1 x∗ = 0
La fel
D 2 (err) = D 2 (Y ∗ − Ŷ ∗ ) = D 2 (Y ∗ ) − D 2 (Ŷ ∗ ) − 2Cov(Y ∗ , Ŷ ∗ )
Deoarece prevedem o valoare viitoare Y ∗ care nu este implicată ı̂n calculul
lui Ŷ ∗ , Y ∗ şi Ŷ ∗ sunt independente şi Cov(Y ∗ , Ŷ ∗ ) = 0. Atunci
D 2 (err) = D 2 (Y ∗ ) + D 2 (Ŷ ∗ ) = σ 2 + D 2 (β̂0 + β̂1 x∗ )
236 Modele liniare şi metoda celor mai mici pătrate

   
21 (x∗ − x)2 2 2 1 (x∗ − x)2
=σ + + σ = σ 1+ +
n Sxx n Sxx
Rezultă că statistica

Y ∗ − Ŷ ∗
Z= r
1 (x∗ − x)2
σ 1+ +
n Sxx
este normală standard. Estimând σ prin S obţinem că statistica

Y ∗ − Ŷ ∗
T = r
1 (x∗ − x)2
σ 1+ +
n Sxx
este distribuită Student cu n − 2 grade de libertate.
Vom obţine cu ajutorul ei un interval de ı̂ncredere 1 − α pentru y ∗ .

P (tn−2, α2 < T < tn−2,1− α2 ) = 1 − α ⇔


 
 Y ∗ − Ŷ ∗ 
P −t
 n−2,1− 2
α < r < tn−2,1− α = 1 − α
2
1 (x∗ − x)2
σ 1+ +
n Sxx

De aici se obţine pentru Y un interval de ı̂ncredere de forma
s
1 (x∗ − x)2
β̂0 + β̂1 x∗ ± tn−2, α2 S 1 + +
n Sxx

Exemplul 10.8.1 Pentru datele din exemplul 10.3.1 vom da un interval de


ı̂ncredere de 90% pentru M(Y ) şi Y ı̂n cazul când x = 1.

Soluţie. Avem β̂0 = 1, β̂1 = 0.7, x∗ = 1, n = 5, x = 0, s = 0.606 şi Sxx = 10.


Obţinem dispersia

1 (x∗ − x)2 1 (1 − 0)2


+ = + = 0.3.
n Sxx 5 10
Cuantila tn−2, α2 = t3,0.05 = −2.353 şi intervalul de ı̂ncredere este
s
1 (x∗ − x)
β̂0 + β̂1 x∗ ± tn−2, α2 +
n Sxx
10.9. Corelaţie 237


= 1 + 0.7 · 1 + (2.353) · (0.606) 0.3 = 1.7 ± 0.7805.
Intervalul de ı̂ncredere de 90% pentru Y ∗ este
s
1 (x∗ − x)2
β̂0 + β̂1 x∗ ± tn−2, α2 S 1 + +
n Sxx

= 1.7 ± 2.353 · 0.606 1 + 0.3 = 1.7 ± 1.6248
Figura 10.4 reprezintă dreapta de regresie estimată şi valorilea lui M(Y ) şi
Y când x = 1. Se arată şi banda de ı̂ncredere pentru M(Y ) şi pewntru Y .
Cele două benzi sunt mai ı̂nguste pentru x = x.
8

−2

−4
−3 −2 −1 0 1 2 3 4 5

Figura 10.4: Dreaptă de regresie cu bandă de ı̂ncredere pentru M(Y ) (curbele


cu linie continuă) şi bandă de predicţie pentru Y (curbele cu linie punctată).
Pe figură apare şi intervalul de ı̂ncredere pentru M(Y ) când x = 1.

10.9 Corelaţie
Să considerăm vectorul aleator (X, Y ). Ne interesează dacă X şi Y
sunt independente. Dacă (X, Y ) are o distribuţie nominală bidimensională,
atunci testarea independenţei este echivalentă cu a testa dacă coeficientul de
corelaţie ρ este egal cu zero. Reamintim că ρ este pozitiv dacă X şi Y cresc
deodată şi negativ dacă Y descreşte când Y creşte:
Fie (X1 , Y1), (X2 , Y2 ), . . . , (Xn , Yn ) variabile de selecţie pentru o distribu-
ţie normală bidimensională. Estimatorul de verosimilitate maximă pentru ρ
238 Modele liniare şi metoda celor mai mici pătrate

este coeficientul de corelaţie de selecţie


n
X
(Xi − X)(Yi − Y )
i=1
r=s n n
X X
2
(Xi − X) (Yi − Y )2
i=1 i=1

El poate fi exprimat cu ajutorul cantităţilor familiare


s
Sxy Sxx
r=p = β1
Sxx Syy Syy

Rezultă că r şi β̂1 au acelaşi semn. În cazul când (X, Y ) are o distribuţie
normală bidimensională
σy
M(Y |X = x) = β0 + β1 x unde β1 = ρ
σx

Astfel a testa H0 : ρ = 0 ı̂n raport cu H1 : ρ > 0 este echivalent cu


a testa H0 : β1 = 0 ı̂n raport cu H1 : β1 > 0 şi analoagele. Putem folosi
statistica
β̂1 − 0
T =
S

Sxx
care are o distribuţie Student cu n − 2 grade de libertate. De fapt putem
scrie statistica sub forma √
r n−2
T = √
1 − r2
Distribuţia lui r este dificil de obţinut, dar dificultatea poate fi evitată
1 1+r
utilizând faptul că ln este distribuită aproximativ normal cu media
2 1−r
1 1+ρ 1
ln şi dispersia . Astfel pentru a testa ipoteza H0 : ρ = ρ0
2 1−ρ n−3
putem utiliza un test de tip Z cu statistica

1 1 + r 1 1 + ρ0
ln − ln
2 1 − r 2 1 − ρ0
Z=
1

n−3
10.10. Utilizarea matricelor la modele liniare 239

10.10 Utilizarea matricelor la modele liniare


Presupunem că avem modelul liniar

Y = β0 + β1 x1 + · · · + βk xk + ε

şi că am făcut n observaţii independente y1 , y2 , . . . , yn referitoare la caracte-


ristica Y . Putem scrie observaţia yi sub forma

yi = β0 + β1 xi1 + β2 xi2 + · · · + βn xik + εi

unde xij este valoarea celei de-a j-a variabile independente la observaţia a
i-a, unde i = 1, 2, . . . , n. Definim acum matricele următoare cu x0 = 1:
       
y1 x0 x11 x12 . . . x1k β0 ε1
 y2   x0 x21 x22 . . . x2k   β1   ε2 
       
Y =  ..  , X =  .. .. .. ..  , β =  ..  , ε =  .. 
 .   . . . .   .   . 
yn x0 xn1 xn2 . . . xnk βk εk

Astfel cele n ecuaţii ce reprezintă pe yi ca funcţie de x, β şi ε se pot scrie


sub forma
Y = Xβ + ε
Pentru modelul liniar simplu

Y = β0 + β1 x + ε

avem
     
y1 1 x1 ε1
    
 y2   1 x2 

 ε2 
 β0
Y = .. , X= .. ..  , ε= .. , β=
 .   . .   .  β1
yn 1 xn εn

Sistemul pentru β0 şi β1 are forma


n
X n
X
nβ̂0 + β̂1 xi = yi
i=1 i=1

n
X n
X n
X
β̂0 xi + β̂1 x2i = xi yi
i=1 i=1 i=1
240 Modele liniare şi metoda celor mai mici pătrate

Deoarece
   X 
1 x1 n xi
    
T 1 1 ... 1  1 x2   
X X=  .. ..  =  X Xn 
x1 x2 . . . xn  . .   2 
xi xi
1 xn i=1

şi  X 
n

 yi 
 i=1 
 
XT Y =  
 X
n 
 
xi yi
i=1

ecuaţiile normale se scriu sub forma

(X T X)β̂ = X T Y

unde  
β̂0
β̂ = ,
β̂1
deci
β̂ = (X T X)−1 X T Y
Expresiile pentru D 2 (β̂0 ), D 2 (β̂1 ), Cov(β̂0 , β̂1 ) din modelul liniar simplu
pot fi exprimate convenabil cu ajutorul matricelor. Deoarece
 X 
n xi
T  
X X = X X 
2
xi xi

pentru inversă se obţine


 X 
x2i x
 −   
 nSxx Sxx 
(X T X)−1 =  = c00 c01
  c10 c11
 x 1 

Sxx Sxx
Verificând dispersiile şi covarianţele deduse ı̂n secţiunea ... observăm că

D 2 (β̂i )2 = cii σ 2 , i = 0, 1
10.11. Proprietăţi ale estimatorilor 241

şi
Cov(β̂0 , β̂1 ) = c01 σ 2 = c10 σ 2
De asemenea
SSE = Y T Y − Ŷ T X T Y,
X
căci Y T Y = Yi2 .

10.11 Proprietăţi ale estimatorilor ı̂n sensul


celor mai mici pătrate pentru modelul
regresiei liniare
Rezultatele din cazul modelului simplu se extind la modelul liniar multi-
plu
Yi = β0 + β1 xi1 + · · · + βk xik + εi , i = 1, n
Presupunem că ε1 , ε2, . . . , εn sunt variabile aleatoare independente cu
M(εi ) şi D 2 (εi ) = σ 2 . Atunci estimatorii ı̂n sensul celor mai mici pătrate
sunt daţi de
β̂ = (X T X)−1 X T Y
cu condiţia ca (X T X)−1 să existe. Proprietăile acestor estimatori sunt date
ı̂n continuare.

Propoziţia 10.11.1 Proprietăţi ale estimatorilor CMMP - regresie


liniară multiplă
1. M(β̂i ) = βi , i = 0, k
2. D 2 (βi ) − cii σ 2 , unde cij sunt elementele lui (X T X)−1 . Reamintim că
numerotarea liniilor şi coloanelor ı̂ncepe de la 0.
3. Cov(β̂i , β̂j ) = cij σ 2 .
4. Un estimator nedeplasat al lui σ 2 este S 2 = SSE/[n − (k + 1)], unde
SSE = Y T Y − β̂ T X T Y .
Dacă ı̂n plus εi , i = 1, n sunt normal distribuite
5. β̂i , i = 0, k este normal distribuit.
6. Variabila aleatoare
[n − (k + 1)]S 2
σ2
are o distribuţie χ2 cu n − (k + 1) grade de libertate.
7. Statisticile S 2 şi β̂i , i = 1, k sunt independente.
242 Modele liniare şi metoda celor mai mici pătrate

10.12 Inferenţe referitoare la funcţii liniare


de parametrii modelului
Presupunem că dorim să facem inferenţe despre funcţia liniară

a0 β0 + a1 β1 + a2 β2 + · · · + ak βk (10.4)

unde a0 , a1 , . . . , ak sunt constante (unele dintre ele pot fi nule).


Definind matricea (k + 1) × 1 a = [a0 a1 . . . ak ]T putem exprima (10.4)
sub forma
aT β = a0 β0 + · · · + ak βk .
Un estimator nedeplasat al lui aT β este aT β̂. Într-adevăr

M(aT β̂) = M(a0 β̂0 + · · · + ak β̂k ) = a0 β0 + · · · + ak βk = aT β.

Pentru dispersie se obţine

D 2 (aT β̂) = D 2 (a0 β̂0 + · · · + ak β̂k ) = a20 D 2 (β̂0 ) + · · · + a2k D 2 (β̂k )

+2a0 a1 Cov(β̂0 , β̂1 ) + · · · + 2a1 a2 Cov(β̂1 , β̂2 ) + · · · + 2ak−1 ak Cov(β̂k−1, β̂k )


unde D 2 (β̂i ) = cii σ 2 şi Cov(β̂i , β̂j ) = cij σ 2 . Se poate verifica că D 2 (aT β̂) este
dată de
D 2 (aT β̂) = [aT (X T X)−1 a]σ 2 .
Deoarece β̂0 , β̂1 , . . . , β̂k sunt normal distribuite aT β̂ este normal distri-
buită cu media aT β şi D 2 (aT β̂) = [aT (X T X)−1 a]σ 2 , conchidem că

aT β̂ − aT β aT β̂ − aT β
Z=p = p
D 2 (aT β) σ aT (X T X)−1 a

este normală standard şi poate fi folosită la testarea ipotezei

H0 : aT β = (aT β)0

unde (aT β)0 este o valoare dată. Expresia unui interval de ı̂ncredere 1 − α
pentru aT β este p
aT β ± zα/2 σ aT (X T X)−1 a.
Dacă ı̂nlocuim σ cu S, variabila aleatoare

aT β̂ − aT β
T = p
S aT (X T X)−1 a
10.13. Predicţia ı̂n regresia multiplă 243

are o distribuţie Student cu [n − (k + 1)] grade de libertate. Cu ajutorul ei


putem dezvolta următorul test
H0 : aT β = (aT β)0
 T
 a β > (aT β)0
H1 : aT β < (aT β)0
 T
a β 6= (aT β)0
Statistica testului
aT β̂ − (aT β)
T = p
S aT (X T X)−1 a
Regiunea de respingere

 t > tn−(k+1),α
t < −tn−(k+1),α

|t| > tn−(k+1), α2

Intervalul de ı̂ncredere pentru (1 − α) pentru aT β este dat


p
αT β̂ ± tn−(k+1), α2 S aT (X T X)−1 a.
Dacă dorim să facem inferenţe individuale asupra parametrilor individuali
β̂i alegem vectorul a cu componentele

1, dacă j = i
aj =
0, dacă j 6= i

10.13 Predicţia ı̂n regresia multiplă


Considerăm modelul liniar
Y = β0 + β1 x1 + β2 x2 + · · · + βk xk + ε
şi presupunem că dorim să prognozăm valoarea lui Y ∗ când x = x∗1 , x2 =
x∗2 , . . . , xk = x∗ . Prognozăm valoarea lui Y ∗ cu
Ŷ ∗ = β̂0 + β̂1 x∗1 + · · · + β̂k x∗k = aT β̂
Ca ı̂n cazul simplu
eroare = Y ∗ − Ŷ ∗
Deoarece atât Y ∗ cât şi Ŷ ∗ sunt normal distribuite eroarea este normal
distribuită cu
M(eroare) = 0 şi D 2 (eroare) = σ 2 [1 + aT (xT X)−1 a]
244 Modele liniare şi metoda celor mai mici pătrate

variabila aleatoare
Y ∗ − Ŷ ∗
Z= p
σ 1 + aT (X T X)−1 a
este normală standard. Dacă σ este estimat prin se poate arăta că
Y ∗ − Ŷ ∗
T = p
S 1 + aT (X T X)−1 a
are o distribuţie Student cu n − (k + 1) grade de libertate. Obţinem astfel
următorul interval de ı̂ncredere 1 − α pentru Y
p
aT β̂ ± tn−(k+1), α2 S 1 + aT (X T X)−1 a

unde x1 = x∗1 , x2 = x∗2 , . . . , xk = x∗k şi aT = [1, x∗1 , x∗2 , . . . , x∗k ].


Exemplul 10.13.1 Datele din exemplul 10.3.1 se pot utiliza pentru predicţia
ı̂n x = 2 a unei valori particulare a lui Y cu 1 − α = 0.90. Am determinat
   
1 T −1 1/5 0
β̂ = şi (X X) =
.7 0 1/10
Deoarece x = 2, intervalul de predicţie dorit este dat de
p
αT β̂ ± tn−(k+1) S 1 + aT (X T X)−1 a
cu    
1 1 T
a= , a β̂ = [1 2] = 2.7
2 .7
  
T T −1 1/5 0 1
a (X X) a = [1 2] = 0.6
0 1/10 2
Ca mai ı̂nainte S = 0.606, numărul de grade de libertate este n − 2 = 3,
iar t3,0.05 = 2.353. Efectuând calculele, obţine ı̂n final

2.4 ± 2.353 · 0.606 1 + 0.6 = 2.4 ± 1.804
Exemplul 10.13.2 Pentru datele din exemplul 10.3.1, determinaţi parame-
trii modelului
Y = β0 + β1 x + β2 x2 + ε
De notat că x1 = x, x2 = x2 şi k = 2. Astfel
   
0 1 −2 4
 0   1 −1 1 
   
Y =  1 , X =  1 0
 0 

 1   1 1 1 
3 1 2 4
10.14. Testarea ipotezei H0 : βg+1 = βg+2 = · · · = βk = 0 245

Mai departe
   
5 0 10 5
X T X =  0 10 0  , XT Y =  7 
10 0 34 13
iar  
17/35 0 −1/7
(X T X)−1 =  0 1/10 0 
−1/7 0 1/14
    
17/35 0 −1/7 5 4/7
β̂ = (X T X)−1 X T Y =  0 1/10 0   7  =  7/10  .
−1/7 0 1/14 13 3/14
Deci ecuaţia finală este
4 7 3
Ŷ = + x1 + x2 .
7 10 14
Graficul se dă ı̂n figura 10.5.

2.5

1.5

0.5

−0.5
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2

Figura 10.5: Parabolă de regresie

10.14 Testarea ipotezei H0 : βg+1 = βg+2 = · · · =


βk = 0
Presupunem că dorim să comparăm un model redus de forma
modelul R : Y = β0 + β1 x1 + β2 x2 + · · · + βg xg + ε
246 Modele liniare şi metoda celor mai mici pătrate

cu modelul liniar ce conţine toate variabilele independente candidat (model


complet):

modelul C : Y = β0 + β1 x1 + β2 x2 + · · · + βg xg + βg+1 + · · · + βk + ε

De notat că modelul complet conţine toţi termenii modelului redus R, plus
termeni suplimentari xg+1 , xg+2 , . . . , xk (k > g). Dacă xg+1 , xg+2 , . . . , xk
contribuie la predicţia lui Y cu o cantitate substanţială de informaţie care
nu este conţinută ı̂n variabilele x1 , x2 , . . . , xg (adică, cel puţin unul din
parametrii βg+1 , βg+2 , . . . , βk este nenul), care va fi relaţia dintre SSER şi
SSEC ? Intuitiv, dacă xg+1 , xg+2 , . . . , xk sunt variabile importante pentru
cantitatea de informaţie, modelul complet C va avea o eroare de predicţie
mai mică decât modelul R, adică SSEC < SSER . Cu cât va fi mai mare
diferenţa (SSER − SSEC ), cu atât va fi mai puternică dovada ı̂n sprijinul
ipotezei alternative că xg+1 , xg+2 , . . . , xk contribuie cu informaţie la predicţia
lui Y şi să respingem ipoteza nulă

H0 : βg+1 = βg+2 = · · · = βk = 0. (10.5)

Scăderea ı̂n suma pătratelor abaterilor SSER − SSEC se numeşte suma


pătratelor asociată cu variabilele xg+1 , xg+2 , . . . , xk , adjustată pentru varia-
bilele x1 , x2 , . . . , xg .
Valorile mari ale lui (SSER − SSEC ) ne vor conduce la respingerea ipo-
tezei nule (10.5).
H0 : βg+1 = βg+2 = · · · = βk = 0.
Ce ı̂nseamnă ,,valori mari”? Vom dezvolta un test statistic ce depinde de
(SSER − SSEC ) dacă H0 este adevărată.
Se observă că

SSER = SSEC + (SSER − SSEC ).

Am partiţionat SSER ı̂n două părţi: SSEC şi diferenţa (SSER − SSEC ).
Dacă H0 este adevărată, atunci
SSER
χ23 = ,
σ2
SSEC
χ22 = ,
σ2
SSER − SSEC
χ21 =
σ2
au distribuţii χ2 cu (n − [g + 1]), (n − [k + 1]), şi respectiv (k − g) gl. Mai
mult, se poate arăta că χ22 şi χ21 sunt independente statistic.
10.14. Testarea ipotezei H0 : βg+1 = βg+2 = · · · = βk = 0 247

Considerăm raportul

χ21 SSER − SSEC


k−g k−g
F = 2 = .
χ2 SSEC
n − (k + 1) n − (k + 1)

Dacă H0 : βg+1 = βg+2 = · · · = βk = 0 este adevărată, atunci statistica F


are o distribuţie F cu ν1 = k − g gl la numărător şi ν2 = n − (k + 1) grade de
libertate la numitor. Valori mari ale lui SSER − SSEC vor conduce la valori
mari ale lui F care vor favoriza respingerea lui H0 ; dacă dorim un test cu o
eroare de tipul I egală cu α, va rezulta că regiunea de respingere are forma

F > Fα .

Exemplul 10.14.1 Ne permit datele din exemplul 10.3.1 să tragem conclu-
zia că modelul
Y = β0 + β1 x + β2 x2 + ε
contribuie cu informaţie la predicţia lui Y ? Adică, vom testa ipoteza H0 :
β1 = β2 = 0 ı̂n raport cu alternativa Ha : cel puţin unul dintre parametrii β1 ,
β2 este nenul (α = .05).

Solution. Pentru modelul complet, am determinat ı̂n exemplul 11.15 că


SSEC = .463. Modelul adecvat pentru H0 : β1 = β2 = 0 este

Y = β0 + ε
 T  T
unde Y = 0 0 1 1 3 , X = 1 1 1 1 1 . Aplicând m.c.m.m.p.
se obţine βb = y = 1. Astfel,

b TY
SSER = Y T Y − βX
X X X 1 X 2
= yi2 − y yi = yi2 − yi
n
1
= 11 − · 25 = 6.
5
Numărul de variabile independente din modelul complet este k = 2, iar ı̂n
modelul redus este g = 0. Deci,

(SSER − SSEC )/(k − g)


F = = 11.959
SSEC / [n − (k + 1)]
248 Modele liniare şi metoda celor mai mici pătrate

Cuantila lui F pentru α = .05 cu ν1 = k − g = 2 gl la numărător şi


ν2 = n − (k + 1) = 2 la numitor este F −1 (0.095, 2, 2) = 19. Deci, va-
loarea observată pentru statistica testului nu cade ı̂n regiunea de respin-
gere şi tragem concluzia că la nivelul α = .05 selecţia nu ne permite să
afirmăm că cel puţin unul dintre β1 şi β2 diferă de zero. p-valoarea este
1 − F (11.959, 2, 2) = 0.0772.
Considerăm situaţia ı̂n care trebuie să determinăm un model cu k variabile
independente şi să testăm ipoteza nulă
H0 : β1 = β2 = · · · = βk = 0
că niciuna din variabilele independente din model nu contribuie cu informaţie
substanţială la predicţia lui Y . Examinarea soluţiei din exemplul 10.14.1. ne
va convinge că modelul redus adecvat este de forma
Y = β0 + ε.
El conţine g = 0 variabile independente şi că SSER = Syy . Astfel, un posibil
test pentru
H0 : β1 = β2 = · · · = βk = 0
s-ar putea baza pe statistica
(SSER − SSEC )/(k − g) (Syy − SSEC )/k
F = =
SSEC / [n − (k + 1)] SSEC / [n − (k + 1)]
care are o distribuţie F cu ν1 = k şi ν2 = n − (k + 1) gl la numărător şi
respectiv la numitor.
Ce proporţie de variaţie din valorile observate ale variabilei de răspuns,
Y , este explicată de ı̂ntregul set de variabile independente x1 , x2 , . . . , xk ?
Răspunsul este dat de coeficientul de determinationare multipl ă R2 , unde
Syy − SSEC
R2 = .
Syy
Numărătorul lui R2 cuantifică variaţia valorilor y, iar numărătorul cuantifică
cuantifică mărimea variaţiei valorilor lui y care este explicată de ı̂ntregul set
de variabile independente x1 , x2 , . . . , xk .
Se poate arăta că statistica F pentru testarea
H0 : β1 = β2 = · · · = βk = 0
se poate calcula din R2 cu formula
 
n − (k + 1) R2
F = .
k 1 − R2
10.14. Testarea ipotezei H0 : βg+1 = βg+2 = · · · = βk = 0 249

Ca mai ı̂nainte, această statistică are o distribuţie F cu ν1 = k şi ν2 =


n − (k + 1) grade de libertate la numărător şi respectiv la numitor.
Dăm ı̂n continuare o altă aplicaţie a metodei decomparare a modelului
complet şi redus.
Exemplul 10.14.2 Dorim să găsim relaţia dintre rezistenţa la abraziune a
cauciucului (Y ) şi volumul de umplutură de siliciu x′1 şi de agent de legare
x′2 . Particulele fine de siliciu se adaugă la cauciuc pentru a creşte tăria şi
rezistenţa la abraziune. Agentul de legare leagă chimic umplutura de lanţul
de polimeri al cauciucului şi astfel creşte eficienţa umpluturii. Unitatea de
măsură pentru x′1 şi x′2 este părţi la 100 de părţi de cauciuc (parts per hundred
parts rubber), notată cu phr. Pentru simplitatea şi stabilitatea calculelor,
cantitatea de umplutură de siliciu şi agent de legare sunt scalate prin
x′1 − 50 x′2 − 4
x1 = , x2 = .
6.7 2
Datele1 se dau ı̂n tabela 10.1. De notat că se utilizează 5 niveluri atât pentru
x1 cât şi pentru x2 , cu punctul (x1 = 0, x2 = 0) repetat de trei ori. Să
determinăm modelul
Y = β0 + β1 x1 + β2 x2 + β3 x21 + β4 x22 + β5 x1 x2 + ε
cu aceste date. Acest model reprezintă o suprafaţă conică ı̂n planul (x1 , x2 ).
Determinaţi un model de ordinul doi şi testaţiH0 : β3 = β4 = β5 = 0.
(Testăm dacă suprafaţa este plană ı̂n raport cu alternativa că este conică
(Alegeţi α = .05).
Solution. Vom scrie ecuaţia matricială pentru modelul complet Xβ = Y .
Pentru datele din tabela 10.1 avem
 
  x1 x2 x21 x22 x1 x2
83  1
 113   1 −1 1 1 −1 
   1 1 1 1 1 1 
 92   
   1 −1 1 1 1 −1 
 82   
   1 −1 −1 1 1 1 
 100   
   1 0 0 0 0 0 
Y =  96 , X = 
  1
.

 98   0 0 0 0 0 
   1 0 0 0 0 0 
 95   
   1 0 1.5 0 2.25 0 
 80   
   1 0 −1.5 0 2.25 0 
 100   
 1 1.5 0 2.25 0 0 
92
1 −1.5 0 2.25 0 0
1
Sursa: Ronald Suich and G. C. Derringer, Technometrics 19(2) (1977): 214.
250 Modele liniare şi metoda celor mai mici pătrate

y x1 x2
83 1 −1
113 1 1
92 −1 1
82 −1 −1
100 0 0
96 0 0
98 0 0
95 0 1.5
80 0 −1.5
100 1.5 0
92 −1.5 0

Tabela 10.1: Datele pentru exemplul 11.19

Rezolvând sistemul se obţin coeficienţii


 
98.00
 4.00 
 
 7.35 
βb = 
 −0.88
,

 
 −4.66 
5.00

şi modelul

yb = 98.0 + 4.0x1 + 7. 35x2 − 0.88x21 − 4. 66x22 + 5.0x1 x2

Pentru acest model, SSEC = Y T Y − βXb T Y = 77.948.


Pentru a testa ipoteza H0 : β3 = β4 = β5 = 0, trebuie să determinăm
modelul redus
Y = β0 + β1 x1 + β2 x2 + ε.
Rezolvarea ne dă coeficienţii
 
93.73
βb =  4.00 
7.35

şi modelul plan


yb = 93. 73 + 4.0x1 + 7. 35x2 .
(De notat că nu putem obţine modelul redus luând βb3 = βb4 = βb5 = 0 ı̂n
modelul complet.) Pentru modelul redus, SSER = 326.623.
10.14. Testarea ipotezei H0 : βg+1 = βg+2 = · · · = βk = 0 251

Vom testa ipoteza nulă H0 : β3 = β4 = β5 = 0 calculând F (de notat că


k = 5, g = 2 şi n = 11):

(SSER − SSEC )/(k − g) (326.623 − 77.948)/3


F = = = 5.3171.
SSEC/[n − (k + 1)] 77.948/5

P-valoarea este p = 1 − F0.05,3,5 (5.3171) = 0.05155. Dacă alegem α = .05,


avem suficiente indicii să susţinem că modelul cuadratic este mai bun decât
cel planar. P-valoarea exactă = .05155 este suficient de mare pentru a con-
vinge că modelul pătratic este mai bun decât cel planar? Răspunsul ı̂l puteţi
da doar dumneavoastră. Am testat dacă grupul de variabile x21 , x22 , x1 x2
contribuie semnificativ la o potrivire mai bună a modelului cu datele.
252 Modele liniare şi metoda celor mai mici pătrate
Capitolul 11

Analiză dispersională

În literatura anglo-saxonă analiza dispersională este denumită ANOVA


(de la ANalysis of VAriance).
Ne vom ocupa ı̂n continuare de testarea ipotezelor referitoare la mai mult
de două medii, de exemplu

H0 : m1 = m2 = m3 = m4 = m5.
Utilizând tehnicile ı̂ntâlnite până acum am putea testa pe rând ipotezele
H01 : m1 = m2 H02 : m1 = m3 H03 : m1 = m4 H04 : m1 = m5
H05 : m2 = m3 H06 : m2 = m4 H07 : m2 = m5 H08 : m3 = m4
H09 : m3 = m5 H010 : m4 = m5 .
Acceptarea lui H0 ı̂nseamnă acceptarea tuturor celor 10 ipoteze, iar respin-
gerea lui H0 respingerea a cel puţin una din ele. Această metodă este foarte
laborioasă, iar eroarea totală este posibil să fie mai mare decât eroarea de
genul I, α, asociată cu un singur test. Tehnicile ANOVA ne permit să testăm
ipoteza nulă (toate mediile egale) ı̂n raport cu ipoteza alternativă (cel puţin
o pereche de medii diferă), la un prag de semnificaţie α.
Experimentele ANOVA pot fi foarte complexe. Vom trata aici doar
ANOVA cu un singur factor.

11.1 Introducere ı̂n tehnicile analizei disper-


sionale
Vom ı̂ncepe discuţia cu un exemplu.
Exemplul 11.1.1 Se crede că temperatura dintr-o ı̂ntrepridere poate afecta
productivitatea. Datele din tabelul 11.1 sunt numerele x de unităţi produse

253
254 Analiză dispersională

pe oră, pentru perioade de o oră selectate aleator, cu procesul de producţie


desfăşurat la 3 niveluri de temperatură. Datele din selecţiile repetate se
numesc replici. Pentru două din temperaturi au fost obţinute 4 replici sau
valori pentru date, iar pentru cea de-a treia temperatură 5 valori. Sugerează
aceste date faptul că temperatura are un efect semnificativ asupra producti-
vităţii la un nivel de 0.05?

SelecţieSelecţie Selecţie
13◦ 15◦ 16◦
10 7 3
12 6 3
10 7 5
9 8 4
7
Total pe C1 = 41 C2 = 35 C3 = 15
coloană x̄1 = 10.25 x̄2 = 7.0 x̄3 = 3.75

Tabela 11.1: Nivelul şi influenţa temperaturii

Nivelul producţiei este măsurat prin valoarea medie; x̄i indică producţia
medie observată la nivelul i, unde i = 1, 3 corespunde temperaturilor de 13,
15 şi respectiv 16◦ . Există o anumită variaţie ı̂ntre aceste medii. Deoarece
mediile de selecţie nu se repetă neapărat când se iau selecţii repetate din-
tr-o populaţie, sunt de aşteptat anumite variaţii. Vom urmări ı̂n continuare
problema: ,,este variaţia ı̂ntre valorile x̄ datorată şansei sau se datorează
efectului temperaturii asupra productivităţii¿‘
Soluţie. Ipoteza nulă pe care o vom testa este

H0 : m13 = m15 = m16 ,

adică producţia medie este aceeaşi pentru fiecare nivel de temperatură testat.
Cu alte cuvinte, temperatura nu are un efect semnificativ asupra producti-
vităţii. Ipoteza alternativă este

Ha : m13 6= m15 ∨ m13 6= m16 ∨ m15 6= m16 ,

adică nu toate mediile sunt egale. Vom respinge ipoteza nulă dacă datele ne
arată că una sau mai multe medii diferă semnificativ de celelate. Decizia de
acceptare sau respingere a lui H0 se ia utilizând distribuţia şi statistica F .
Reamintim că valoarea lui F este raportul a două dispersii. Procedura de
11.1. Introducere ı̂n tehnicile analizei dispersionale 255

analiză dispersională va separa variaţiile pentru ı̂ntreaga mulţime a datelor ı̂n


două categorii. Pentru a realiza separarea vom lucra cu numărătorul expresiei
Pn
′2 (xi − x̄)2
s = i=1 .
n−1
Numărătorul acestei fracţii se numeşte suma pătratelor (sum of squares).
Vom calcula suma pătratelor, dar fără a utiliza pe x̄
n n
!2
X 1 X
SS(total) = x2i − xi . (11.1)
i=1
n i=1

În cazul nostru avem


n
X
x2i = 102 + 122 + 102 + 92 + 72 + 62 + 72 + 82 + 72 + 32 + 32 + 52 + 42
i=1
= 731,
n
X
xi = 10 + 12 + 10 + 9 + 7 + 6 + 7 + 8 + 7 + 3 + 3 + 5 + 4 = 91
i=1
912
SS(total) = 731 − = 94.
13
În continuare valoarea SS(total) =94.0 va fi separată ı̂n două părţi, SS(temp)
datorată nivelurilor de temperatură şi SS(eroare) datorată erorilor de re-
plicare. Această separare se numeşte partiţionare, deoarece SS(temp) +
SS(eroare) = SS(total). Suma pătratelor SS(f actor) (ı̂n cazul nostru
SS(temp)) care măsoară variaţia ı̂ntre nivelurile factorilor (temperaturi) se
obţine cu formula
 2  n
!2
C1 C22 C32 1 X
SS(f actor) = + + + ··· − xi , (11.2)
k1 k2 k3 n i=1

ı̂n care Ci reprezintă totalul coloanei i, ki reprezintă numărul de replici


P pentru
fiecare nivel al factorului, iar n reprezintă volumul selecţiei (n = ki ).

Observaţia 11.1.2 Datele au fost aranjate astfel ı̂ncât fiecare coloană re-
prezintă un nivel diferit al factorului care urmează a fi testat. Putem găsi
SS(temp) pentru exemplul nostru cu ajutorul formulei (11.2):
 2 
41 352 152 912
SS(temp) = + + − = 84.5.
4 5 4 13
256 Analiză dispersională

Suma pătratelor SS(eroare) care măsoară variaţia ı̂n interiorul linii-


lor se determină cu formula
X n  2 
2 C1 C22 C32
SS(eroare) = xi − + + +··· . (11.3)
i=1
k1 k2 k3

Din (11.1), (11.2) şi (11.3) rezultă SS(temp) + SS(eroare) = SS(total).


Este convenabil să utilizăm o tabelă ANOVA pentru a ı̂nregistra sumele
de pătrate şi a organiza restul calculelor. Formatul unei tabele ANOVA este
următorul
Sursa SS gl MS
factor
eroare
Total
Numărul de grade de libertate gl, asociat cu fiecare din cele trei surse se
determină după cum urmează:

1.
gl(f actor) = c − 1, (11.4)
unde c este numărul de niveluri pentru care factorul este testat (ı̂n
cazul nostru numărul de coloane);

2.
gl(total) = n − 1, (11.5)
unde n = k1 + k2 + k3 + · · · (ki este numărul de replici pentru fiecare
nivel ), n este volumul selecţiei;

3. gl(eroare) este suma gradelor de libertate a tuturor nivelurilor testate


(coloane ı̂n tabelele de date); fiecare coloană are ki − 1 grade de liber-
tate, deci

gl(eroare) = (k1 − 1) + (k2 − 1) + (k3 − 1) + · · ·

sau
gl(eroare) = n − c. (11.6)

În cazul nostru avem

gl(temp) = c − 1 = 3 − 1 = 2
gl(total) = n − 1 = 13 − 1 = 12
gl(eroare) = n − c = 13 − 3 = 10.
11.1. Introducere ı̂n tehnicile analizei dispersionale 257

Întotdeauna se verifică următoarele condiţii

SS(f actor) + SS(eroare) = SS(total), (11.7)


gl(f actor) + gl(eroare) = gl(total). (11.8)

Mediile pătraticedin ultima coloană a tabelului, MS(f actor), pentru facto-


rul de testat şi respectiv MS(eroare), pentru eroarea de replicare, se obţin
ı̂mpărţind suma pătratelor la numărul corespunzător de grade de libertate:

SS(f actor)
MS(f actor) = , (11.9)
gl(f actor)
SS(eroare)
MS(eroare) = . (11.10)
gl(eroare)

Pentru exemplul nostru avem

84.5
MS(temp) = = 42. 25
2
9.5
MS(eroare) = = 0.95.
10
Tabelul anova complet este
Sursa SS gl MS
temperatură 84.5 2 42.25
eroare 9.5 10 0.95
Total 94.0 12

Testul utilizează cele două medii pătratice ca măsură a dispersiilor. Sta-


tistica testului este
MS(f actor)
F = . (11.11)
MS(eroare)
Pentru exemplul nostru se obţine

42. 25
F = = 44. 47 = F ∗ .
0.95
Decizia de a respinge H0 sau de a o accepta se ia comparând valoare cal-
culată F ∗ cu valoarea critică unilaterală dreapta a distribuţiei F (cuantila
fgl(f actor),gl(eroare),1−α ). În cazul nostru F ∗ = 44.7 > f2,10,0.95 = 4.10, deci vom
respinge ipoteza nulă (vezi figura 11.1). De aceea concluzionăm că tempera-
tura ı̂ncăperii are un efect semnificativ asupra productivităţii.
258 Analiză dispersională
0.8

0.7

0.6

0.5

0.4

0.3

0.2

0.1

*
−0.1 F

0 1 2 3 4 5 6

Figura 11.1: Regiune critică ANOVA

11.2 Logica ANOVA


Multe experimente se realizează pentru a determina efectul pe care un
factor de test ı̂l are asupra unei variabile de răspuns. Factorul de test ar
putea fi temperatura (ca ı̂n exemplul anterior), fabricantul unui produs, ziua
din săptămână şi aşa mai departe. În esenţă proiectarea unui test ANOVA cu
un singur factor constă ı̂n a obţine selecţii independente pentru fiecare nivel
al factorului care trebuie testat. Apoi vom lua o decizie statistică asupra efec-
tului nivelurilor factorului de test asupra variabilei de răspuns (observate).
Pe scurt, raţiunea acestei tehnici este următoarea: pentru a compara nive-
lurile factorilor de test, măsura variaţiei dintre niveluri (ı̂ntre coloanele
sau liniile tabelei de date ı̂n funcţie de modul de organizare), MS(f actor) va
fi comparată cu măsura variaţiei ı̂n interiorul factorilor, MS(eroare).
Dacă MS(f actor) > MS(eroare) ı̂n mod semnificativ, vom trage concluzia
că mediile nivelurilor factorului care urmează a fi testat nu sunt identice. De
aici rezultă că factorul care urmează a fi testat are un efect semnificativ asu-
pra variabilei de răspuns. Dacă MS(f actor) nu este semnificativ mai mare
decât MS(eroare), nu vom putea respinge ipoteza nulă conform căreia toate
mediile sunt egale.

Exemplul 11.2.1 Ne permit datele din tabelul 11.2 să afirmăm că există o
diferenţă ı̂ntre mediile a trei populaţii mF , mG , mH ?

Diagrama de mai jos ne arată relaţiile relative ı̂ntre cele trei selecţii:
11.2. Logica ANOVA 259

Nivelurile factorului
Selecţia pentru Selecţia pentru Selecţia pentru
nivelul F nivelul G nivelul H
3 5 8
2 6 7
3 5 7
4 5 8
Total coloane CF = 12 CG = 21 CH = 30
x̄F = 3.0 x̄G = 5.25 x̄H = 7.50

Tabela 11.2: Tabela pentru exemplul 11.2.1

x F G H
2 2
3 3 3
x̄F = 3.0
4 4
x̄G = 5.25
5 5 5 5
x̄H = 7.50
6 6
7 7 7
8 8 8
Se constată că există o variaţie mică ı̂n interiorul selecţiilor şi o variaţie
mare ı̂ntre selecţii.

Exemplul 11.2.2 Ne permit datele de mai jos să tragem concluzia că există
o diferenţă ı̂ntre cele trei medii mJ , mK , şi mL ?
Nivelurile factorului
Selecţia pentru Selecţia pentru Selecţia pentru
nivelul F nivelul G nivelul H
3 5 8
2 6 7
3 5 7
4 5 8
Total coloane CF = 12 CG = 21 CH = 30
x̄F = 3.0 x̄G = 5.25 x̄H = 7.50

Dacă ı̂ntocmim o diagramă ca cea din exemplul anterior se constată că


avem o variaţie mică ı̂ntre selecţii şi o variaţie mare ı̂n interiorul selecţiilor.
Pe parcursul analizelor noastre vom conveni să acceptăm următoarele
ipoteze:

1. Scopul nostru este de a investiga efectul pe care diferitele niveluri ale


factorului testat ı̂l au asupra variabilei de răspuns. Aceasta ı̂nseamnă,
260 Analiză dispersională

desigur că dorim să respingem ipoteza nulă ı̂n favoarea alternativei.
Apoi, studiul ı̂n continuare ne va permite să determinăm cel mai bun
nivel al factorului.
2. Vom presupune că efectele datorate şansei şi factorilor netestaţi sunt
normal distribuite şi că variabilitatea datorată acestor efecte este con-
stantă pe parcursul experimentului.
3. Vom presupune independenţa tuturor observaţiilor şi vom organiza tes-
tul ı̂ntr-o ordine aleatoare pentru a asigura independenţa şi a evita pe
cât posibil contaminarea datelor.

11.3 Aplicaţii ale ANOVA cu un singur fac-


tor
Înainte de a continua discuţia să sistematizăm notaţiile utilizate. Toate
datele sunt dublu indexate: primul indice indică nivelul factorului de test
(ı̂n cazul nostru coloana), iar al doilea numărul replicii (linia). Ci semnifică
totalul pe coloana i, iar T totalul general.
Nivelurile factorilor
Replica Selecţia Selecţia Selecţia Selecţia
din din din din
nivelul 1 nivelul 2 nivelul 3 . . . nivelul c
k=1 x1,1 x2,1 x3,1 ... xc,1
k=2 x1,2 x2,2 x3,2 ... xc,2
k=3 x1,3 x2,3 x3,3 ... xc,3
.. .. .. .. .. ..
. . . . . .
Totaluri C1 C2 PP C3 . . . P Cc T
coloane T = Total gen.= xi,j = Ci
Pentru ANOVA cu un singur factor modelul matematic este dat de
ecuaţia
xl,k = m + Fl + εk(l) ,
pe care o putem interpreta astfel:

1. m este media tuturor datelor, fără a ţine cont de factorul de test;


2. Fl este efectul care factorul de testat ı̂l are asupra variabilei de raspuns
la fiecare nivel diferit l;
3. εk(l) este eroarea experimentală ce apare printre cele k replici din fiecare
c coloane.
11.3. Aplicaţii ale ANOVA cu un singur factor 261

Exemplul 11.3.1 Un club de tir realizează un experiment pe un grup se-


lectat aleator de trăgători ı̂ncepători. Scopul experimentului este de a de-
termina dacă precizia tragerii este influenţată de metoda de ochire utilizată:
cu ochiul drept, cu ochiul stâng sau cu ambii ochi. Au fost selectaţi alea-
tor 15 trăgători ı̂ncepători şi ı̂mpărţiţi ı̂n 3 grupuri. Fiecare grup are aceişi
pregătire şi experienţă, diferind doar metoda de ochire . După antrenarea
completă fiecare trăgător a primit acelaşi număr de cartuşe şi i s-a spus să
tragă la ţintă. Punctajul apare ı̂n tabela 11.3. Se poate afirma la nivelul de
semnificaţie 0.05 că aceste metode de ochire sunt echivalente?

Soluţie. În acest experiment factorul este metoda de ochire, iar nivelurile
sunt cele trei metode de ochire. Replicile vor fi scorurile obţinute de trăgători.
Ipoteza nulă este cele trei metode au acelaşi efect (mediile obţinute pentru

cele trei metode sunt aceleaşi)“.

OD OS AO
12 10 16
10 17 14
18 16 16
12 13 11
14 20
11

Tabela 11.3: Metode de ochire

P1. H0 : mOD = mOS = mAO .


P2. H1 : mOD 6= mOS ∨ mOD 6= mAO ∨ mOS 6= mAO (nu toate mediile
sunt egale).
P3. Statistica testului este dată de (11.11), α = 0.05, gl(metoda) =
3 − 1 = 2, gl(eroare) = 15 − 3 = 12, f2,12,0.95 = 3.89, iar regiunea critică
apare ı̂n figura 11.2.
PP P4. Totalurile P peP
coloane sunt COD = 66, COS = 56, CAO = 98,
xc,j = 220 şi x2c,j = 3392. Din formulele (11.1), (11.2) şi (11.7)
avem:

2202
SS(total) = 3392 − = 165. 33,
 2 15 
66 562 982
SS(metoda) = + + − 3226.67 = 29.20,
5 4 6
SS(eroare) = SS(total) − SS(metoda) = 136.13.
262 Analiză dispersională

0.8

0.7

0.6

0.5

0.4

0.3

0.2

0.1

0
fn =3.8
,n ,1−α
1 2
*
−0.1 F =3

0 1 2 3 4 5 6

Figura 11.2: Regiune critică pentru exemplul 11.3.1

Mediile pătratice sunt

29.20
MS(metoda) = = 14.60
2
136.3
MS(eroare) = = 11.35.
12
Rezultatele calculelor apar ı̂n tabela ANOVA de mai jos:
Sursa SS gl MS
metoda 29.20 2 14.60
eroare 136.13 12 11.35
Total 165. 33 14
Statistica testului este
14.60
F = = 1. 286 = F ∗ .
11.35
P5. Deoarece F ∗ = 1.286 < f2,12,0.95 = 3.89 (vezi figura 11.2), nu putem
respinge H0 .
Capitolul 12

Metode neparametrice

Metodele neparametrice constituie unul din motivele succesului statisticii


ı̂n ultimii ani. Spre deosebire de corespondentele lor parametrice, cele mai
populare teste neparametrice, cunoscute şi sub numele de teste independente
sau libere de distribuţie (distribution free tests), au ca fundament teoria
elementară a probabilităţilor. Multe din aceste teste se pot obţine pe baza
algebrei din liceu şi a ı̂nţelegerii distribuţiei binomiale; astfel ele sunt foarte
uşor de aplicat şi de către nespecialişti şi foarte versatile.
Metodele neparametrice nu depind de distribuţia din care se extrage
selecţia. Ele se supun la mai puţine restricţii decât corespondentele lor
parametrice. Unele dintre ele, de exemplu, cer doar continuitatea caracte-
risticii populaţiei. Popularitatea statisticii neparametrice poate fi atribuită
următoarelor caracteristici:

1. metodele neparametrice pun mai puţine condiţii asupra populaţiei ori-


ginale;

2. metodele neparametrice sunt ı̂n general mai uşor de aplicat decât co-
respondentul lor parametric;

3. metodele neparametrice sunt uşor de ı̂nţeles;

4. metodele neparametrice pot fi utilizate ı̂n situaţii când ipoteza de nor-


malitate nu este valabilă;

5. metodele neparametrice par să irosească informaţia, ı̂n sensul că ele sa-
crifică valoarea unei variabile pentru un semn sau un număr de ordine.
Totuşi metodele neparametrice au eficienţa apropiată de a corespon-
dentului lor parametric (80%, [ J84]).

263
264 Metode neparametrice

12.1 Un model general cu deplasare pentru


două selecţii
De multe ori un experimentator culege observaţii din două populaţii ı̂n
scopul de a testa dacă populaţiile au aceeaşi distribuţie. De exemplu, dacă
se extrag două selecţii independente X1, X2 , . . ., Xn1 şi Y1 , Y2 , . . ., Yn2 din
două populaţii normale cu dispersii egale şi mediile mX şi respectiv mY , este
de dorit de multe ori să se testeze dacă ipoteza nulă H0 : mX − mY = 0 ı̂n
raport cu ipoteza alternativă H1: mX − mY < 0. În acest caz, dacă H0 este
adevărată, ambele populaţii sunt identice. Dacă H1 este adevărată, atunci
mY > mX , iar distribuţiile sunt de acelaşi tip, dar media lui Y este mai
mare decât media lui X. Deci distribuţia lui Y este deplasată la dreapta
distribuţiei lui X (vezi figura 12.1).
Acesta este un exemplu de model parametric cu deplasare (sau poziţie)
pentru două selecţii. Acest model este parametric deoarece distribuţiile sunt
specificate (normale), exceptând valorile parametrilor mX , mY şi σ 2 . Can-
titatea cu care distribuţia lui Y este deplasată la dreapta distribuţiei lui X
este mY − mX (vezi figura 12.1).

Figura 12.1: Două densităţi normale deplasate cu θ unităţi

În continuare vom defini un model cu deplasare care se aplică oricărei


distribuţii, indiferent dacă este normală sau nu.
Fie X1, X2 , . . ., Xn1 o selecţie aleatoare dintr-o populaţie cu funcţia de
repartiţie F (x) şi fie Y1 , Y2 , . . ., Yn2 o selecţie aleatoare dintr-o populaţie cu
funcţia de repartiţie G(y). Dacă dorim să testăm dacă cele două populaţii au
aceeaşi distribuţie – adică H0 : F (z) = G(z) ı̂n raport cu H1 : F (z) 6= G(z),
cu forma lui F şi G nespecificată – este nevoie de metode neparametrice.
12.1. Un model general pentru două selecţii 265

f f
X Y

Figura 12.2: Două densităţi de probabilitate, cu densitatea lui Y deplasată


cu θ unităţi la dreapta celei a lui X

Ipoteza alternativă H1 este foarte largă. DE multe ori experimentatorul


ar dori să considere o ipoteză alternativă mai specifică, de exemplu, Y are
aceeaşi distribuţie ca şi X, deplasată cu o cantitate necunoscută θ (vezi
figura 12.2), adică distribuţiile diferă prin poziţie. Atunci G(y) = P (Y <
y) = P (X < y − θ) = F (y − θ), pentru o valoare necunoscută a lui θ. De
notat că forma particulară a lui F rămâne nespecificată.

În acest capitol, dacă ne vom referi la modelul cu deplasare pentru două
populaţii vom presupune că X1, X2 , . . ., Xn1 este o selecţie aleatoare cu
funcţia de repartiţie F (x) şi Y1 , Y2 , . . ., Yn2 este o selecţie aleatoare cu funcţia
de repartiţie G(y) = F (y − θ), pentru o anumită valoare necunoscută a lui
θ. Pentru acest model H0 : F (z) = G(z) este echivalentă cu H0 : θ = 0.
Dacă θ > 0 (< 0), atunci distribuţia valorilor lui Y este localizată la dreapta
(respectiv la stânga) distribuţie valorilor lui X.

Modelul se va aplica tuturor procedurilor din acest capitol, cu excepţia


testului semnului pentru o populaţie (secţiunea 12.2).
266 Metode neparametrice

12.2 Testul semnului


Testul semnului (simplu) este un test versatil şi uşor de aplicat de-
oarece utilizează doar semnele + şi - (există mai multe tehnici specifice).
Testul semnului este util ı̂n două situaţii: (1) testarea valorii medianei pen-
tru o populaţie şi (2) testarea diferenţei medianelor ı̂n cazul a două selecţii
dependente (observaţii perechi). Amândouă testele utilizează aceeaşi proce-
dură şi sunt alternative neparametrice la testul t pentru o medie sau pentru
diferenţa a două medii dependente.

12.2.1 Cazul unei singure selecţii


Testul semnului poate fi utilizat când avem o selecţie dintr-o populaţie cu
mediana Me necunoscută şi când se presupune că ı̂n vecinătatea medianei
caracteristica de cercetat este continuă. Ipoteza nulă se referă la valoarea
medianei populaţiei. Testul poate fi unilateral sau bilateral.

Exemplul 12.2.1 Se consideră o selecţie aleatoare de 45 de studenţi care


sunt chestionaţi asupra timpului mediu necesar pentru a ajunge la domiciliu
de la clădirea universităţii. Datele colectate se utilizează pentru a testa ipo-
teza că ,,mediana timpului necesar este de 15 minute“ ı̂n raport cu ipoteza
că mediana este diferită de 15 minute (α = 5%). Cele 75 de date obţinute
sunt
Sub 15’: 8
Exact 15’: 15 .
Peste 15’ 22

Soluţie. Fiecare dată se va converti ı̂n plus (+) dacă are valoarea >15,
ı̂n (-) dacă valoarea este <15 şi ı̂n (0) dacă valoarea ei este egală cu 15.
Valorile nule sunt eliminate, dimensiunea utilă a selecţiei devenind egală cu
30. Notăm cu n(+) numărul de plusuri şi cu n(−) numărul de minusuri. În
cazul nostru n(+) = 22, n(−) = 8, n = n(+) + n(−) = 30.
P1. H0 : Me = 15.
P2. H1 : Me 6= 15.
P3. Fiind un test bilateral α = 0.05. Statistica testului va fi numărul de
apariţii ale semnului cel mai puţin frecvent, adică x = min(n(−), n(+)), ı̂n
cazul nostru n(−). Vom respinge ipoteza nulă dacă numărul de apariţii ale
semnului cel mai puţin frecvent este mic. Valorile admisibile pentru numărul
de apariţii ale semnului celui mai puţin frecvent se dau ı̂n tabele. Mai exact,
dacă numărul de apariţii ale semnului cel mai puţin frecvent este mai mic sau
egal cu valoarea critică din tabelă, vom respinge H0 . Dacă valoarea observată
a celui mai puţin frecvent semn este mai mare decât valoarea tabelată, nu
12.2. Testul semnului 267

vom putea respinge (adică vom accepta) H0 . Valoarea n din tabelă este
numărul total de semne, fără a include zerourile. Pentru exemplul nostru
n = 30, iar valoarea critică este 9 (vezi tabela C.13), conform diagramei
0 H0 se respinge 9 10 H0 se acceptă
P4. Valoarea statisticii este X = n(−) = 8 = x∗ .
P5. Deoarece x∗ este situată ı̂n regiunea critică se respinge H0 . Concluzia:
selecţia nu ne permite să afirmăm la nivelul de semnificaţie α = 0.05 că
mediana este 15.

12.2.2 Cazul a două selecţii dependente


În acest caz testul se aplică pentru mediana observaţiilor perechi din
două selecţii dependente. O aplicaţie frecventă este verificarea efectivităţii
unei anumite activităţi prin observaţii făcute ı̂nainte şi după efectuarea ei.
Exemplul de mai jos ilustrează procedura de urmat.

Exemplul 12.2.2 S-a iniţiat o cură de slăbire fără ı̂nfometare şi fără e-
xerciţii fizice. Pentru a testa afirmaţia ,,veţi scădea ı̂n greutate ı̂n două
săptămâni sau ...“ un statistician a obţinut greutatea a 18 persoane ı̂nainte
şi după cură. Tabela 12.1 dă lista a 18 persoane, greutatea lor ı̂nainte de
cură şi după cura de două săptămâni, precum şi semnele diferenţelor (+, -,
0). Dorim să testăm dacă cura duce la slăbire sau nu (α = 5%).

Soluţie. Ipoteza nulă este că nu avem pierderi ı̂n greutate (sau că me-
diana pierderilor ı̂n greutate este 0), ı̂nsemnând că numai o respingere a
ipotezei nule ne va permite să tragem o concluzie ı̂n favoarea curei.
P1. H0 : Me = 0 (nici o pierdere ı̂n greutate).
P2. H1 : Me < 0 (există pierderi ı̂n greutate).
P3. α = 0.05, n(+) = 5, n(−) = 11, n = 16. Valoarea critică din tabela
C.13 este k = 4.
P4. X = n(+) = 5.
P5. H0 nu se poate respinge (există prea multe semne +). Concluzia:
datele observate nu ne permit să respingem ipoteza că nu există pierderi ı̂n
greutate.
Testul semnelor se poate realiza şi prin intermediul unei aproximaţii nor-
male, care va fi utilizată dacă valoarea critică particulară nu apare ı̂n tabelă
sau dacă n este mare. Statistica testului va fi
X ′ − n2
Z = 1√ . (12.1)
2
n
268 Metode neparametrice

Persoana ı̂nainte După +,-


Mrs. Smith 66. 138 64. 326 –
Mr. Brown 79. 275 80. 634 +
Mrs. White 67. 95 66. 591 –
Mr. Collins 86. 07 84. 711 –
Mr. Gray 99. 66 96. 036 –
Miss Collins 71. 121 72. 48 +
Mrs. Allen 61. 608 61. 155 –
Mrs. Noss 66. 138 62. 514 –
Miss Wagner 57. 984 59. 796 +
Mr. Caroll 84. 711 84. 711 0
Mrs. Black 77. 916 77. 463 –
Mrs. McDonald 62. 514 61. 155 –
Miss Henry 67. 95 68. 403 +
Miss Greene 56. 172 57. 078 +
Mr. Tyler 95. 13 94. 224 –
Mrs. Moore 63. 873 62. 514 –
Mrs. Williams 67. 044 67. 044 0
Mrs. Sweeney 74. 292 72. 027 –

Tabela 12.1: Datele pentru cura de slăbire

Observaţia 12.2.3 1. X poate fi numărul de apariţii ale semnului cel


mai puţin frecvent sau cel mai frecvent. Acest lucru se va decide astfel
ca testul să fie consistent cu interpretarea situaţiei reale.

2. X este o variabilă aleatoare binomială cu p = 12 . Statistica testului


semnelor satisface proprietăţile repartiţiei binomiale. Fiecare semn este
rezultatul unei probe independente. Deoarece se utilizează mediana, pro-
babilităţile pentru fiecare situaţie sunt egale cu 21√. De aceea media este

mX = np = n2 , iar dispersia este σ = npq = 12 n.

3. X este o variabilă discretă, dar reamintim că distribuţia binomială de-


vine aproximativ normală când n este mare. Totuşi ı̂n acest caz trebuie
aplicată o corecţie ilustrată ı̂n figura 12.3, numită corecţie de continui-
tate. Pentru această variabilă discretă aria care reprezintă probabilita-
tea este aria unei bare dreptunghiulare, având lăţimea 1 , repartizată 21
dedesubt şi 21 deasupra valorii de interes. De aceea, când se utilizează
statistica Z, trebuie să facem o ajustare cu 21 ı̂nainte de a calcula va-
loarea observată a lui Z. X ′ va fi valoarea corectată a lui X. Dacă
X > n2 , X ′ = X − 21 , iar dacă X < n2 , atunci X ′ = X + 12 . Testul este
12.2. Testul semnului 269

apoi finalizat prin procedura uzuală.

n/2

Figura 12.3: Corecţia de continuitate

Exemplul 12.2.4 Se utilizează testul semnelor pentru a testa ipoteza că me-
diana Me a numărului de ore lucrat de studenţii de la o facultate este de cel
puţin 15 ore pe săptămână. Se consideră o selecţie de 120 de studenţi; se
ı̂nregistrează un semn + dacă studentul a lucrat mai mult de 15 ore şi minus
ı̂n caz contrar. În total avem 80 de semne + şi 40 de semne -, iar α = 5%.

Soluţie.
P1. H0 : Me = 15 (≥).
P2. H1 : Me < 15 (mai puţine semne + decât -).
P3. α = 0.05, x este numărul de semne +. Regiunea critică este arătată
ı̂n figura 12.4, zα = −1.65.
P4. x = 40,

X ′ − n2 40.5 − 60
Z= 1√ = 1√ = −3. 56 = z ∗ .
2
n 2
120

P5. z ∗ < zα ; se respinge H0 .


270 Metode neparametrice

0.4

0.35

0.3

0.25

0.2

0.15

0.1

0.05

−1.65
−0.05
−3.56

−0.1
−3 −2 −1 0 1 2 3

Figura 12.4: Regiune critică pentru un test al semnelor cu aproximare nor-


mală

12.2.3 Intervale de ı̂ncredere


Tehnica de la testul semnelor se poate aplica pentru a obţine un interval
de ı̂ncredere pentru estimarea medianei necunoscute Me a unei populaţii.
Pentru a realiza aceasta vom aranja datele ı̂n ordine crescătoare şi le vom
numerota de la 1 până la n. Valoarea critică k pentru numărul admis de
semne ne spune numărul de poziţii care vor fi eliminate de la fiecare capăt
al vectorului datelor ordonate. Valorile extreme rămase devin marginile in-
tervalului de ı̂ncredere pentru 1 − α, adică limita inferioară a intervalului
de ı̂ncredere este xk+1 ( a (k + 1)-a valoare), iar cea superioară este xn−k (a
(n − k)-a valoare).
Exemplul 12.2.5 Presupunem că avem 12 valori ordonate crescător (x1 ,
x2 , . . ., x12 ) şi dorim să obţinem un interval de ı̂ncredere de 95% pentru
mediana populaţiei.
Soluţie. Din tabelă, pentru n = 12 şi α = 0.05 se obţine k = 2. Aceasta
ı̂nseamnă că vom elimina câte două valori din fiecare capăt (x1 şi x2 la stânga
şi x11 şi x12 la dreapta). Regiunea necritică va fi ı̂ntre x3 şi x10 . Intervalul
de ı̂ncredere de 95% pentru mediană va fi [x3 , x10 ].
Dacă se utilizează aproximaţia normală (cu corecţia de continuitate) po-
ziţia devine
n 1
± (1 + z1−α/2 ).
2 2
Intervalul corespunzător este [xL , xU ], unde
 √
L = n2 − 21 − 21 z1−α/2 √n
. (12.2)
U = n2 + 21 + 12 z1−α/2 n
12.3. Testul U al lui Mann şi Whitney 271

(L se va rotunji ı̂n jos, iar U ı̂n sus, pentru a ne asigura că nivelul de ı̂ncredere
este 1 − α).

Exemplul 12.2.6 Estimaţi mediana unei populaţii printr-un interval de ı̂n-


credere de 0.95, dându-se o selecţie de 60 de date x1 , x2 , . . ., x60 .

Soluţie. Din√(12.2) avem L = 30 − 0.5(1 + 1.96 60) = 21. 90 şi U =
30 + 0.5(1 + 1.96 60) = 38. 091. Deci intervalul de ı̂ncredere este [x21 , x39 ].

12.3 Testul U al lui Mann şi Whitney


Testul U (Mann-Whitney) este o alternativă neparametrică la testul t
pentru diferenţa dintre două medii ı̂n cazul selecţiilor independente. El
poate fi aplicat ı̂n cazul când avem două selecţii aleatoare independente
(independenţa are loc şi ı̂n interiorul selecţiilor şi ı̂ntre selecţii) ı̂n care ca-
racteristica studiată este o variabilă aleatoare continuă. Acest test se aplică
adeseori şi ı̂n situaţia ı̂n care cele două selecţii provin din aceeaşi populaţie,
dar selecţiilor li se aplică ,,tratamente“ diferite.

Exemplul 12.3.1 Într-o clasă, pentru o verificare de o oră, profesorul dă


două teste. Studenţii care stau pe locurile impare rezolvă testul A, iar cei de
pe locurile pare testul B. Este rezonabil să ne ı̂ntrebăm: ,,sunt cele două teste
echivalente¿‘ Presupunând că aşezarea pe un loc par sau impar nu are nici
un efect, vrem să testăm ipoteza ,,cele două teste conduc la punctaje care au
aceeaşi distribuţie”. Pentru a testa ipoteza se consideră următoarele două
selecţii aleatoare
A 52 78 56 90 65 86 64 90 49 78
B 72 62 91 88 90 74 98 80 81 71

Dimensiunile celor două selecţii individuale se notează cu na şi nb . În


exemplul nostru ambele au valoarea 10. Primul lucru pe care trebuie să-l
facem cu cele na + nb date de selecţie este să le grupăm ı̂ntr-o singură selecţie
şi să le ordonăm crescător: 49, 52, 56, 62, 64, 65, 71, 72, 74, 78, 78, 80, 81, 86,
88, 90, 90, 90, 91, 98. Fiecărei date individuale i se atribuie un număr care
indică rangul său. Cea mai mică (49) va avea rangul 1, următoarea va avea
rangul 2, ş. a. m. d., până la ultima (98) care va avea rangul na + nb = 20.
Valorile identice vor avea acelaşi rang; acesta se obţine considerând media
aritmetică a rangurilor. De exemplu, ı̂n şirul de mai sus, avem două valori
78, ı̂n poziţiile 10 şi 11; rangul lor va fi (10+11)/2=10.5. Rangurile finale se
dau ı̂n tabela 12.2.
272 Metode neparametrice

Data Rangul Sursa Data Rangul Sursa


49 1 A 78 10.5 A
52 2 A 80 12 B
56 3 A 81 13 B
62 4 B 86 14 A
64 5 A 88 15 B
65 6 A 90 17 A
71 7 B 90 17 A
72 8 B 90 17 B
74 9 B 91 19 B
78 10.5 A 98 20 B
Tabela 12.2:

Calculul statisticii U a testului este o procedură ı̂n doi paşi. Vom deter-
mina ı̂ntâi suma rangurilor pentru fiecare din cele două selecţii. Utilizând
apoi suma celor două ranguri vom calcula scorul U pentru fiecare selecţie.
Statistica testului va fi cel mai mic dintre scorurile U. Suma Ra a rangurilor
pentru prima selecţie este

Ra = 1 + 2 + 3 + 5 + 6 + 10.5 + 10.5 + 14 + 17 + 17 = 86,

iar pentru cea de-a doua selecţie

Rb = 4 + 7 + 8 + 9 + 12 + 13 + 15 + 17 + 19 + 20 = 124.

Scorul U pentru fiecare selecţie se obţine cu formulele


nb (nb + 1)
Ua = na nb + − Rb (12.3)
2
na (na + 1)
Ub = na nb + − Ra , (12.4)
2
iar U = min(Ua , Ub ).
În cazul nostru se obţine:
10 · 11
Ua = 10 · 10 + − 124 = 31
2
10 · 11
Ub = 10 · 10 + − 86 = 69,
2
deci U = 31.
Înainte de a aplica testul pentru acest exemplu să ı̂nţelegem ce se ı̂ntâmplă.
Reamintim că ipoteza nulă este aceea că distribuţiile sunt aceleaşi şi de aici
12.3. Testul U al lui Mann şi Whitney 273

dorim să tragem concluzia că mediile sunt aproximativ egale. Să presupu-
nem pentru moment că ele sunt diferite – să zicem că toate valorile dintr-o
selecţie apar ı̂naintea celei mai mici valori din a doua selecţie atunci când
le grupăm ı̂mpreună. Aceasta ı̂nseamnă că vom respinge ipoteza nulă. Ce
valori ne aşteptăm să aibă U ı̂n acest caz? Să presupunem că ı̂n exemplul
12.3.1 cele 10 valori din selecţia A au raguri de la 1 la 10, iar cele din selecţia
B au ranguri de la 11 la 20. Vom obţine ı̂n acest caz Ra = 55, Rb = 155,
Ua = 100 + 10·11
2
− 155 = 0 şi Ub = 100, deci U = 0.
Presupunem, pe de altă parte, că cele două selecţii sunt identice. Cum
s-ar putea ı̂ntâmpla aceasta? De exemplu

54 54 62 62 71 71 72 72 . . .
A B A B A B A B ...
1.5 1.5 3.5 3.5 5.5 5.5 7.5 7.5 . . .

Avem acum Ra = Rb = 105, Ua = Ub = 10 · 10 + 10 · 11/2 − 105 = 50, deci


U = 50. Trebuie observat că suma celor două scoruri Ua + Ub este egală cu
na nb . Din acest motiv lucrăm doar cu una dintre ele, cea mai mică.
Să revenim acum la exemplul 12.3.1. Pentru a finaliza testul avem nevoie
de valorile critice pentru U. Acestea sunt tabelate (vezi tabelele C.14 –
C.21). În cazul nostru na = nb = 10, α = 0.05 şi deoarece testul este
bilateral valoarea critică este 23 (tabela C.21). Deoarece valoarea calculată
a statisticii este 31, nu vom respinge H0 (o vom accepta).
Dacă selecţiile au dimensiune mai mare decât 20, se poate folosi testul
Z. Aceasta este posibil deoarece distribuţia lui U este asimptotic normală cu
media
na nb
mU = (12.5)
2
şi cu abaterea medie pătratică
r
na nb (na + nb + 1)
σU = . (12.6)
12
Ipoteza nulă este apoi testată utilizând
U − mU
Z= (12.7)
σU
ı̂n mod uzual. Testul Z se poate aplica dacă atât na cât şi nb sunt mai mari
decât 10.

Exemplul 12.3.2 Un instructor de câini antrenează 27 de câini pentru a


executa o comandă. El utilizează două metode: recompensare şi ı̂ncurajare
274 Metode neparametrice

0.4

0.35

0.3

0.25

0.2

0.15

0.1

0.05

−1.65
−0.05
−1.268

−0.1
−3 −2 −1 0 1 2 3

Figura 12.5: Regiunea critică pentru un test U

(I) şi nici o recompensă. Tabela de mai jos dă numărul de repetări care au
fost necesare pentru executarea ı̂ntocmai a comenzii. Permite selecţia să se
afirme că metoda I cere un timp mediu mai scurt decât metoda II? (α = 0.05)

I 29 27 32 25 27 28 23 31 37 28 22 28 31 34
II 40 44 33 26 31 29 34 31 38 33 42

Soluţie.

P1. H0 : mI = mII (volumul mediu de timp necesar este acelaşi pentru


ambele metode).

P2. H1 : mI < mII (metoda I cere un timp mediu mai scurt).

P3. Statistica testului este (12.7), α = 0.05, iar diagrama corespunzătoare


regiunii critice este dată ı̂n figura 12.5.

P4. Datele şi rangurile sunt tabelate mai jos:


12.4. Testul lui Wilcoxon pentru observaţii perechi 275

Nr. Grup Rang Nr. Grup Rang


22 I 1 31 II 15 14.5
23 I 2 31 II 16 14.5
24 I 3 32 I 17
25 I 4 33 II 18 18.5
26 II 5 33 II 19 18.5
27 I 6 6.5 34 II 20 20.5
27 I 7 6.5 34 II 21 20.5
28 I 8 9 35 II 22
28 I 9 9 37 I 23
28 I 10 9 38 II 24
29 I 11 11.5 40 II 25
29 II 12 11.5 42 II 26
31 I 13 13.5 44 II 27
31 I 14 13.5
Sumele rangurilor sunt RI = 151, RII = 227. Utilizând formulele (12.3)
şi (12.4) obţinem
12 · 13
UI = 15 · 12 + − 227 = 31
2
15 · 16
UII = 15 · 12 + − 151 = 149.
2
Deci U = 31. Utilizăm acum formulele (12.5), (12.6) şi (12.7):
12 · 15
mU = = 90,
r2
12 · 15(12 + 15 + 1)
σU = = 20.49
12
31 − 90
Z= = −2. 879.
20.49
P5. Se respinge H0 . Concluzia: selecţia ne permite să afirmăm pentru α
dat că metoda recompenselor necesită ı̂n medie un timp mai scurt.

12.4 Testul lui Wilcoxon referitor la observa-


ţii perechi
Acest test este o alternativă la testul t pentru observaţii perechi (selecţii
dependente, vezi subsecţiunea 9.2.3). Presupunem că avem n observaţii pe-
rechi (Xi , Yi ) şi Di = Xi − Yi . Ne interesează să testăm ipoteza nulă că X
276 Metode neparametrice

şi Y au aceeaşi distribuţie, ı̂n raport cu ipoteza alternativă că distribuţiile


diferă prin poziţie. Dacă ipoteza nulă este adevărată, ne aşteptăm ca (ı̂n
medie) aproximativ jumătate dintre diferenţele Di să fie pozitive şi aproxi-
mativ jumătate să fie negative, adică numărul mediu de diferenţe negative
este n/2. Mai mult, rezultă că diferenţele pozitive şi negative egale ı̂n modul
vor apare cu probabilităţi egale. Dacă ordonăm diferenţele după valoarea lor
absolută şi le atribuim un rang, ı̂ncepând cu cea mai mică şi terminând cu
cea mai mare, atunci suma rangurilor diferenţelor pozitive va fi aproximativ
egală cu cea a diferenţelor negative. Diferenţele mari ı̂n suma rangurilor ar
putea să indice o diferenţă de poziţie ı̂ntre cele două distribuţii. La atribui-
rea de ranguri se procedează astfel: diferenţele nule sunt eliminate (reducând
corespunzător şi numărul de perechi), iar rangul diferenţelor egale ı̂n modul
va fi media aritmetică a rangurilor.
Testul semnelor bazat pe ranguri al lui Wilcoxon poate fi descris după
cum urmează.
H0 : Distribuţiile populaţiilor corespunzătoare lui X şi Y sunt identice.
H1 : Distribuţiile celor două caracteristici diferă prin poziţie (test bilate-
ral) sau distribuţia pentru X este deplasată la dreapta sau la stânga celei a
lui Y (test unilateral).
Statistica testului.

1. Pentru un test bilateral se utilizează T = min(T + , T − ), unde T +


este suma rangurilor diferenţelor pozitive, iar T − este suma ranguri-
lor diferenţelor negative.

2. Pentru un test unilateral se utilizează suma rangurilor diferenţelor ne-


gative T − pentru situaţia când X este la dreapta lui Y sau T + dacă Y
este la dreapta lui X.

Regiunea critică.

1. Pentru un test bilateral respingem H0 dacă T ≤ T0 , unde T0 este va-


loarea critică pentru un test bilateral dată ı̂n tabela C.24.

2. Pentru un test unilateral respingem H0 dacă T − ≤ T0 sau T + ≤ T0 ,


unde T0 este valoarea critică pentru un test unilateral (tabela C.24).

Exemplul 12.4.1 Datele referitoare la densitatea (ı̂n g/cm3 ) a şase perechi


de prăjituri, primul set utilizând compoziţia A şi al doilea compoziţia B, se
dau ı̂n tabela 12.3. Să se verifice ipoteza că nu există nici o diferenţă ı̂ntre
distribuţiile celor două populaţii de prăjituri. Ce se poate spune despre nivelul
de semnificaţie?
12.5. Testul monotoniilor 277

A B A-B |A-B| R
62.71 59.93 2.78 2.78 3
47.39 55.75 -8.36 8.36 5
50.17 52.03 -1.86 1.86 1.5
65.50 70.61 -5.11 5.11 4
60.86 62.72 -1.86 1.86 1.5
66.90 75.72 -8.82 8.82 6
Tabela 12.3: Datele referitoare la două seturi de prăjituri

Soluţie. Ipoteza nulă este că distribuţiile celor două populaţii sunt iden-
tice. Ipoteza alternativă este că distribuţiile diferă ı̂n locaţie. Deoarece
volumul de date este mic, vom lua α = 0.10, iar din tabela C.24 se găseşte
valoarea critică T0 = 2. Deci vom respinge ipoteza H0 dacă T ≤ 2. Deoarece
există o singură diferenţă pozitivă, care are rangul 3, T + = 3 şi T − = 10, deci
T = min(T + , T − ) = 3. Deoarece T ≥ T0 , ipoteza nulă nu poate fi respinsă
la nivelul de semnificaţie α = 0.10.
În cazul când volumul selecţiei este mare (n ≥ 25) se poate utiliza testul
Z, ı̂n care dacă T = T +
n(n + 1) n(n + 1)(2n + 1)
M(T ) = , D 2 (T ) = ,
4 24
iar statistica testului este
T − M(T ) T − n(n + 1)/4
Z= =p .
D(T ) n(n + 1)(2n + 1)/24

12.5 Testul monotoniilor


Pentru acest test se mai foloseşte şi numele de testul secvenţelor sau itera-
ţiilor. El este utilizat pentru a testa caracterul aleator (sau lipsa caracterului
aleator) al unor date. O monotonie este o secvenţă de date care posedă o
proprietate comună. O monotonie se termină şi o alta ı̂ncepe atunci când
datele nu mai au proprietatea ı̂n cauză. Statistica utilizată ı̂n acest test va
fi numărul de monotonii observat, notat cu V .
Exemplul 12.5.1 Pentru a ilustra ideea de monotonie să selectăm aleator
10 cifre din cartea de telefon (de exemplu ı̂ncepem cu ultima cifră a unui
număr, apoi penultima a ultimului număr, eventual ı̂ncercăm să evităm anu-
mite cifre rezervate). Să presupunem că am obţinut selecţia: 2, 3, 1, 1, 4, 2,
6, 6, 6, 7. Să considerăm proprietatea impar (i) sau par (p). Pentru selecţia
noastră vom avea p iii ppppp i, deci V = 4.
278 Metode neparametrice

În exemplul 12.5.1, dacă selecţia nu ar avea caracter aleator, ar trebui să
avem două monotonii, una pentru cifrele pare şi alta pentru cifrele impare.
Numărul maxim posibil de monotonii va fi n1 +n2 , unde n1 şi n2 sunt numerele
datelor ce posedă cele două proprietăţi de identificat.
Vom interpreta apariţia numărului maxim de monotonii ca o respingere
a ipotezei nule de aleatorism, deoarece adesea dorim să testăm caracterul
aleator al datelor ı̂n legătură cu modul lor de obţinere. De exemplu, dacă
datele alternează, am putea să suspectăm o corupere (alterare a lor). Există
mai multe aspecte ale conceptului de caracter aleator. Apariţia lui par şi
impar aşa cum s-a discutat ı̂n exemplul 12.5.1 este unul dintre ele. Un alt
aspect este fluctuaţia datelor dedesubtul sau deasupra mediei sau medianei
selecţiei.

Exemplul 12.5.2 Să considerăm secvenţa din exemplul 12.5.1 şi să testăm
fluctuaţia deasupra sau dedesubtul medianei. Ipoteza nulă este ,,secvenţa este
aleatoare“, iar α = 5%.

Soluţie.
P1. H0 : Numerele formează o secvenţă aleatoare ı̂n raport cu proprieta-
tea de a fi deasupra sau dedesubtul medianei.
P2. H1 : Secvenţa nu este aleatoare.
Vom ordona datele: 1, 1, 2, 2, 3, 4, 6, 6, 6, 7. Mediana va fi ı̂n poziţia 5.5,
Me = (3 + 4)/2 = 3.5. Comparând fiecare număr din selecţia originală cu
valoarea medianei şi notând cu a proprietatea de a avea valoarea mai mare
decât mediana şi cu b proprietatea de de a avea valoarea mai mică decât
mediana, obţinem secvenţa bbbb a b aaaa. Observăm că avem na = 5, nb = 5
şi V = 4.
Dacă n1 şi n2 sunt ambele mai mici decât 20 şi se utilizează un test
bilateral tabelele ne dau două valori critice. Din tabelaC.23, pentru α = 0.05
şi na = 5 şi nb = 5 obţinem valorile critice 2 şi 9. Aceasta ı̂nseamnă că dacă
avem două monotonii sau mai puţine şi respectiv 9 monotonii sau mai multe,
ipoteza nulă va fi respinsă. Dacă se observă ı̂ntre 3 şi 8 monotonii, ipoteza
nulă va fi acceptată.
P3. α = 0.05 şi utilizăm un test bilateral. Valorile critice se iau din
tabelă, iar regiunea critică apare ı̂n diagrama de mai jos.
0 Respingem H0 2 3 Acceptăm H0 8 9 Respingem H0

P4. Avem 4 monotonii, Deci V ∗ = 4.


P5. Se acceptă H0 . Nu putem respinge ipoteza privind caracterul aleator.
12.5. Testul monotoniilor 279

Dacă n1 sau n2 este mai mare decât 20 se utilizează testul Z, deoarece


V este distribuită aproximativ normal cu media

2n1 n2
mV = +1 (12.8)
n1 + n2

şi dispersia
s
2n1 n2 (2n1 n2 − n1 − n2 )
σV = . (12.9)
(n1 + n2 )2 (n1 + n2 − 1)

Statistica testului va fi
V − mV
Z= . (12.10)
σV

Exemplul 12.5.3 Să se testeze ipoteza că secvenţa care rezultă din clasifi-
carea datelor din exemplul 12.5.1 ı̂n par şi impar este o secvenţă aleatoare
(α = 0.10).

Soluţie.
P1. H0 : Secvenţa cu apariţiile de par şi impar este aleatoare.
P2. H1 : Secvenţa nu este aleatoare.
P3. α = 0.10, testul este bilateral iar regiunea critică apare ı̂n figura 12.6.

0.4

0.35

0.3

0.25

0.2

0.15

0.1

0.05

−1.65
−0.05
−1.268

−0.1
−3 −2 −1 0 1 2 3

Figura 12.6: Un test al monotoniilor ı̂n cazul unei selecţii mari.

P4. Conform exemplului 12.5.1 n1 = n(par) = 6, n2 = n(impar) = 4, iar


280 Metode neparametrice

V = 4. Din formulele (12.8), (12.9) şi (12.10)obţinem


2·6·4
mV = + 1 = 5.8,
s6+4
2 · 6 · 4 · (2 · 6 · 4 − 6 − 4)
σV = = 1.42
(6 + 4)2 (6 + 4 − 1)
4 − 5.8
Z= = 1.268.
1.42
P5. Decizia: acceptăm H0 .

12.6 Corelaţia rangurilor


Numim coeficient de corelaţie al lui Spearman coeficientul de corelaţie
ı̂ntre rangurile datelor de observaţie. Pentru determinarea coeficientului de
corelaţie al lui Spearman se ordonează crescător datele pentru caracteristicile
X şi Y :
xu1 ≤ xu2 ≤ . . . ≤ xun
yv1 ≤ yv2 ≤ . . . ≤ yvn .
Cele două permutări (u1 , u2, . . . , un ) şi (v1 , v2 , . . . , vn ) ale mulţimii de indici
{1, 2, . . . , n} determină două variabile aleatoare U şi V care dau rangurile
datelor statistice primare ale lui X şi Y . Prin urmare coeficientul de corelaţie
al lui Spearman este dat de
s̄ = s̄(X, Y ) = r̄(U, V ).
Notând cu di = ui − vi , se obţine
X n
6
s̄ = 1 − d2 . (12.11)
n(n2 − 1) i=1 i

Dacă rangurile pentru X şi Y sunt identice avem di = 0, i = 1, n, deci s̄ = 1;


dacă rangurile sunt inverse, adică ui = i, vi = n − i + 1, i = 1, n sau vi = i,
sau ui = n − i + 1, avem s̄ = −1. În general |s| ≤ 1 (căci este un coeficient
de corelaţie).
Numim coeficient de corelaţie al lui Kendall raportul
2T
K̄ = K̄(X, Y ) = ,
n(n − 1)
unde n n
X X
T = skj ,
k=1 j=k+1
12.6. Corelaţia rangurilor 281

Concu- Judecător
rentul A B C D
a 1 5 1 5
b 2 4 2 2
c 3 3 3 1
d 4 2 4 4
e 5 1 5 3
Tabela 12.4: Datele din exemplul 12.6.1

iar 
 1 pentru yjk < yij
skj = 0 pentru yik = yij

−1 pentru yik > yij
după ce datele statistice au fost ordonate crescător după caracteristica X,
adică (xi1 , yi1), (xi2 , yi2), . . . , (xin , yin ) cu xi1 ≤ xi2 ≤ . . . ≤ xin .
Valoarea maximă de la numărător este n(n−1) 2
, iar cea minimă − n(n−1)
2
,
deci −1 ≤ K̄ ≤ 1. Valoarea −1 se obţine pentru clasificări inverse, iar 1
pentru calsificări identice.
Coeficientul de corelaţie al lui Spearman poate fi o alternativă neparame-
trică la coeficientul empiric de corelaţie. El se determină cu formula (12.11).
Ipoteza nulă care urmează a fi testată este ,,nu există nici o corelaţie ı̂ntre
cele două ranguri“, iar ipoteza alternativă este ,,există corelaţie“ ı̂n cazul
testului bilateral sau ,,există corelaţie pozitivă (negativă)“ ı̂n cazul testului
unilateral dreapta (stânga).
Exemplul 12.6.1 Să considerăm situaţia ipotetică ı̂n care 4 arbitrii ju-
decători trebuie să stabilească clasamentul pentru 5 concurenţi la un con-
curs. Notăm judecători cu A, B, C şi D, iar concurenţii cu a, b, c, d şi e.
Clasamentele stabilite de fiecare judecător se dau ı̂n tabela 12.4.
Soluţie. Când comparăm judecătorii A şi B observăm că au clasificat
concurenţii ı̂n ordine opusă, ı̂ntre ei existând un dezacord total. Valoarea
coeficientului de corelaţie al lui Spearman ı̂n astfel de situaţii este -1. Într-
adevăr pentru rangurile primilor doi arbitrii avem
Concurent A B di d2i
a 1 5 -4 16
b 2 4 -2 4
c 3 3 0 0
d 4 2 2 4
e 5 1 4 16
40
282 Metode neparametrice

de unde se obţine
6 · 40
s̄ = 1 − = −1.
5(52 − 1)
Când comparăm judecătorii A şi C, observăm că rangurile stabilite de ei
sunt identice, deci s̄ = 1 (ı̂ntre ei există acord total). Pentru A şi D valorile
sunt
Concurent A D di d2i
a 1 5 -4 16
b 2 2 0 0
c 3 1 2 4
d 4 4 0 0
e 5 3 2 4
24
iar coeficientul de corelaţie al lui Spearman este
6 · 24
s̄ = 1 − = 0.2.
5(52 − 1)

Această valoare este apropiată de 0. Testul de semnificaţie va conduce la


o acceptare a ipotezei nule când s̄ este apropiat de 0 şi la o respingere a
ei când s̄ este apropiat de +1 sau -1. Valorile critice pentru acest test sunt
tabelate (de obicei se dau numai valorile pozitive). Deoarece ipoteza nulă este
,,coeficientul de corelaţie este nul“ (adică ρ = 0), avem o statistică simetrică
şi obţinem uşor şi valorile negative.
În exemplul nostru valorile critice pentru un test bilateral cu α = 0.10
sunt ±0.9 (vezi tabela C.25). Dacă valorile calculate pentru s̄ ∈ [0.9, 1] sau
s̄ ∈ [−1, −0.9] vom respinge ipoteza nulă ı̂n favoarea ipotezei alternative
,,există corelaţie”. Dacă avem date care se repetă se procedează la fel ca la
testul U.

Exemplul 12.6.2 Vrem să verificăm dacă studenţii care termină mai repede
lucrările decât restul colegilor sunt mai bine pregătiţi. Datele de mai jos
arată punctajul şi ordinea de terminare pentru 12 studenţi. La nivelul de
semnificaţie α = 0.05, vin aceste date ı̂n sprijinul ipotezei alternative că
studenţii care termină mai repede au notele cele mai bune?
O 1 2 3 4 5 6 7 8 9 10 11 12
P 90 74 76 60 68 86 92 60 78 70 78 64

Soluţie.
P1. H0 : Ordinea de terminare nu are nici o legătură cu punctajul final.
P2. H1 : Cei care termină primii tind să aibă notele cele mai mari.
P3. α = 0.05, n = 12, iar valoarea critică este 0.497 (tabela C.25).
12.6. Corelaţia rangurilor 283

P4. Rangurile se dau mai jos:


92 90 86 78 78 76 74 70 68 64 60 60
1 2 3 4 5 6 7 8 9 10 11 12
4.5 4.5 11.5 11.5
iar calculele preliminare apar ı̂n tabelul următor:
Rangul Ordinea Diferenţa
pt. test de terminare di d2i
1 7 -6.0 36.00
2 1 1.0 1.00
3 6 3.0 9.00
4.5 9 -4.5 20.25
4.5 11 -6.5 42.25
6 3 3.0 9.00
7 2 5.0 25.00
8 10 -2.0 4.00
9 5 4.0 16.00
10 12 -2.0 4.00
11.5 4 7.5 56.25
11.5 8 3.5 12.25
235.00

6 · 235
s̄ = 1 − = 0.178.
12 · 143
P5. Se acceptă H0 . Concluzia: selecţia nu ne permite să afirmăm că
studenţii care termină mai repede au punctaj mai bun.
284 Metode neparametrice
Capitolul 13

Algoritmi probabilişti

13.1 Introducere
Dacă ı̂ntr-un algoritm permitem o acţiune aleatoare cum ar fi aruncarea
unei monede, adică generarea unui număr aleator, lărgim clasa de probleme
rezolvabile şi totodată, ı̂n anumite cazuri, putem să accelerăm algoritmii. Un
algoritm care are cel puţin un pas ce constă din generarea unui număr aleator
se va numi algoritm probabilist. Algoritmii probabilişti sunt de multe ori
mai simpli, mai rapizi şi mai uşor de analizat decât cei determinişti (pe care
totuşi nu ı̂i ı̂nlocuiesc).
Aleatorismul este o resursă utilă ı̂n proiectarea algoritmilor. El permite:

- conceperea unor algoritmi care să asigure, ı̂n ,,majoritatea cazurilor”,


aceeaşi performanţă pentru cazul cel mai nefavorabil ca un algoritm
determinist complicat;

- să se realizeze lucruri care nu ştim cum s-ar putea face determinist,
cum ar fi testul de primalitate, determinarea cu cost liniar a arborelui
de acoperire minimal;

- să se realizeze lucruri care s-au demonstrat a fi imposibile ı̂n mod de-
terminist.

Vom considera două clase de importante de algoritmi probabilişti: algo-


ritmi Las Vegas ı̂n timp polinomial şi algoritmi Monte Carlo ı̂n timp polino-
mial.
Algoritmii Las Vegas ı̂n timp polinomial au următoarele caracteristici:

- depind de o sursă de numere aleatoare veritabile;

285
286 Algoritmi probabilişti

- returnează ı̂ntotdeauna rezultatul corect;

- timpul de execuţie poate fi prost, dar timpul mediu de execuţie este


bun.

Algoritmii Monte Carlo ı̂n timp polinomial au caracteristicile:

- depind de o sursă de numere aleatoare veritabile;

- pot să dea uneori rezultate eronate, dar cu o probabilitate mică;

- probabilitatea depinde numai de numerele aleatoare utilizate nu şi de


intrare;

- timpul de execuţie este un polinom fixat.

13.2 Generatori de numere aleatoare


Am văzut că generarea de numere aleatoare este un pas esenţial ı̂n al-
goritmii probabilişti. De fapt aceste numere aleatoare vor fi valori numerice
ale unor variabile aleatoare. Metodele de generare a numerelor aleatoare se
ı̂mpart ı̂n trei categorii:

- tabele cu numere aleatoare obţinute prin aruncarea unei monede, a


unui zar, la ruletă, etc.;

- procedee fizice, care au la bază fenomene fizice, cum ar fi emisia parti-


culelor de către o sursă radioactivă, zgomotul electronic, etc.;

- procedee aritmetice (analitice), care utilizează fomule de calcul de tipul

xn+1 = f (xn , xn−1 , . . . , xn−m ), n ≥ m ≥ 0.

Dezavantajul ultimului procedeu este acela că nu posedă un caracter strict


aleator, dearece există o funcţie (deterministă) care permite calcularea lor.
Din acest motiv numerele generate prin procedee analitice se numesc numere
pseudoaleatoare. Se pune problema de a alege procedeele analitice astfel
ı̂ncât şirurile de numere pseudoaleatoare produse să fie cât mai apropiate de
numerele aleatoare veritabile.

Definiţia 13.2.1 Spunem că variabila aleatoare discretă


 X urmează legea
k
uniformă discretă dacă distribuţia ei esteX 1 .
M k=0,M −1
13.2. Generatori de numere aleatoare 287

Observaţia 13.2.2 1. Generarea de numere aleatoare care urmeză o anu-


mită lege (ı̂n particular şi legea uniformă discretă) este practic imposibil
de realizat prin procedee analitice. Dacă generarea se face pe calcula-
tor, ar fi de preferat ca valoarea lui M să fie mai mică decât valoare
maximă ce poate fi reprezentată pe un cuvânt al calculatorului. Mai
mult, un astfel de şir de numere aleatoare este periodic.

2. Vom considera că dacă sunt generate numerele aleatoare (xk ) ı̂ntregi
şi uniforme din [0, M), atunci numerele (uk ) definite prin uk = xk /M
sunt uniform repartizate pe [0, 1) (urmează legea uniformă continuă pe
[0, 1), vezi subsecţiunea 4.2.1).

13.2.1 Metode analitice de generare a numerelor alea-


toare uniforme
Dăm ı̂n continuare câteva metode de generare a numerelor aleatoare uni-
forme.
Metoda aditiv congruenţială. Se bazează pe formula de recurenţă

xn+1 = xn−j + xn−k (mod M), n ≥ k > j ≥ 0,

unde x0 , x1 , . . . , xn ∈ {0, 1, . . . , M − 1} sunt date.

Teorema 13.2.3 Fie generatorul aditiv congruenţial

xn+1 = xn + xn−1 (mod M), n ≥ 1,

unde M = 2p , şi cel puţin unul din numerele x0 şi x1 este impar, atunci
perioada λ a generatorului este λ = 3 · 2p−1.

Metoda multiplicativ congruenţială. Generatorul foloseşte formula


de recurenţă
xn+1 = axn (mod M), n ≥ 0.

Observaţia 13.2.4 1. Dacă d este un divizor propriu al lui M şi d divide


pe xn , atunci xn+1 , xn+2 , . . . vor fi multipli ai lui d şi deci şirul nu va fi
aleator. De aceea se impune ca M să fie prim.

2. Dacă a şi M nu sunt prime ı̂ntre ele, atunci situaţia de la punctul


observaţia precedentă se repetă, deci este necesar ca a şi M să fie prime
ı̂ntre ele.
288 Algoritmi probabilişti

Definiţia 13.2.5 Numim ordinul lui a (mod M) numărul


γ(a, M) = min {z ∈ N|az = 1 (mod M)} ,
şi ordin maxim numărul
γ(M) = max γ(a, M).
a

Definiţia 13.2.6 Spunem că a este o rădăcină primitivă (mod M) dacă


γ(M) = γ(a, M).
Exemplul 13.2.7 Dacă M = 5, atunci γ(5k, 5) = 1, γ(5k + 1, 5) = 1,
γ(5k + 2, 5) = 4, γ(5k + 3, 5) = 4, γ(5k + 4, 5) = 1. Deci γ(5) = 4 şi
a = 5k + 2 şi a = 5k + 3 sunt rădăcini primitive (mod M).
Teorema 13.2.8 Valoarea maximă a perioadei unui generator multiplicativ
congruenţial este atinsă şi este λ = γ(M) dacă
(i) (x0 , M) = 1;
(ii) a ∈ N este o rădăcină primitivă (mod M);
(iii) (a, M) = 1.
Observaţia 13.2.9
1. Condiţiile (i) şi (iii) sunt automat satisfăcute dacă M este prim.

2. Dacă M ≥ 225 şi rădăcina primitivă a ≈ M , s-a constatat statistic
că se produc numere aleatoare acceptabile.
3. Dacă reprezentarea ı̂ntregilor pe calculator se face pe un cuvânt de 32
de biţi, atunci se poate alege:

M = 231 − 1 = 21474 83647, număr prim


a = 75 = 16807, rădăcină primitivă
x0 oarecare.

În acest caz se obţine λ = γ(M) = M − 1. De asemenea se obţin


rezultate bune dacă luăm
M = 231 = 21474 83648
a = 216 + 3 = 65539 = 3 (mod 8),
x0 număr impar
caz ı̂n care λ(M) = 229 .
13.3. Algoritmi Las Vegas 289

4. Dacă lungimea cuvântului este mai mică decât 32 de biţi, se recomandă


generatori ı̂n doi paşi. Se scrie a = a1 a2 , deci xn+1 = axn (mod M)
este echivalent cu
z = a1 xn (mod M),
xn+1 = a2 z (mod M).
Ca valori posibile am putea lua M = 225 = 33554432 şi a = 2907 =
51 · 57 = 3 (mod 8) sau M = 2796203 (număr prim) şi a = 5 · 25
(rădăcină primitivă (mod M)). Perioadele sunt λ = 223 şi respectiv
λ = M − 1.
5. Având ı̂n vedere că pot să apară depăşiri la operaţiile aritmetice se
recomandă implementarea acestor generatori ı̂n limbaj de asamblare.

Pentru detalii suplimentare legate de generarea numerelor aleatoare re-


comandăm cititorului lucrările [ B93] şi [ K83].

13.3 Algoritmi Las Vegas


Ca prim exemplu de algoritm Las Vegas s-ar putea da algoritmul Quick-
sort cu pivotul selectat aleator. Nu insistăm asupra acestui algoritm, deoa-
rece este cunoscut. Pentru detalii a se consulta [ CLR].
Vom mai da un exemplu de algoritm Las Vegas pentru:
PROBLEMA ELEMENTULUI MAJORITAR. Se dă un tablou A[1..n] de
ı̂ntregi şi se ştie că unul dintre elemente apare de cel puţin n/2 ori (element
majoritar). Să se determine elementul.
Avem următorul algoritm:
FIND-MAJORITY(A,n)
repetă nedefinit
alege aleator un indice i ^ ın domeniul 1..n;
determină numărul j de apariţii ale lui A[i] ^ ın a;
dacă (j ≥ n/2) atunci returnează j.
Deoarece există un element majoritar, algoritmul va găsi unul cu o pro-
babilitate ≥ 12 . Numărul mediu de ı̂ncercări necesare pentru a-l găsi este
X∞
i
= 2.
i=1
2i

Fiecare ı̂ncercare necesită un timp liniar, deci numărul mediu de operaţii


(după toate generările de numere aleatoare) este O(n). În concluzie algorit-
mul are un timp de execuţie liniar.
290 Algoritmi probabilişti

Observaţia 13.3.1 1. Algoritmul nu este robust. Dacă nu există element


majoritar, algoritmul intră ı̂ntr-un ciclu infinit. Putem rezolva această
problemă oprindu-ne după un număr fixat de ı̂ncercări. Dar ı̂n acest
mod putem da un răspuns eronat (totuşi cu o probabilitate mică) şi
algoritmul se transformă ı̂ntr-un algoritm de tip Monte Carlo.

2. În practică calitatea generatorului de numere aleatoare poate influenţa


crucial rezultatul.

13.4 Algoritmi Monte Carlo


Vom considera problema: dându-se trei matrice pătratice de ordinul n,
A, B şi C să se verifice dacă C = AB.
Algoritmul clasic de ı̂nmulţire rezolvă problema ı̂n timp O(n3 ). Algo-
ritmul lui Strassen (vezi [ CLR]) rezolvă problema ı̂n timp O(nlog2 7 ). Cel
mai bun algoritm determinist cunoscut are un timp de execuţie O(n2.376 )
([ CLR]).
Să analizăm următorul algoritm de tip Monte Carlo datorat lui Freivald.
repetă de k ori
generează un vector aleator x ∈ {−1, 1}n ;
dacă A(Bx) 6= Cx atunci returnează ’’diferit’’;
returnează ’’egal’’.

Teorema 13.4.1 Probabilitatea de eroare p a algoritmului de mai sus veri-


fică p ≤ 2−k .

Demonstraţie. Dacă ABx 6= Cx, atunci există indicii i, j astfel ı̂ncât


n
X
ci,j 6= ail blj .
l=1

Atunci ABx 6= Cx fie pentru xj = 1 fie pentru xj = −1. Astfel, putem spune
la o ı̂ncercare, cu o probabilitate ≤ 1/2, dacă AB 6= C. Deoarece ı̂ncercările
sunt independente, p ≤ 2−k .
Timpul de execuţie este O(n2 ). Problema existenţei unui algoritm deter-
minist pentru rezolvarea acestei probleme ı̂n timp pătratic este deschisă (ea
ar putea fi mai simplă decât problema ı̂nmulţirii ı̂n timp pătratic).
Următorul exemplu se referă la verificarea unor identităţi.
Fie f (x1 , . . . , xn ) un polinom cu coeficienţi raţionali de n variabile de grad
cel mult k ı̂n fiecare dintre variabile. Vrem să decidem dacă f ≡ 0. Ideea de
bază este să ı̂nlocuim variabilele cu numere aleatoare şi să calculăm valoarea
13.4. Algoritmi Monte Carlo 291

polinomului. Dacă aceasta nu este zero polinomul nu poate fi identic nul.


Dacă pentru un număr de ı̂ncercări suficient de mare, se obţine de fiecare
dată valoarea zero, probabilitatea ca polinomul să nu fie identic nul este
mică. Vom alege pentru variabile valori ı̂ntregi din intervalul [0, N − 1],
independente şi uniform distribuite. Are loc următorul rezultat:
Lema 13.4.2 (Schwarz) Dacă f nu este identic nul şi valorile ξi sunt in-
dependente şi uniform distribuite ı̂n intervalul [0, N − 1], atunci
kn
P (f (ξ1 , . . . , ξn ) = 0) ≤
.
N
Demonstraţie. Se face prin inducţie după n. Lema este adevărată
pentru n = 1, deoarece un polinom ı̂ntr-o variabilă de grad k poate avea cel
mult k rădăcini. Fie n > 1 şi să ordonăm f după puterile lui x1 :
f = f0 + f1 x1 + f2 x21 + · · · + ft xt1 ,
unde f0 , . . . , ft sunt polinoame ı̂n variabilele x2 , . . . , xn , termenul ft nu este
identic 0 şi t ≤ k. Aplicând formula probabilităţii totale vem

P (f (ξ1 , . . . , ξn ) = 0) ≤
P (f (ξ1 , . . . , ξn ) = 0|ft (ξ2 , . . . , ξn ) = 0) P (ft (ξ2 , . . . , ξn ) = 0) +
+ P (f (ξ1 , . . . , ξn ) = 0|ft (ξ2 , . . . , ξn ) 6= 0) P (ft (ξ2 , . . . , ξn ) 6= 0)
≤P (ft (ξ2 , . . . , ξn ) = 0) + P (f (ξ1, . . . , ξn ) = 0|ft (ξ2 , . . . , ξn ) 6= 0) .
Primul termen poate fi estimat folosind ipoteza inducţiei, iar al doilea este
cel mult k/N (căci ξ1 este independentă de variabilele ξ2 , . . . , ξn şi de aceea
dacă ultimele sunt fixate astfel ca ft 6= 0 şi f ca polinom ı̂n x1 nu este identic
nul, atunci probabilitatea ca ξ1 să fie rădăcină este cel mult k/N). Deci
k(n − 1) k kn
P (f (ξ1 , . . . , ξn ) = 0) ≤ + ≤ .
N N N

Aceasta ne conduce la următorul algoritm: calculăm f (ξ1, . . . , ξn ) pentru


valorile ı̂ntregi ξi care sunt numere (pseudo) aleatoare independente distribu-
ite uniform discret ı̂n intervalul [0, 2kn]. Dacă obţinem o valoare diferită de 0
ne oprim : f nu este identic nul. Dacă obţinem valoarea 0 repetăm calculul.
Dacă obţinem valoarea 0 de, să zicem 100 de ori, ne oprim şi decidem că f
este identic nul.
Observaţia 13.4.3 Dacă numărul de repetări de repetări este l, probabilita-
tea ca algoritmul să decidă eronat că f ≡ 0 este < 2−l , deoarece probabilitatea
de a greşi la o ı̂ncercare este ≤ 1/2, iar ı̂ncercările sunt independente.
292 Algoritmi probabilişti
Anexa A

Funcţiile lui Euler

A.1 Funcţia gama a lui Euler


Funcţia Γ a lui Euler este definită pentru orice r > 0 prin relaţia
Z ∞
Γ(r) = xr−1 e−x dx. (A.1)
0

Integrând prin părţi se obţine relaţia

Γ(r + 1) = rΓ(r), (A.2)

valabilă pentru orice r > 0. În particular, pentru r natural obţinem

Γ(r + 1) = r!Γ(1), (A.3)

care, ţinând cont că Z ∞


Γ(1) = e−x dx = 1
0

ne conduce la
Γ(r + 1) = r!, ∀r ∈ N. (A.4)
Efectuând schimbarea de variabilă 2x = y 2 obţinem
Z ∞
y2
y 2r−1e− 2 dy = 2r−1 Γ(r) (A.5)
0

şi ı̂n particular, pentru r = 21 , obţinem


Z ∞  
2
− y2 1 1
e dy = √ Γ .
0 2 2

293
294 Funcţiile lui Euler

Ţinând cont că


Z Z sZ Z
∞ ∞ ∞ ∞
− y2
2
1 1− y2
2
e dy = e dy = e−(x2 +y2 )/2 dxdy =
0 2−∞ 2 −∞ −∞
r
1√ π
= 2π = , (A.6)
2 2
rezultă  
1 √
Γ = π. (A.7)
2

Cu ajutorul rezultatelor de mai sus putem calcula Γ 2r+1
2
pentru r ı̂ntreg,
deoarece      
2r + 1 1 1
Γ =Γ r+ =Γ r− +1
2 2 2
şi deci      
2r + 1 1 1
Γ = r− Γ r− . (A.8)
2 2 2
De exemplu, pentru r = 1 obţinem
        √
3 1 1 1 1 π
Γ = 1− Γ 1− = Γ = .
2 2 2 2 2 2

A.2 Funcţia beta a lui Euler


Funcţia beta a lui Euler este definită pentru orice ρ > 0 şi ν > 0 prin
relaţia Z 1
B(ρ, ν) = xρ−1 (1 − x)ν−1 dx. (A.9)
0
Făcând schimbarea de variabilă y = 1 − x, se observă că

B (ρ, ν) = B (ν, ρ) . (A.10)

Să observăm de asemenea că substituţia x = sin2 t ı̂n (A.9) ne conduce la


relaţia Z π/2
B (ρ, ν) = 2 sin2ρ−1 t cos2ν−1 tdt, (A.11)
0
1
iar substituţia x = 1+y
ne conduce la relaţia
Z ∞
y ν−1
B (ρ, ν) = dy. (A.12)
0 (1 + y)ρ+ν
A.2. Funcţia beta a lui Euler 295

Relaţia dintre funcţiile beta şi gama se obţine cu ajutorul formulelor (A.5)
şi (A.11) ı̂n modul următor:
Z ∞ Z ∞
ρ−1 ν−1 ρ+ν−2 2 +y 2 )/2
2 Γ(ρ) · 2 Γ(ν) = 2 e−(x
x2ρ−1 y 2ν−1 dxdy =
0 0
Z ∞ Z π/2
ρ+ν−2 −r 2 /2 ρ+ν+1
=2 e r dr sin2ρ−1 t sin2ν−1 tdt =
0 0
ρ+ν−2
=2 Γ(ρ + ν)B(ρ, ν)

şi deci
Γ(ρ)Γ(ν)
B(ρ, ν) = , (A.13)
Γ(ρ + ν)
care este tocmai relaţia căutată.
Utilizând (A.2) şi (A.13) se pot deduce relaţiile funcţionale
ρ
B(ρ + 1, ν) = B(ρ, ν), (A.14)
ρ+ν

ν
B(ρ, ν + 1) = B(ρ, ν) (A.15)
ν+ρ
şi deci
B(ρ + 1, ν) + B(ρ, ν + 1) = B(ρ, ν). (A.16)
În cazul particular când ρ şi ν sunt ı̂ntregi, din (A.4) şi (A.13) se deduce că

ρ!ν!
B(ρ + 1, ν + 1) = . (A.17)
(ρ + ν + 1)!

O formulă utilă pentru funcţia gama este formula lui Legendre:


  √
1 πΓ(2r)
Γ r+ = 2r−1 . (A.18)
2 2 Γ(r)

Această formulă se obţine observând că


Z 1  2 !r−1
1 1
B(r, r) = − −x dx =
0 4 2
Z 1/2  2 !r−1
1 1
=2 − −x dx,
0 4 2
296 Funcţiile lui Euler


care ı̂n urma schimbării de variabilă x = (1 − t)/2 devine
Z 1  
1 − 12 r−1 1 1
B(r, r) = 2r−1 t (1 − t) dt = 2r−1 B ,r =
2 0 2 2
 √
Γ 12 Γ(r) πΓ(r)
= 2r−1 1
= .
2 Γ r+2 2 2r−1 Γ r + 21

Aplicând (A.13) pentru B(r, r) se obţine chiar formula căutată.


Anexa B

Statistici ale ordinii

Adeseori variabilele aleatoare observate se ordonează ı̂n funcţie de mări-


mea lor. Variabilele astfel ordonate se numesc statistici ale ordinii.
Fie Y1 , Y2 , . . . , Yn v.a.i. continue cu funcţia de repartiţie F şi densitatea
f . Vom nota variabilele aleatoare ordonate cu Y(1) , Y(2) , . . . , Y(n) unde Y(1) ≤
Y(2) ≤ · · · ≤ Y(n) . În cazul continuu putem considera că inegalităţile sunt
stricte.

Y(1) = min(Y1 , Y2, . . . , Yn ),


Y(n) = max(Y1, Y2 , . . . , Yn ).

Vom obţine ı̂ntâi funcţia de repartiţie şi densitatea pentru Y(n) . Deoarece
Y(n) este maximul lui Y(1) , . . . , Y(n) evenimentul (Y(n) < y) va apare dacă şi
numai dacă apar evenimentele (Yi < y), i = 1, n. Adică

P (Y(n) < y) = P (Y1 < y, Y2 < y, . . . , Yn < y).

Deoarece Yi sunt independente şi P (Yi < y) = F (y), rezultă că funcţia de
repartiţie a lui Y(n) este dată de

Fn (y) = P (Y(n) < y) = P (Y1 < y) . . . P (Yn < y) = [F (y)]n

Prin derivare se obţine densitatea f(n) a lui Y(n)

f(n) (y) = n[F (y)]n−1f (y)

Densitatea lui Y(1) se poate găsi ı̂n acelaşi mod

F1 (y) = P (Y(1) < y) = 1 − P (Y(1) ≥ y).

Deoarece Y(1) este minimul lui Y1 , Y2 , . . . , Yn rezultă că evenimentul (Y(1) ≥ y)


apare dacă şi numai dacă evenimentele (Yi ≥ i) apar pentru i = 1, 2, . . . , n.

297
298 Statistici ale ordinii

Deoarece Yi sunt independente şi P (Yi ≥ y) = 1 − F (y) pentru i = 1, 2, . . . , n


observăm că
F1 (y) = P (Y(1) < y)
= 1 − P (Y1 ≥ y, Y2 ≥ y, . . . , Yn ≥ y)
= 1 − [1 − F (y)]n
Densitatea este
f(1) (y) = n[1 − F (y)]n−1f (y).
Să considerăm acum cazul n = 2 şi să găsim densitatea vectorului aleator
(Y(1) , Y(2) ). Evenimentul (Y(1) < y1 , Y(2) < y2 ) ı̂nseamnă că fie (Y1 < y1 , Y2 <
y2 ) sau (Y2 < y1 , Y1 < y2 ). (De notat că Y(1) poate fi oricare dintre Y1 sau Y2 ,
care este mai mic.) Deci pentru y1 < y2 , P (Y(1) < y1 , Y(2) < y2 ) este egală cu
probabilitatea lui (Y1 < y1 , Y2 < y2 ) ∪ (Y2 < y1 , Y1 < y2 ), adică
P (Y(1) < y1 , Y(2) < y2 ) = P (Y1 < y1 , Y2 < y2 ) + P (Y2 < y1 , Y1 < y2 )
− P (Y1 < y1 , Y2 < y1 )
Deoarece Y1 şi Y2 sunt independente şi P (Yi < w) = F (w), i = 1, 2 rezultă
că
P (Y(1) < y1 , Y(2) < y2 ) = F (y1)F (y2 ) + F (y2 )F (y1) − F (y1 )F (y1)
= 2F (y1)F (y2 ) − [F (y1 )]2
Densitatea de probabilitate f(1)(2) (y1 , y2 ) se obţine derivând ı̂ntâi ı̂n raport
cu y2 şi apoi ı̂n raport cu y1

2f (y1)f (y2 ), y1 < y2
f(1)(2) (y1 , y2 ) =
0, altfel
Prin aceeaşi metodă, densitatea lui (Y(1) , Y(2) , . . . , Y(n) ) este

n!f (y1 )f (y2) . . . f (yn ), y1 ≤ y2 ≤ · · · ≤ yn
f(1)(2)...(n) (y1 , . . . , yn ) =
0, altfel
Densitatea marginală a oricărei statistici se poate obţine pornind de aici.
Exemplul B.0.1 Componentele electronice de un anumit tip au durata de
viaţă Y (ı̂n ore) cu densitatea de probabilitate dată de

(1/100)e−y/100 , y > 0
f (y) =
0, altfel
Presupunem că două astfel de componente operează independent şi ı̂n serie
ı̂ntr-un anumit sistem (deci sistemul cade dacă una dintre componente cade).
Găsiţi densitatea de probabilitate a lui X, durata de viaţă a sistemului.
299

Soluţie. Datorită legării ı̂n serie, X = min(Y1 , Y2 ). Deoarece Y1 şi Y2


sunt independente şi F (y) = 1 − e−y/100 , pentru y ≥ 0

fx (x) = f(1) (y) = n[1 − F (y)]n−1f (y)


 −y/100
2e (1/100)e−y/100 , y > 0
=
0, altfel

şi rezultă că ( 1 −y


e 50 , y > 0
fx (y) = 50
0, altfel

Astfel minimul a două variabile aleatoare distribuite exponenţial este dis-


tribuit exponenţial cu media jumătate.
Dacă componentele sunt legate ı̂n paralel

Fx (y) = f(2) (y) = n[F (y)]n−1f (y)



2(1 − e−y/100 )(1/100)e−y/100 , y > 0
=
0, altfel

şi deci 
(1/50)(e−y/100 − e−y/50 ), y > 0
fx (y) =
0, altfel.
Maximul a două variabile aleatoare exponenţiale nu mai este o variabilă
aleatoare exponenţială.
Deşi o deducere riguroasă a densităţii celei de-a k-a statistici de ordine
este mai dificilă, densitatea rezultată are o structură intuitivă. Odată ce
structura este ı̂nţeleasă, repartiţia şi densitatea se pot scrie uşor. Putem
gândi densitatea de probabilitate a unei variabile aleatoare continue ı̂ntr-un
punct ca fiind proporţională cu probabilitatea ca variabila să fie apropiată
de acel punct. Adică, dacă Y este variabilă aleatoare continuă cu densitatea
de probabilitate f (y), atunci

P (y ≤ Y < y + dy) ≈ f (y)dy.

Considerăm acum a k-a statistică a ordinii, Y(k) . Dacă a k-a cea mai
apropiată valoare este apropiată de yk , atunci k − 1 variabile Y trebuie să fie
mai mici decât yk , una trebuie să fie lângă yk , iar restul de n − k trebuie să
fie mai mari decât yk . Folosim distribuţia multinomială. Avem trei clase
clasa 1: Variabilele Y au valori < yk
clasa 2: Variabilele Y au valori lângă yk
300 Statistici ale ordinii

clasa 3: Variabilele Y au valori > yk . Probabilităţile fiecăreia dintre


aceste clase sunt respectiv p1 = P (Y < k) = F (yk ), p2 = P (yk ≤ Y ≤
yk + dyk ) ≈ f (yk )dyk şi p3 = P (Y > yk ) = 1 − F (yk ).
P (yk ≤ Y(k) ≤ yk + dyk ) ≈ P [k − 1 ı̂n clasa 1, 1 ı̂n clasa 2, n − k ı̂n clasa 3]
 
n
≈ p1k−1 p12 p3n−k
k−1 1 n−k
n!
≈ [(F (yk ))k−1 f (yk )dyk (1 − F (yk ))n−k ]
(k − 1)!1!(n − k)!
şi deci
n!
f(k) (yk )dk ≈ F k−1 (yk )f (yk )[1 − F (yk )]n−k dyk .
(k − 1)!1!(n − k)!
Densitatea celei de-a k-a statistici de ordine şi densităţile comune sunt
date de teorema următoare.
Teorema B.0.2 Fie Y1 , . . . , Yn v.a.c.i. şi i.d. cu funcţia de repartiţie F şi
d.p. f . Dacă Y(k) este a k-a statistică a ordinii, atunci densitatea lui Y(k)
este dată de
n!
f(k) (yk ) = [F (yk )]k−1 [1 − F (yk )]n−k f (yk ), yk ∈ R.
(k − 1)!(n − k)!
Dacă j şi k sunt doi ı̂ntregi astfel ca 1 ≤ y < k ≤ n, densitatea comună a lui
Y(j) şi Y(k) este dată de
n!
f(j)(k) (yj , yk ) = [F (yj )]j−1 [F (yk ) − F (yj )]k−1−j ·
(j − 1)!(k − 1 − j)!(n − k)!
·[1 − F (yk )]n−k f (yj )f (yk ), yj < yk , yj , yk ∈ R
Deducerea intuitivă ca mai ı̂nainte:
clasa 1 Y − i mai mici decât yj j−1
clasa 2 Y − i apropiaţi de yj 1
clasa 3 Y − i ı̂ntre yj şi yk k−1−j
clasa 4 Y apropiaţi de yk 1
clasa 5 Y mai mari decât yk n−k
şi apoi aplicăm distribuţia multinomială.
Exemplul B.0.3 Presupunem că Y1 , Y2 , . . . , Yn ∈ U[0, 1]. Adică

1, y ∈ [0, 1]
F (y) =
0, altfel
Determinaţi densitatea celei de-a doua statistici şi densitatea comună a vec-
torului aleator (Y(2) , Y(4) ).
301

Soluţie. 
 0, y < 0
F (y) = x, 0 ≤ y ≤ 1

1, y > 1

5!
f(2) (y2 ) = y 2−1[1 − y]5−2 f (y2)
(2 − 1)!(5 − 2)!

20y2 (1 − y2 )3 , y2 ∈ [0, 1]
=
0, altfel

5!
f(2)(4) (y2 , y4) = ·
(2 − 1)!(4 − 1 − 2)!(5 − 4)!
· [F (y2 )]2−1 [F (y4 ) − F (y2 )]4−1−2 [1 − F (y4 )]5−4 f (y2)f (y4 ).
302 Statistici ale ordinii
Anexa C

Tabele pentru principalele


distribuţii

În continuare se dau tabele pentru principalele distribuţii utilizate ı̂n lu-
crare:
Rx  2
• valorile funcţiei de repartiţie normale Φ(x) = √12π −∞ exp −t2 dt –
tabela C.1;

• cuantilele distribuţiei normale (valorile inversei Ψ a lui Φ) – tabela C.2;

• cuantilele distribuţiei Student – tabela C.3;

• cuantilele distribuţiei χ2 – tabelele C.4 – C.5;

• cuantilele distribuţiei F – tabelele C.6 –C.11 ;

• valorile distribuţiei K a lui Kolmogorov – tabela C.12;

• valorile critice pentru testul semnelor – tabela C.13;

• probabilităţi pentru testul U al lui Mann şi Whitney – tabelele C.14 –


C.21;

• probabilităţi pentru testul monotoniilor (runs test) – tabelele C.22 –


C.23;

• valorile critice pentru testul lui Wilcoxon – tabela C.24;

• valorile critice ale coeficientului de corelaţie al lui Spearman – tabela


C.25.

303
304 Tabele pentru principalele distribuţii

Tabela C.1: Valorile funcţiei Φ a lui Laplace

% x
x 0 1 2 3 4 5 6 7 8 9
-3.5 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000
-3.4 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000
-3.3 0.000 0.001 0.001 0.001 0.001 0.001 0.001 0.001 0.001 0.001
-3.2 0.001 0.001 0.001 0.001 0.001 0.001 0.001 0.001 0.001 0.001
-3.1 0.001 0.001 0.001 0.001 0.001 0.001 0.001 0.001 0.001 0.001
-3.0 0.001 0.001 0.001 0.001 0.002 0.002 0.002 0.002 0.002 0.002
-2.9 0.002 0.002 0.002 0.002 0.002 0.002 0.002 0.002 0.002 0.002
-2.8 0.003 0.003 0.003 0.003 0.003 0.003 0.003 0.003 0.003 0.003
-2.7 0.003 0.004 0.004 0.004 0.004 0.004 0.004 0.004 0.004 0.005
-2.6 0.005 0.005 0.005 0.005 0.005 0.005 0.006 0.006 0.006 0.006
-2.5 0.006 0.006 0.007 0.007 0.007 0.007 0.007 0.008 0.008 0.008
-2.4 0.008 0.008 0.009 0.009 0.009 0.009 0.010 0.010 0.010 0.010
-2.3 0.011 0.011 0.011 0.012 0.012 0.012 0.013 0.013 0.013 0.014
-2.2 0.014 0.014 0.015 0.015 0.015 0.016 0.016 0.017 0.017 0.017
-2.1 0.018 0.018 0.019 0.019 0.020 0.020 0.021 0.021 0.022 0.022
-2.0 0.023 0.023 0.024 0.024 0.025 0.026 0.026 0.027 0.027 0.028
-1.9 0.029 0.029 0.030 0.031 0.031 0.032 0.033 0.034 0.034 0.035
-1.8 0.036 0.037 0.038 0.038 0.039 0.040 0.041 0.042 0.043 0.044
-1.7 0.045 0.046 0.046 0.047 0.048 0.049 0.051 0.052 0.053 0.054
-1.6 0.055 0.056 0.057 0.058 0.059 0.061 0.062 0.063 0.064 0.066
-1.5 0.067 0.068 0.069 0.071 0.072 0.074 0.075 0.076 0.078 0.079
-1.4 0.081 0.082 0.084 0.085 0.087 0.089 0.090 0.092 0.093 0.095
-1.3 0.097 0.099 0.100 0.102 0.104 0.106 0.107 0.109 0.111 0.113
-1.2 0.115 0.117 0.119 0.121 0.123 0.125 0.127 0.129 0.131 0.133
-1.1 0.136 0.138 0.140 0.142 0.145 0.147 0.149 0.152 0.154 0.156
-1.0 0.159 0.161 0.164 0.166 0.169 0.171 0.174 0.176 0.179 0.181
-0.9 0.184 0.187 0.189 0.192 0.195 0.198 0.200 0.203 0.206 0.209
-0.8 0.212 0.215 0.218 0.221 0.224 0.227 0.230 0.233 0.236 0.239
-0.7 0.242 0.245 0.248 0.251 0.255 0.258 0.261 0.264 0.268 0.271
-0.6 0.274 0.278 0.281 0.284 0.288 0.291 0.295 0.298 0.302 0.305
-0.5 0.309 0.312 0.316 0.319 0.323 0.326 0.330 0.334 0.337 0.341
-0.4 0.345 0.348 0.352 0.356 0.359 0.363 0.367 0.371 0.374 0.378
-0.3 0.382 0.386 0.390 0.394 0.397 0.401 0.405 0.409 0.413 0.417
-0.2 0.421 0.425 0.429 0.433 0.436 0.440 0.444 0.448 0.452 0.456
-0.1 0.460 0.464 0.468 0.472 0.476 0.480 0.484 0.488 0.492 0.496
continuare pe pagina următoare. . .
305

Tabela C.1: Valorile funcţiei Φ a lui Laplace – continuare

% x
x 0 1 2 3 4 5 6 7 8 9
0.0 0.500 0.504 0.508 0.512 0.516 0.520 0.524 0.528 0.532 0.536
0.1 0.540 0.544 0.548 0.552 0.556 0.560 0.564 0.567 0.571 0.575
0.2 0.579 0.583 0.587 0.591 0.595 0.599 0.603 0.606 0.610 0.614
0.3 0.618 0.622 0.626 0.629 0.633 0.637 0.641 0.644 0.648 0.652
0.4 0.655 0.659 0.663 0.666 0.670 0.674 0.677 0.681 0.684 0.688
0.5 0.691 0.695 0.698 0.702 0.705 0.709 0.712 0.716 0.719 0.722
0.6 0.726 0.729 0.732 0.736 0.739 0.742 0.745 0.749 0.752 0.755
0.7 0.758 0.761 0.764 0.767 0.770 0.773 0.776 0.779 0.782 0.785
0.8 0.788 0.791 0.794 0.797 0.800 0.802 0.805 0.808 0.811 0.813
0.9 0.816 0.819 0.821 0.824 0.826 0.829 0.831 0.834 0.836 0.839
1.0 0.841 0.844 0.846 0.848 0.851 0.853 0.855 0.858 0.860 0.862
1.1 0.864 0.867 0.869 0.871 0.873 0.875 0.877 0.879 0.881 0.883
1.2 0.885 0.887 0.889 0.891 0.893 0.894 0.896 0.898 0.900 0.901
1.3 0.903 0.905 0.907 0.908 0.910 0.911 0.913 0.915 0.916 0.918
1.4 0.919 0.921 0.922 0.924 0.925 0.926 0.928 0.929 0.931 0.932
1.5 0.933 0.934 0.936 0.937 0.938 0.939 0.941 0.942 0.943 0.944
1.6 0.945 0.946 0.947 0.948 0.949 0.951 0.952 0.953 0.954 0.954
1.7 0.955 0.956 0.957 0.958 0.959 0.960 0.961 0.962 0.962 0.963
1.8 0.964 0.965 0.966 0.966 0.967 0.968 0.969 0.969 0.970 0.971
1.9 0.971 0.972 0.973 0.973 0.974 0.974 0.975 0.976 0.976 0.977
2.0 0.977 0.978 0.978 0.979 0.979 0.980 0.980 0.981 0.981 0.982
2.1 0.982 0.983 0.983 0.983 0.984 0.984 0.985 0.985 0.985 0.986
2.2 0.986 0.986 0.987 0.987 0.987 0.988 0.988 0.988 0.989 0.989
2.3 0.989 0.990 0.990 0.990 0.990 0.991 0.991 0.991 0.991 0.992
2.4 0.992 0.992 0.992 0.992 0.993 0.993 0.993 0.993 0.993 0.994
2.5 0.994 0.994 0.994 0.994 0.994 0.995 0.995 0.995 0.995 0.995
2.6 0.995 0.995 0.996 0.996 0.996 0.996 0.996 0.996 0.996 0.996
2.7 0.997 0.997 0.997 0.997 0.997 0.997 0.997 0.997 0.997 0.997
2.8 0.997 0.998 0.998 0.998 0.998 0.998 0.998 0.998 0.998 0.998
2.9 0.998 0.998 0.998 0.998 0.998 0.998 0.998 0.999 0.999 0.999
3.0 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.999
3.1 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.999
3.2 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.999
3.3 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
3.4 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
3.5 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
306 Tabele pentru principalele distribuţii

Tabela C.2: Valorile inversei funcţiei de repartiţie nor-


male

x 0% 0.05% x 0% 0.05%
0.00 −∞ -2.58
0.01 -2.326352 -2.170094 0.51 0.025070 0.037610
0.02 -2.053753 -1.959968 0.52 0.050155 0.062708
0.03 -1.880797 -1.811914 0.53 0.075271 0.087846
0.04 -1.750690 -1.695401 0.54 0.100435 0.113040
0.05 -1.644857 -1.598196 0.55 0.125663 0.138306
0.06 -1.554777 -1.514105 0.56 0.150971 0.163660
0.07 -1.475794 -1.439534 0.57 0.176376 0.189120
0.08 -1.405075 -1.372207 0.58 0.201895 0.214703
0.09 -1.340758 -1.310582 0.59 0.227547 0.240428
0.10 -1.281554 -1.253568 0.60 0.253349 0.266312
0.11 -1.226531 -1.200362 0.61 0.279321 0.292377
0.12 -1.174989 -1.150352 0.62 0.305483 0.318641
0.13 -1.126394 -1.103065 0.63 0.331855 0.345127
0.14 -1.080322 -1.058124 0.64 0.358461 0.371858
0.15 -1.036436 -1.015224 0.65 0.385322 0.398857
0.16 -0.994460 -0.974116 0.66 0.412465 0.426150
0.17 -0.954168 -0.934592 0.67 0.439915 0.453764
0.18 -0.915367 -0.896476 0.68 0.467701 0.481729
0.19 -0.877899 -0.859620 0.69 0.495852 0.510075
0.20 -0.841623 -0.823896 0.70 0.524402 0.538838
0.21 -0.806423 -0.789194 0.71 0.553387 0.568053
0.22 -0.772195 -0.755417 0.72 0.582844 0.597762
0.23 -0.738849 -0.722481 0.73 0.612815 0.628008
0.24 -0.706305 -0.690311 0.74 0.643347 0.658840
0.25 -0.674492 -0.658840 0.75 0.674492 0.690311
0.26 -0.643347 -0.628008 0.76 0.706305 0.722481
0.27 -0.612815 -0.597762 0.77 0.738849 0.755417
0.28 -0.582844 -0.568053 0.78 0.772195 0.789194
0.29 -0.553387 -0.538838 0.79 0.806423 0.823896
0.30 -0.524402 -0.510075 0.80 0.841623 0.859620
0.31 -0.495852 -0.481729 0.81 0.877899 0.896476
0.32 -0.467701 -0.453764 0.82 0.915367 0.934592
0.33 -0.439915 -0.426150 0.83 0.954168 0.974116
0.34 -0.412465 -0.398857 0.84 0.994460 1.015224
0.35 -0.385322 -0.371858 0.85 1.036436 1.058124
continuare pe pagina următoare . . .
307

Tabela C.2: Valorile inversei funcţiei de repartiţie nor-


male – continuare

x 0% 0.05% x 0% 0.05%
0.36 -0.358461 -0.345127 0.86 1.080322 1.103065
0.37 -0.331855 -0.318641 0.87 1.126394 1.150352
0.38 -0.305483 -0.292377 0.88 1.174989 1.200362
0.39 -0.279321 -0.266312 0.89 1.226531 1.253568
0.40 -0.253349 -0.240428 0.90 1.281554 1.310582
0.41 -0.227547 -0.214703 0.91 1.340758 1.372207
0.42 -0.201895 -0.189120 0.92 1.405075 1.439534
0.43 -0.176376 -0.163660 0.93 1.475794 1.514105
0.44 -0.150971 -0.138306 0.94 1.554777 1.598196
0.45 -0.125663 -0.113040 0.95 1.644857 1.695401
0.46 -0.100435 -0.087846 0.96 1.750690 1.811914
0.47 -0.075271 -0.062708 0.97 1.880797 1.959968
0.48 -0.050155 -0.037610 0.98 2.053753 2.170094
0.49 -0.025070 -0.012535 0.99 2.326352 2.575834
0.50 0.000000 0.012535
308 Tabele pentru principalele distribuţii

Tabela C.3: Cuantilele distribuţiei Student

n\α 0.90 0.95 0.975 0.99 0.995


1 3.0777 6.3138 12.7062 31.8205 63.6567
2 1.8856 2.9200 4.3026 6.9646 9.9248
3 1.6378 2.3534 3.1824 4.5407 5.8409
4 1.5332 2.1318 2.7765 3.7469 4.6041
5 1.4759 2.0151 2.5706 3.3650 4.0322
6 1.4397 1.9432 2.4469 3.1426 3.7075
7 1.4149 1.8946 2.3646 2.9980 3.4995
8 1.3968 1.8596 2.3060 2.8965 3.3554
9 1.3830 1.8331 2.2622 2.8214 3.2499
10 1.3722 1.8125 2.2281 2.7638 3.1693
11 1.3634 1.7959 2.2010 2.7181 3.1058
12 1.3562 1.7823 2.1788 2.6810 3.0546
13 1.3502 1.7709 2.1604 2.6503 3.0123
14 1.3450 1.7613 2.1448 2.6245 2.9769
15 1.3406 1.7530 2.1315 2.6025 2.9467
16 1.3368 1.7459 2.1199 2.5835 2.9208
17 1.3334 1.7396 2.1098 2.5670 2.8983
18 1.3304 1.7341 2.1009 2.5524 2.8785
19 1.3277 1.7292 2.0930 2.5395 2.8609
20 1.3253 1.7247 2.0859 2.5280 2.8454
21 1.3232 1.7207 2.0796 2.5176 2.8313
22 1.3212 1.7172 2.0739 2.5083 2.8187
23 1.3194 1.7138 2.0686 2.4998 2.8073
24 1.3178 1.7109 2.0639 2.4922 2.7970
25 1.3164 1.7081 2.0595 2.4851 2.7874
26 1.3149 1.7056 2.0555 2.4786 2.7787
27 1.3137 1.7033 2.0519 2.4727 2.7707
28 1.3125 1.7011 2.0484 2.4671 2.7632
29 1.3114 1.6991 2.0452 2.4620 2.7564
30 1.3104 1.6972 2.0423 2.4573 2.7500
40 1.3031 1.6838 2.0211 2.4233 2.7044
50 1.2987 1.6759 2.0086 2.4033 2.6778
60 1.2958 1.6707 2.0003 2.3901 2.6603
80 1.2922 1.6641 1.9900 2.3739 2.6387
100 1.2901 1.6602 1.9839 2.3642 2.6259
200 1.2858 1.6525 1.9719 2.3451 2.6006
309

Tabela C.4: Cuantilele distribuţiei χ2 pentru α = 0.005,


0.01, 0.025, 0.05, 0.1

n\α 0.005 0.01 0.025 0.05 0.10


1 0.0000 0.0001 0.0010 0.0040 0.0158
2 0.0101 0.0201 0.0506 0.1026 0.2107
3 0.0718 0.1149 0.2158 0.3519 0.5844
4 0.2070 0.2971 0.4844 0.7107 1.0636
5 0.4117 0.5543 0.8312 1.1455 1.6103
6 0.6757 0.8721 1.2373 1.6354 2.2041
7 0.9893 1.2391 1.6899 2.1674 2.8331
8 1.3444 1.6465 2.1798 2.7326 3.4895
9 1.7350 2.0879 2.7004 3.3251 4.1682
10 2.1558 2.5582 3.2469 3.9403 4.8652
11 2.6032 3.0535 3.8158 4.5748 5.5778
12 3.0738 3.5706 4.4038 5.2260 6.3038
13 3.5651 4.1070 5.0087 5.8918 7.0415
14 4.0747 4.6605 5.6287 6.5707 7.7896
15 4.6010 5.2293 6.2622 7.2609 8.5468
16 5.1422 5.8122 6.9077 7.9616 9.3122
17 5.6972 6.4078 7.5642 8.6717 10.0852
18 6.2648 7.0149 8.2307 9.3905 10.8650
19 6.8440 7.6327 8.9065 10.1170 11.6509
20 7.4338 8.2604 9.5908 10.8509 12.4426
21 8.0336 8.8972 10.2829 11.5913 13.2396
22 8.6427 9.5425 10.9823 12.3380 14.0415
23 9.2604 10.1957 11.6886 13.0905 14.8480
24 9.8862 10.8564 12.4012 13.8484 15.6587
25 10.5196 11.5240 13.1197 14.6114 16.4734
26 11.1602 12.1981 13.8439 15.3792 17.2919
27 11.8076 12.8785 14.5733 16.1514 18.1139
28 12.4613 13.5647 15.3079 16.9279 18.9393
29 13.1212 14.2564 16.0470 17.7083 19.7677
30 13.7867 14.9535 16.7908 18.4927 20.5992
35 17.1918 18.5090 20.5694 22.4650 24.7966
40 20.7065 22.1643 24.4330 26.5093 29.0505
60 35.5345 37.4849 40.4817 43.1880 46.4589
310 Tabele pentru principalele distribuţii

Tabela C.5: Cuantilele distribuţiei χ2 pentru α =0.90,


0.95, 0.975, 0.99, 0.995

n\α 0.90 0.95 0.975 0.99 0.995


1 2.7055 3.8414 5.0239 6.6349 7.8794
2 4.6052 5.9915 7.3778 9.2103 10.5966
3 6.2514 7.8147 9.3484 11.3449 12.8381
4 7.7795 9.4878 11.1433 13.2767 14.8603
5 9.2364 11.0705 12.8325 15.0863 16.7496
6 10.6447 12.5916 14.4494 16.8119 18.5476
7 12.0170 14.0671 16.0128 18.4753 20.2777
8 13.3616 15.5073 17.5346 20.0902 21.9550
9 14.6837 16.9190 19.0228 21.6660 23.5894
10 15.9872 18.3071 20.4832 23.2092 25.1882
11 17.2750 19.6751 21.9201 24.7250 26.7568
12 18.5494 21.0261 23.3366 26.2169 28.2995
13 19.8120 22.3620 24.7356 27.6883 29.8194
14 21.0641 23.6848 26.1190 29.1413 31.3194
15 22.3072 24.9958 27.4884 30.5779 32.8013
16 23.5418 26.2962 28.8454 31.9999 34.2672
17 24.7691 27.5871 30.1910 33.4087 35.7185
18 25.9894 28.8693 31.5264 34.8053 37.1564
19 27.2036 30.1435 32.8523 36.1908 38.5823
20 28.4120 31.4105 34.1696 37.5662 39.9969
21 29.6151 32.6705 35.4788 38.9322 41.4011
22 30.8133 33.9244 36.7807 40.2894 42.7956
23 32.0069 35.1724 38.0756 41.6384 44.1813
24 33.1962 36.4151 39.3641 42.9799 45.5585
25 34.3816 37.6524 40.6465 44.3141 46.9279
26 35.5631 38.8852 41.9232 45.6417 48.2899
27 36.7412 40.1133 43.1945 46.9630 49.6449
28 37.9159 41.3372 44.4608 48.2782 50.9934
29 39.0874 42.5570 45.7222 49.5879 52.3356
30 40.2561 43.7729 46.9793 50.8922 53.6720
35 46.0588 49.8019 53.2033 57.3421 60.2747
40 51.8051 55.7585 59.3417 63.6907 66.7659
60 74.3970 79.0820 83.2977 88.3794 91.9517
311

Tabela C.6: Cuantilele distribuţiei F, α = 0.95

1 2 3 4 5 6 7 8
1 161.45 199.50 215.71 224.58 230.17 233.99 236.76 238.89
2 18.51 19.00 19.16 19.25 19.30 19.33 19.35 19.37
3 10.13 9.55 9.27 9.11 9.01 8.94 8.89 8.85
4 7.71 6.95 6.59 6.39 6.25 6.16 6.09 6.04
5 6.61 5.79 5.41 5.19 5.05 4.95 4.87 4.82
6 5.99 5.15 4.76 4.54 4.38 4.28 4.21 4.15
7 5.59 4.73 4.35 4.12 3.97 3.87 3.79 3.73
8 5.31 4.46 4.06 3.83 3.69 3.58 3.50 3.44
9 5.12 4.25 3.87 3.64 3.48 3.38 3.29 3.23
10 4.96 4.10 3.70 3.48 3.32 3.22 3.13 3.07
11 4.84 3.98 3.59 3.35 3.20 3.09 3.01 2.95
12 4.75 3.89 3.49 3.26 3.10 3.00 2.91 2.85
13 4.67 3.80 3.41 3.18 3.03 2.92 2.84 2.77
14 4.60 3.74 3.35 3.11 2.96 2.85 2.77 2.70
15 4.54 3.68 3.29 3.06 2.90 2.79 2.71 2.64
16 4.49 3.64 3.24 3.01 2.85 2.74 2.66 2.59
17 4.45 3.59 3.19 2.96 2.81 2.70 2.61 2.55
18 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51
19 4.38 3.52 3.13 2.90 2.74 2.63 2.55 2.48
20 4.35 3.49 3.10 2.87 2.71 2.60 2.51 2.45
21 4.32 3.47 3.07 2.84 2.68 2.58 2.48 2.42
22 4.30 3.45 3.05 2.82 2.66 2.55 2.46 2.40
23 4.28 3.42 3.03 2.80 2.64 2.53 2.45 2.38
24 4.26 3.40 3.01 2.77 2.62 2.51 2.42 2.35
25 4.24 3.38 2.99 2.76 2.61 2.49 2.41 2.34
26 4.22 3.37 2.97 2.74 2.58 2.48 2.38 2.32
27 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31
28 4.19 3.34 2.95 2.71 2.56 2.45 2.36 2.29
29 4.19 3.33 2.93 2.70 2.55 2.43 2.35 2.28
30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.26
40 4.16 3.31 2.91 2.67 2.52 2.41 2.32 2.26
50 4.15 3.29 2.90 2.67 2.51 2.40 2.32 2.25
60 4.14 3.29 2.89 2.66 2.50 2.39 2.30 2.23
312 Tabele pentru principalele distribuţii

Tabela C.7: Cuantilele distribuţiei F, α = 0.95–


continuare

9 10 11 12 13 14 15 16
1 240.54 241.88 242.98 243.91 244.69 245.36 245.95 246.46
2 19.38 19.40 19.41 19.41 19.42 19.42 19.43 19.44
3 8.81 8.79 8.76 8.75 8.72 8.72 8.70 8.69
4 6.00 5.96 5.93 5.91 5.89 5.87 5.86 5.84
5 4.77 4.73 4.70 4.68 4.66 4.64 4.62 4.61
6 4.10 4.06 4.03 4.00 3.98 3.96 3.94 3.93
7 3.67 3.64 3.61 3.58 3.55 3.53 3.51 3.49
8 3.38 3.35 3.32 3.29 3.26 3.24 3.22 3.20
9 3.18 3.14 3.10 3.07 3.05 3.03 3.00 2.99
10 3.02 2.98 2.94 2.91 2.89 2.87 2.84 2.83
11 2.90 2.85 2.82 2.79 2.76 2.74 2.72 2.70
12 2.80 2.75 2.72 2.69 2.66 2.64 2.61 2.60
13 2.71 2.67 2.64 2.61 2.58 2.55 2.53 2.51
14 2.64 2.60 2.57 2.54 2.51 2.48 2.46 2.45
15 2.59 2.55 2.51 2.48 2.45 2.42 2.40 2.38
16 2.54 2.49 2.45 2.42 2.40 2.37 2.35 2.33
17 2.49 2.45 2.42 2.38 2.35 2.33 2.31 2.29
18 2.45 2.42 2.38 2.34 2.32 2.29 2.27 2.25
19 2.42 2.38 2.34 2.31 2.28 2.26 2.23 2.22
20 2.39 2.35 2.31 2.28 2.25 2.22 2.20 2.19
21 2.37 2.32 2.29 2.25 2.22 2.19 2.18 2.16
22 2.34 2.29 2.26 2.22 2.19 2.17 2.15 2.13
23 2.32 2.28 2.24 2.20 2.17 2.15 2.13 2.11
24 2.30 2.26 2.22 2.19 2.16 2.13 2.11 2.09
25 2.29 2.24 2.19 2.16 2.13 2.11 2.09 2.07
26 2.26 2.22 2.18 2.15 2.12 2.10 2.07 2.05
27 2.25 2.20 2.16 2.13 2.10 2.08 2.06 2.03
28 2.23 2.19 2.15 2.12 2.09 2.06 2.04 2.02
29 2.22 2.18 2.14 2.10 2.07 2.05 2.03 2.01
30 2.21 2.16 2.13 2.10 2.06 2.03 2.01 2.00
40 2.20 2.16 2.11 2.08 2.05 2.03 2.00 1.98
50 2.19 2.14 2.10 2.07 2.04 2.01 1.99 1.97
60 2.18 2.13 2.10 2.06 2.03 2.00 1.98 1.96
313

Tabela C.8: Cuantilele distribuţiei F, α = 0.975

1 2 3 4 5 6 7 8
1 647.79 799.50 864.16 899.58 921.85 937.11 948.22 956.66
2 38.51 39.00 39.17 39.25 39.30 39.33 39.36 39.37
3 17.45 16.04 15.44 15.10 14.88 14.74 14.62 14.54
4 12.22 10.65 9.98 9.60 9.37 9.20 9.08 8.98
5 10.01 8.44 7.76 7.39 7.15 6.98 6.86 6.76
6 8.82 7.26 6.60 6.23 5.99 5.82 5.70 5.60
7 8.08 6.54 5.89 5.52 5.28 5.12 4.99 4.90
8 7.57 6.06 5.41 5.06 4.82 4.65 4.53 4.43
9 7.21 5.71 5.08 4.72 4.48 4.32 4.20 4.10
10 6.94 5.46 4.83 4.47 4.24 4.07 3.95 3.86
11 6.73 5.25 4.63 4.28 4.04 3.88 3.76 3.67
12 6.55 5.09 4.48 4.12 3.89 3.73 3.61 3.51
13 6.41 4.96 4.35 3.99 3.77 3.61 3.48 3.38
14 6.30 4.86 4.24 3.90 3.67 3.50 3.38 3.29
15 6.20 4.77 4.15 3.80 3.58 3.41 3.29 3.20
16 6.12 4.69 4.08 3.73 3.50 3.34 3.22 3.13
17 6.04 4.62 4.01 3.67 3.44 3.28 3.16 3.06
18 5.98 4.56 3.96 3.61 3.38 3.22 3.10 3.00
19 5.92 4.51 3.90 3.56 3.33 3.17 3.05 2.96
20 5.87 4.46 3.86 3.51 3.29 3.13 3.01 2.91
21 5.83 4.42 3.82 3.48 3.25 3.09 2.97 2.87
22 5.79 4.38 3.78 3.44 3.22 3.06 2.93 2.84
23 5.75 4.35 3.75 3.41 3.19 3.03 2.90 2.80
24 5.72 4.32 3.72 3.38 3.16 3.00 2.87 2.78
25 5.69 4.29 3.70 3.35 3.13 2.96 2.85 2.75
26 5.66 4.26 3.67 3.33 3.10 2.94 2.83 2.73
27 5.64 4.24 3.64 3.31 3.08 2.92 2.80 2.71
28 5.61 4.22 3.63 3.29 3.06 2.90 2.78 2.69
29 5.59 4.20 3.61 3.27 3.04 2.88 2.77 2.67
30 5.57 4.19 3.59 3.25 3.03 2.87 2.74 2.65
40 5.55 4.16 3.58 3.23 3.01 2.85 2.73 2.64
50 5.53 4.15 3.56 3.22 3.00 2.84 2.71 2.62
60 5.51 4.13 3.54 3.20 2.98 2.82 2.70 2.61
314 Tabele pentru principalele distribuţii

Tabela C.9: Cuantilele distribuţiei F, α = 0.975–


continuare

9 10 11 12 13 14 15 16
1 963.29 968.63 973.02 976.71 979.84 982.53 984.86 986.92
2 39.39 39.39 39.41 39.42 39.42 39.43 39.43 39.43
3 14.47 14.42 14.37 14.34 14.30 14.28 14.26 14.23
4 8.91 8.85 8.79 8.75 8.72 8.69 8.66 8.63
5 6.68 6.62 6.57 6.53 6.49 6.46 6.43 6.41
6 5.52 5.46 5.41 5.37 5.33 5.30 5.27 5.25
7 4.83 4.76 4.71 4.67 4.63 4.60 4.57 4.54
8 4.36 4.29 4.25 4.20 4.16 4.13 4.10 4.08
9 4.03 3.96 3.91 3.87 3.83 3.80 3.77 3.74
10 3.78 3.72 3.67 3.62 3.58 3.55 3.52 3.50
11 3.59 3.53 3.48 3.43 3.39 3.36 3.33 3.31
12 3.44 3.38 3.32 3.28 3.24 3.21 3.18 3.15
13 3.32 3.25 3.20 3.16 3.12 3.08 3.06 3.03
14 3.21 3.15 3.09 3.05 3.01 2.98 2.95 2.93
15 3.13 3.06 3.01 2.96 2.93 2.89 2.87 2.84
16 3.05 2.99 2.93 2.89 2.85 2.82 2.79 2.76
17 2.99 2.92 2.87 2.83 2.79 2.75 2.72 2.70
18 2.93 2.87 2.81 2.77 2.73 2.70 2.67 2.64
19 2.88 2.82 2.77 2.72 2.68 2.64 2.61 2.59
20 2.84 2.77 2.72 2.67 2.64 2.61 2.58 2.55
21 2.80 2.74 2.68 2.64 2.60 2.56 2.54 2.51
22 2.77 2.70 2.64 2.60 2.56 2.53 2.50 2.47
23 2.73 2.67 2.61 2.57 2.53 2.50 2.47 2.44
24 2.71 2.64 2.58 2.54 2.50 2.47 2.44 2.41
25 2.67 2.61 2.56 2.51 2.48 2.44 2.41 2.38
26 2.65 2.59 2.54 2.49 2.45 2.42 2.38 2.36
27 2.63 2.57 2.51 2.47 2.43 2.39 2.36 2.34
28 2.61 2.55 2.49 2.45 2.41 2.38 2.35 2.32
29 2.59 2.53 2.48 2.43 2.39 2.35 2.32 2.30
30 2.58 2.51 2.46 2.42 2.37 2.34 2.31 2.28
40 2.56 2.49 2.44 2.39 2.35 2.32 2.29 2.26
50 2.55 2.48 2.42 2.38 2.34 2.31 2.28 2.25
60 2.53 2.47 2.42 2.37 2.32 2.29 2.26 2.23
315

Tabela C.10: Cuantilele distribuţiei F, α = 0.99

1 2 3 4 5 6 7 8
1 4052.18 4999.50 5403.35 5624.58 5763.65 5858.99 5928.36 5981.07
2 98.50 99.00 99.16 99.25 99.30 99.33 99.35 99.38
3 34.12 30.82 29.45 28.71 28.24 27.91 27.67 27.49
4 21.20 18.00 16.70 15.98 15.52 15.21 14.97 14.80
5 16.26 13.27 12.06 11.40 10.97 10.67 10.46 10.29
6 13.75 10.92 9.78 9.14 8.75 8.47 8.26 8.10
7 12.25 9.55 8.45 7.85 7.46 7.19 6.99 6.84
8 11.26 8.65 7.59 7.01 6.63 6.37 6.18 6.03
9 10.56 8.02 6.99 6.42 6.05 5.80 5.61 5.47
10 10.04 7.56 6.55 5.99 5.64 5.38 5.20 5.06
11 9.65 7.21 6.21 5.67 5.31 5.07 4.89 4.74
12 9.33 6.92 5.96 5.41 5.06 4.82 4.64 4.50
13 9.08 6.70 5.74 5.21 4.86 4.62 4.44 4.30
14 8.86 6.51 5.57 5.03 4.70 4.45 4.28 4.14
15 8.69 6.36 5.41 4.90 4.56 4.32 4.14 4.00
16 8.53 6.22 5.29 4.77 4.44 4.20 4.03 3.89
17 8.40 6.12 5.18 4.67 4.34 4.10 3.93 3.79
18 8.28 6.02 5.09 4.58 4.25 4.02 3.84 3.70
19 8.18 5.92 5.01 4.50 4.17 3.94 3.77 3.63
20 8.10 5.85 4.94 4.43 4.10 3.87 3.70 3.57
21 8.02 5.78 4.87 4.37 4.04 3.81 3.64 3.51
22 7.95 5.72 4.82 4.32 3.99 3.76 3.59 3.45
23 7.88 5.67 4.77 4.26 3.94 3.71 3.54 3.41
24 7.82 5.61 4.72 4.22 3.90 3.67 3.50 3.36
25 7.77 5.57 4.67 4.18 3.86 3.63 3.45 3.32
26 7.72 5.53 4.64 4.14 3.82 3.59 3.42 3.29
27 7.68 5.49 4.60 4.11 3.78 3.56 3.38 3.25
28 7.63 5.45 4.57 4.07 3.75 3.53 3.36 3.22
29 7.60 5.42 4.54 4.05 3.73 3.50 3.33 3.20
30 7.57 5.39 4.51 4.02 3.70 3.48 3.31 3.17
40 7.53 5.36 4.48 3.99 3.67 3.45 3.28 3.15
50 7.50 5.34 4.46 3.97 3.65 3.43 3.25 3.13
60 7.47 5.31 4.44 3.95 3.63 3.41 3.24 3.11
316 Tabele pentru principalele distribuţii

Tabela C.11: Cuantilele distribuţiei F, α = 0.99–


continuare

9 10 11 12 13 14 15 16
1 6022.47 6055.84 6083.32 6106.32 6125.87 6142.67 6157.28 6170.10
2 99.39 99.40 99.41 99.41 99.42 99.43 99.43 99.44
3 27.35 27.23 27.13 27.05 26.98 26.92 26.88 26.83
4 14.66 14.55 14.45 14.37 14.31 14.25 14.20 14.16
5 10.16 10.05 9.96 9.88 9.82 9.77 9.72 9.68
6 7.98 7.87 7.79 7.72 7.66 7.60 7.56 7.52
7 6.72 6.62 6.54 6.47 6.41 6.36 6.31 6.28
8 5.91 5.81 5.73 5.67 5.61 5.56 5.51 5.47
9 5.35 5.25 5.18 5.11 5.06 5.00 4.96 4.93
10 4.94 4.85 4.77 4.70 4.65 4.60 4.56 4.52
11 4.63 4.54 4.46 4.40 4.34 4.29 4.25 4.22
12 4.38 4.29 4.22 4.15 4.10 4.05 4.01 3.97
13 4.19 4.10 4.03 3.96 3.90 3.86 3.81 3.78
14 4.03 3.94 3.87 3.80 3.74 3.70 3.66 3.62
15 3.90 3.80 3.73 3.67 3.61 3.57 3.52 3.48
16 3.78 3.69 3.61 3.55 3.50 3.45 3.41 3.37
17 3.68 3.59 3.52 3.45 3.40 3.35 3.31 3.28
18 3.60 3.51 3.43 3.37 3.32 3.27 3.22 3.19
19 3.52 3.43 3.36 3.29 3.24 3.19 3.16 3.12
20 3.45 3.37 3.29 3.23 3.18 3.13 3.09 3.05
21 3.40 3.31 3.24 3.17 3.12 3.07 3.03 3.00
22 3.35 3.25 3.19 3.12 3.06 3.02 2.98 2.94
23 3.30 3.21 3.14 3.07 3.02 2.97 2.93 2.90
24 3.25 3.17 3.09 3.03 2.98 2.93 2.89 2.85
25 3.22 3.13 3.06 3.00 2.94 2.89 2.85 2.81
26 3.18 3.09 3.02 2.96 2.90 2.86 2.81 2.78
27 3.15 3.06 2.99 2.93 2.87 2.83 2.78 2.74
28 3.12 3.03 2.96 2.90 2.84 2.80 2.75 2.71
29 3.09 3.00 2.93 2.87 2.81 2.77 2.73 2.69
30 3.06 2.98 2.90 2.84 2.79 2.74 2.70 2.66
40 3.04 2.96 2.88 2.82 2.77 2.72 2.67 2.64
50 3.02 2.93 2.86 2.80 2.74 2.70 2.65 2.61
60 3.00 2.91 2.84 2.77 2.72 2.67 2.64 2.60
317

Tabela
P∞ C.12: Legea Kolmogorov K(x) =
k −2k 2 x2
−∞ (−1) e

1/100 din x
x 0 1 2 3 4 5 6 7 8 9
0 0.000 1.000 2.000 3.000 4.000 5.000 6.000 7.000 8.000 9.000
0.3 0.000 0.000 0.000 0.000 0.000 0.000 0.001 0.001 0.001 0.002
0.4 0.003 0.004 0.005 0.007 0.010 0.013 0.016 0.020 0.025 0.030
0.5 0.036 0.043 0.050 0.059 0.067 0.077 0.088 0.099 0.110 0.123
0.6 0.136 0.149 0.163 0.178 0.193 0.208 0.224 0.240 0.256 0.272
0.7 0.289 0.305 0.322 0.339 0.356 0.373 0.390 0.406 0.423 0.440
0.8 0.456 0.472 0.488 0.504 0.519 0.535 0.550 0.565 0.579 0.593
0.9 0.607 0.621 0.634 0.647 0.660 0.673 0.685 0.696 0.708 0.719
1 0.730 0.741 0.751 0.761 0.770 0.780 0.789 0.798 0.806 0.814
1.1 0.822 0.830 0.837 0.845 0.851 0.858 0.864 0.871 0.877 0.882
1.2 0.888 0.893 0.898 0.903 0.908 0.912 0.916 0.921 0.925 0.928
1.3 0.932 0.935 0.939 0.942 0.945 0.948 0.951 0.953 0.956 0.958
1.4 0.960 0.962 0.965 0.967 0.968 0.970 0.972 0.973 0.975 0.976
1.5 0.978 0.979 0.980 0.981 0.983 0.984 0.985 0.986 0.986 0.987
1.6 0.988 0.989 0.989 0.990 0.991 0.991 0.992 0.992 0.993 0.993
1.7 0.994 0.994 0.995 0.995 0.995 0.996 0.996 0.996 0.996 0.997
1.8 0.997 0.997 0.997 0.998 0.998 0.998 0.998 0.998 0.998 0.998
1.9 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.999
2 0.999 0.999 0.999 0.999 1.000 1.000 1.000 1.000 1.000 1.000
2.1 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
2.2 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
2.3 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
2.4 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
318 Tabele pentru principalele distribuţii

Tabela C.13: Valori critice pentru testul semnelor

test unilateral 0.005 0.025 0.01 0.05


test bilateral 0.01 0.05 0.02 0.1
n
1
2
3 0
4 0
5 0 0
6 0 0 1
7 0 0 1
8 0 0 1 1
9 0 1 1 2
10 0 1 1 2
11 0 1 2 3
12 1 2 2 3
13 1 2 3 3
14 1 2 3 4
15 2 3 3 4
16 2 3 4 5
17 2 4 4 5
18 3 4 5 6
19 3 4 5 6
20 3 5 5 6
21 4 5 6 7
22 4 5 6 7
23 4 6 7 8
24 5 6 7 8
25 5 7 7 9
26 6 7 8 9
27 6 7 8 10
28 6 8 9 10
29 7 8 9 10
30 7 9 10 11
319

Distribuţia lui U : P (U ≤ U0 ); U0 este argumentul; na ≤ nb ; 3 ≤ nb ≤ 10

Tabela C.14: Probabilităţile pentru testul U, nb = 3

na
U0 1 2 3
0 .2500 .1000 .0500
1 .5000 .2000 .1000
2 .4000 .2000
3 .6000 .3500
4 .5000

Tabela C.15: Probabilităţile pentru testul U, nb = 4

na
U0 1 2 3 4
0 .2000 .0667 .0286 .0143
1 .4000 .1333 .0571 .0286
2 .6000 .2667 .1143 .0571
3 .4000 .2000 .1000
4 .6000 .3143 .1714
5 .4286 .2429
6 .5714 .3429
7 .4429
8 .5571
320 Tabele pentru principalele distribuţii

Tabela C.16: Probabilităţile pentru testul U, nb = 5

na
U0 1 2 3 4 5
0 .1667 .0476 .0179 .0079 .0040
1 .3333 .0952 .0357 .0159 .0079
2 .5000 .1905 .0714 .0317 .0159
3 .2857 .1250 .0556 .0278
4 .4286 .1964 .0952 .0476
5 .5714 .2857 .1429 .0754
6 .3929 .2063 .1111
7 .5000 .2778 .1548
8 .3651 .2103
9 .4524 .2738
10 .5476 .3452
11 .4206
12 .5000

Tabela C.17: Probabilităţile pentru testul U, nb = 6

na
U0 1 2 3 4 5 6
0 .1429 .0357 .0119 .0048 .0022 .0011
1 .2857 .0714 .0238 .0095 .0043 .0022
2 .4286 .1429 .0476 .0190 .0087 .0043
3 .5714 .2143 .0833 .0333 .0152 .0076
4 .3214 .1310 .0571 .0260 .0130
5 .4286 .1905 .0857 .0411 .0206
6 .5714 .2738 .1286 .0628 .0325
7 .3571 .1762 .0887 .0465
8 .4524 .2381 .1234 .0660
9 .5476 .3048 .1645 .0898
10 .3810 .2143 .1201
11 .4571 .2684 .1548
12 .5429 .3312 .1970
13 .3961 .2424
14 .4654 .2944
15 .5346 .3496
16 .4091
17 .4686
continuare pe pagina următoare. . .
321

Probabilităţile pentru testul U,


nb = 6 (continuare)
na
U0 1 2 3 4 5 6
18 .5314

Tabela C.18: Probabilităţile pentru testul U, nb = 7

na
U0 1 2 3 4 5 6 7
0 .1250 .0278 .0083 .0030 .0013 .0006 .0003
1 .2500 .0556 .0167 .0061 .0025 .0012 .0006
2 .3750 .1111 .0333 .0121 .0051 .0023 .0012
3 .5000 .1667 .0583 .0212 .0088 .0041 .0020
4 .2500 .0917 .0364 .0152 .0070 .0035
5 .3333 .1333 .0545 .0240 .0111 .0055
6 .4444 .1917 .0818 .0366 .0175 .0087
7 .5556 .2583 .1152 .0530 .0256 .0131
8 .3333 .1576 .0745 .0367 .0189
9 .4167 .2061 .1010 .0507 .0265
10 .5000 .2636 .1338 .0688 .0364
11 .3242 .1717 .0903 .0487
12 .3939 .2159 .1171 .0641
13 .4636 .2652 .1474 .0825
14 .5364 .3194 .1830 .1043
15 .3775 .2226 .1297
16 .4381 .2669 .1588
17 .5000 .3141 .1914
18 .3654 .2279
19 .4178 .2675
20 .4726 .3100
21 .5274 .3552
22 .4024
23 .4508
24 .5000
322 Tabele pentru principalele distribuţii

Tabela C.19: Probabilităţile pentru testul U, nb = 8

na
U0 1 2 3 4 5 6 7 8
0 .1111 .0222 .0061 .0020 .0008 .0003 .0002 .0001
1 .2222 .0444 .0121 .0040 .0016 .0007 .0003 .0002
2 .3333 .0889 .0242 .0081 .0031 .0013 .0006 .0003
3 .4444 .1333 .0424 .0141 .0054 .0023 .0011 .0005
4 .5556 .2000 .0667 .0242 .0093 .0040 .0019 .0009
5 .2667 .0970 .0364 .0148 .0063 .0030 .0015
6 .3556 .1394 .0545 .0225 .0100 .0047 .0023
7 .4444 .1879 .0768 .0326 .0147 .0070 .0035
8 .5556 .2485 .1071 .0466 .0213 .0103 .0052
9 .3152 .1414 .0637 .0296 .0145 .0074
10 .3879 .1838 .0855 .0406 .0200 .0103
11 .4606 .2303 .1111 .0539 .0270 .0141
12 .5394 .2848 .1422 .0709 .0361 .0190
13 .3414 .1772 .0906 .0469 .0249
14 .4040 .2176 .1142 .0603 .0325
15 .4667 .2618 .1412 .0760 .0415
16 .5333 .3108 .1725 .0946 .0524
17 .3621 .2068 .1159 .0652
18 .4165 .2454 .1405 .0803
19 .4716 .2864 .1678 .0974
20 .5284 .3310 .1984 .1172
21 .3773 .2317 .1393
22 .4259 .2679 .1641
23 .4749 .3063 .1911
24 .5251 .3472 .2209
25 .3894 .2527
26 .4333 .2869
27 .4775 .3227
28 .5225 .3605
29 .3992
30 .4392
31 .4796
32 .5204
323

Tabela C.20: Probabilităţile pentru testul U, nb = 9

na
U0 1 2 3 4 5 6 7 8 9
0 .1000 .0182 .0045 .0014 .0005 .0002 .0001 .0000 .0000
1 .2000 .0364 .0091 .0028 .0010 .0004 .0002 .0001 .0000
2 .3000 .0727 .0182 .0056 .0020 .0008 .0003 .0002 .0001
3 .4000 .1091 .0318 .0098 .0035 .0014 .0006 .0003 .0001
4 .5000 .1636 .0500 .0168 .0060 .0024 .0010 .0005 .0002
5 .2182 .0727 .0252 .0095 .0038 .0017 .0008 .0004
6 .2909 .1045 .0378 .0145 .0060 .0026 .0012 .0006
7 .3636 .1409 .0531 .0210 .0088 .0039 .0019 .0009
8 .4545 .1864 .0741 .0300 .0128 .0058 .0028 .0014
9 .5455 .2409 .0993 .0415 .0180 .0082 .0039 .0020
10 .3000 .1301 .0559 .0248 .0115 .0056 .0028
11 .3636 .1650 .0734 .0332 .0156 .0076 .0039
12 .4318 .2070 .0949 .0440 .0209 .0103 .0053
13 .5000 .2517 .1199 .0567 .0274 .0137 .0071
14 .3021 .1489 .0723 .0356 .0180 .0094
15 .3552 .1818 .0905 .0454 .0232 .0122
16 .4126 .2188 .1119 .0571 .0296 .0157
17 .4699 .2592 .1361 .0708 .0372 .0200
18 .5301 .3032 .1638 .0869 .0464 .0252
19 .3497 .1942 .1052 .0570 .0313
20 .3986 .2280 .1261 .0694 .0385
21 .4491 .2643 .1496 .0836 .0470
22 .5000 .3035 .1755 .0998 .0567
23 .3445 .2039 .1179 .0680
24 .3878 .2349 .1383 .0807
25 .4320 .2680 .1606 .0951
26 .4773 .3032 .1852 .1112
27 .5227 .3403 .2117 .1290
28 .3788 .2404 .1487
29 .4185 .2707 .1701
30 .4591 .3029 .1933
31 .5000 .3365 .2181
32 .3715 .2447
33 .4074 .2729
34 .4442 .3024
continuare pe pagina următoare. . .
324 Tabele pentru principalele distribuţii

Probabilităţile pentru testul U, nb = 9 (continuare)


na
U0 1 2 3 4 5 6 7 8 9
35 .4813 .3332
36 .5187 .3652
37 .3981
38 .4317
39 .4657
40 .5000

Tabela C.21: Probabilităţile pentru testul U, nb = 10

na
U0 1 2 3 4 5 6 7 8 9 10
0 .0909 .0152 .0035 .0010 .0003 .0001 .0001 .0000 .0000 .0000
1 .1818 .0303 .0070 .0020 .0007 .0002 .0001 .0000 .0000 .0000
2 .2727 .0606 .0140 .0040 .0013 .0005 .0002 .0001 .0000 .0000
3 .3636 .0909 .0245 .0070 .0023 .0009 .0004 .0002 .0001 .0000
4 .4545 .1364 .0385 .0120 .0040 .0015 .0006 .0003 .0001 .0001
5 .5455 .1818 .0559 .0180 .0063 .0024 .0010 .0004 .0002 .0001
6 .2424 .0804 .0270 .0097 .0037 .0015 .0007 .0003 .0002
7 .3030 .1084 .0380 .0140 .0055 .0023 .0010 .0005 .0002
8 .3788 .1434 .0529 .0200 .0080 .0034 .0015 .0007 .0004
9 .4545 .1853 .0709 .0276 .0112 .0048 .0022 .0011 .0005
10 .5455 .2343 .0939 .0376 .0156 .0068 .0031 .0015 .0008
11 .2867 .1199 .0496 .0210 .0093 .0043 .0021 .0010
12 .3462 .1518 .0646 .0280 .0125 .0058 .0028 .0014
13 .4056 .1868 .0823 .0363 .0165 .0078 .0038 .0019
14 .4685 .2268 .1032 .0467 .0215 .0103 .0051 .0026
15 .5315 .2697 .1272 .0589 .0277 .0133 .0066 .0034
16 .3177 .1548 .0736 .0351 .0171 .0086 .0045
17 .3666 .1855 .0903 .0439 .0217 .0110 .0057
18 .4196 .2198 .1099 .0544 .0273 .0140 .0073
19 .4725 .2567 .1317 .0665 .0338 .0175 .0093
20 .5275 .2970 .1566 .0806 .0416 .0217 .0116
21 .3393 .1838 .0966 .0506 .0267 .0144
22 .3839 .2139 .1148 .0610 .0326 .0177
23 .4296 .2461 .1349 .0729 .0394 .0216
24 .4765 .2811 .1574 .0864 .0474 .0262
continuare pe pagina următoare. . .
325

Probabilităţile pentru testul U, nb = 10 (continuare)


na
U0 1 2 3 4 5 6 7 8 9 10
25 .5235 .3177 .1819 .1015 .0564 .0315
26 .3564 .2087 .1185 .0667 .0376
27 .3962 .2374 .1371 .0782 .0446
28 .4374 .2681 .1577 .0912 .0526
29 .4789 .3004 .1800 .1055 .0615
30 .5211 .3345 .2041 .1214 .0716
31 .3698 .2299 .1388 .0827
32 .4063 .2574 .1577 .0952
33 .4434 .2863 .1781 .1088
34 .4811 .3167 .2001 .1237
35 .5189 .3482 .2235 .1399
36 .3809 .2483 .1575
37 .4143 .2745 .1763
38 .4484 .3019 .1965
39 .4827 .3304 .2179
40 .5173 .3598 .2406
41 .3901 .2644
42 .4211 .2894
43 .4524 .3153
44 .4841 .3421
45 .5159 .3697
46 .3980
47 .4267
48 .4559
49 .4853
50 .5147
326 Tabele pentru principalele distribuţii

Tabela C.22: Distribuţia numărului total de monotonii


pentru testul monotoniilor

n1 n2 2 3 4 5 6 7 8 9 10
2 3 0.200 0.500 0.900 1.000
2 4 0.133 0.400 0.800 1.000
2 5 0.095 0.333 0.714 1.000
2 6 0.071 0.286 0.643 1.000
2 7 0.056 0.250 0.583 1.000
2 8 0.044 0.222 0.533 1.000
2 9 0.036 0.200 0.491 1.000
2 10 0.030 0.182 0.455 1.000
3 3 0.100 0.300 0.700 0.900 1.000
3 4 0.057 0.200 0.543 0.800 0.971 1.000
3 5 0.036 0.143 0.429 0.714 0.929 1.000
3 6 0.024 0.107 0.345 0.643 0.881 1.000
3 7 0.017 0.083 0.283 0.583 0.833 1.000
3 8 0.012 0.067 0.236 0.533 0.788 1.000
3 9 0.009 0.055 0.200 0.491 0.745 1.000
3 10 0.007 0.045 0.171 0.455 0.706 1.000
4 4 0.029 0.114 0.371 0.629 0.886 0.971 1.000
4 5 0.016 0.071 0.262 0.500 0.786 0.929 0.992 1.000
4 6 0.010 0.048 0.190 0.405 0.690 0.881 0.976 1.000
4 7 0.006 0.033 0.142 0.333 0.606 0.833 0.955 1.000
4 8 0.004 0.024 0.109 0.279 0.533 0.788 0.929 1.000
4 9 0.003 0.018 0.085 0.236 0.471 0.745 0.902 1.000
4 10 0.002 0.014 0.068 0.203 0.419 0.706 0.874 1.000
5 5 0.008 0.040 0.167 0.357 0.643 0.833 0.960 0.992 1.000
5 6 0.004 0.024 0.110 0.262 0.522 0.738 0.911 0.976 0.998
5 7 0.003 0.015 0.076 0.197 0.424 0.652 0.854 0.955 0.992
5 8 0.002 0.010 0.054 0.152 0.347 0.576 0.793 0.929 0.984
5 9 0.001 0.007 0.039 0.119 0.287 0.510 0.734 0.902 0.972
5 10 0.001 0.005 0.029 0.095 0.239 0.455 0.678 0.874 0.958
6 6 0.002 0.013 0.067 0.175 0.392 0.608 0.825 0.933 0.987
6 7 0.001 0.008 0.043 0.121 0.296 0.500 0.733 0.879 0.966
6 8 0.001 0.005 0.028 0.086 0.226 0.413 0.646 0.821 0.937
6 9 0.000 0.003 0.019 0.063 0.175 0.343 0.566 0.762 0.902
6 10 0.000 0.002 0.013 0.047 0.137 0.287 0.497 0.706 0.864
7 7 0.001 0.004 0.025 0.078 0.209 0.383 0.617 0.791 0.922
continuare pe pagina următoare. . .
327

Distribuţia numărului total de monotonii


pentru testul monotoniilor
n1 n2 2 3 4 5 6 7 8 9 10
7 8 0.000 0.002 0.015 0.051 0.149 0.296 0.514 0.704 0.867
7 9 0.000 0.001 0.010 0.035 0.108 0.231 0.427 0.622 0.806
7 10 0.000 0.001 0.006 0.024 0.080 0.182 0.355 0.549 0.743
8 8 0.000 0.001 0.009 0.032 0.100 0.214 0.405 0.595 0.786
8 9 0.000 0.001 0.005 0.020 0.069 0.157 0.319 0.500 0.702
8 10 0.000 0.000 0.003 0.013 0.048 0.117 0.251 0.419 0.621
9 9 0.000 0.000 0.003 0.012 0.044 0.109 0.238 0.399 0.601
9 10 0.000 0.000 0.002 0.008 0.029 0.077 0.179 0.319 0.510
10 10 0.000 0.000 0.001 0.004 0.019 0.051 0.128 0.242 0.414

Tabela C.23: Distribuţia numărului total de monotonii


pentru testul monotoniilor – continuare

n1 n2 11 12 13 14 15 16 17 18 19 20
5 6 1.000
5 7 1.000
5 8 1.000
5 9 1.000
5 10 1.000
6 6 0.998 1.000
6 7 0.992 0.999 1.000
6 8 0.984 0.998 1.000
6 9 0.972 0.994 1.000
6 10 0.958 0.990 1.000
7 7 0.975 0.996 0.999 1.000
7 8 0.949 0.988 0.998 1.000 1.000
7 9 0.916 0.975 0.994 0.999 1.000
7 10 0.879 0.957 0.990 0.998 1.000
8 8 0.900 0.968 0.991 0.999 1.000 1.000
8 9 0.843 0.939 0.980 0.996 0.999 1.000 1.000
8 10 0.782 0.903 0.964 0.990 0.998 1.000 1.000
9 9 0.762 0.891 0.956 0.988 0.997 1.000 1.000 1.000
9 10 0.681 0.834 0.923 0.974 0.992 0.999 1.000 1.000 1.000
10 10 0.586 0.758 0.872 0.949 0.981 0.996 0.999 1.000 1.000 1.000
328 Tabele pentru principalele distribuţii

Tabela C.24: Valorile critice pentru testul Wilcoxon re-


feritor la observaţii perechi

α α
n 0.05 0.025 0.01 0.005 n 0.05 0.025 0.01 0.005
0.1 0.05 0.02 0.01 0.1 0.05 0.02 0.01
5 1 28 130 117 102 92
6 2 1 29 141 127 111 100
7 4 2 0 30 152 137 120 109
8 6 4 2 0 31 163 148 130 118
9 8 6 3 2 32 175 159 141 128
10 11 8 5 3 32 188 171 151 138
11 14 11 7 5 34 201 183 162 149
12 17 14 10 7 35 214 195 174 160
13 21 17 13 10 36 228 208 186 171
14 26 21 16 13 37 242 222 198 183
15 30 25 20 16 38 256 235 211 195
16 36 30 24 19 39 271 250 224 208
17 41 35 28 23 40 287 264 238 221
18 47 40 33 28 41 303 279 252 234
19 54 46 38 32 42 319 295 267 248
20 60 52 43 37 43 336 311 281 262
21 68 59 49 43 44 353 327 297 277
22 75 66 56 49 45 371 344 313 292
23 83 73 62 55 46 389 361 329 307
24 92 81 69 68 47 408 379 345 323
25 101 90 77 68 48 427 397 362 339
26 110 98 85 76 49 446 415 380 356
27 120 107 93 84 50 466 380 398 373
329

Tabela C.25: Valorile critice ale coeficientului de corelaţie


al lui Spearman

n 0.05 0.025 0.01 0.05


5 0.900 – – –
6 0.829 0.886 0.943 –
7 0.714 0.786 0.893 –
8 0.643 0.738 0.833 0.881
9 0.600 0.683 0.7833 0.833
10 0.564 0.648 0.745 0.794
11 0.523 0.623 0.736 0.818
12 0.497 0.591 0.703 0.780
13 0.475 0.566 0.673 0.745
14 0.457 0.545 0.646 0.716
15 0.441 0.525 0.623 0.689
16 0.425 0.507 0.601 0.666
17 0.412 0.490 0.582 0.645
18 0.399 0.476 0.564 0.625
19 0.388 0.462 0.549 0.608
20 0.377 0.450 0.534 0.591
21 0.368 0.438 0.521 0.576
22 0.359 0.428 0.508 0.562
23 0.351 0.418 0.496 0.549
24 0.343 0.409 0.485 0.537
25 0.336 0.400 0.475 0.526
26 0.329 0.392 0.465 0.515
27 0.323 0.385 0.456 0.505
28 0.317 0.377 0.448 0.496
29 0.311 0.370 0.440 0.487
30 0.305 0.364 0.432 0.478
330 Tabele pentru principalele distribuţii
Bibliografie

[ A96] Octavian Agratini – Capitole speciale de matematici, Lito UBB, Cluj-


Napoca, 1996.
[ B94] Petru Blaga – Calculul probabilităţilor şi Statistică matematică, vol.
II, Lito UBB, Cluj-Napoca,1994.
[ B93] Petru Blaga – Metode statistice ı̂n modelarea cu calculatorul, Lucrări
de laborator, Lito UBB, Cluj-Napoca, 1993.
[ CLR] C. Cormen, T. Leiserson, R. Rivest – Algorithms, MIT Press, 1994.
[ I93] Crăciun Iancu – Matematici aplicate ı̂n sociologie: probabilităţi şi sta-
tistică, Lito UBB, Cluj-Napoca, 1993.
[ IPP96] Crăciun Iancu, Maria S. Pop, Vasile Pop – Probabilităţi şi Statistică.
Teorie şi aplicaţii, Servo-Sat, Arad, 1996.
[ J84] Robert Johnson –Elementary Statistics, 4th edition, PWS-Kent, 1984
[ K83] D. E. Knuth – Tratat de programarea calculatoarelor, Editura Tehnică,
Bucureşti, 1983.
[ MZ80] Mircea Maliţa, Corneliu Zidăroiu – Incertitudine şi decizie, Editura
Ştiinţifică şi enciclopedică, Bucureşti, 1980.
[ Mi] Gheorghe Mihoc, G. Ciucu, V. Craiu – Teoria probabilităţilor şi statis-
tică matematică, Editura Didactică şi pedagogică, Bucureşti, 1970.
[ IM1] Ion Mihoc – Calculul probabilităţilor şi statistică matematică, Partea
I, Lito UBB, Cluj-Napoca, 1995.
[ IM2] Ion Mihoc – Calculul probabilităţilor şi statistică matematică, Partea
II, Lito UBB, Cluj-Napoca, 1996.
[ OR79] E. Oancea, M. Rădulescu – Calculul probabilităţilor şi Statistică
matematică, Lito UBB, Cluj-Napoca,1979.

331
332 BIBLIOGRAFIE

[ Ve] H. E. Ventsel – Théorie des probabilités, MIR, Moscou 1982.

[ WMS96] D. D. Wackerly, W. Mendenhall, R. L. Scheafer – Mathemati-


cal Statistics with Application, Duxbury Press, Belmont, Albany, Bonn,
1996.

S-ar putea să vă placă și