Documente Academic
Documente Profesional
Documente Cultură
Radu T. Trı̂mbiţaş
10 aprilie 2023
ii
Cuprins
I Calculul probabilităţilor 1
Calculul probabilităţilor – scurt istoric 3
1 Câmpuri de probabilitate 5
1.1 Evenimente şi operaţii cu evenimente . . . . . . . . . . . . . . 5
1.2 Câmp finit de probabilitate . . . . . . . . . . . . . . . . . . . 8
1.3 Câmp infinit de probabilitate . . . . . . . . . . . . . . . . . . 10
1.4 Probabilitate condiţionată. Independenţă . . . . . . . . . . . . 13
1.5 Formula probabilităţii totale. Formula lui Bayes . . . . . . . . 15
3 Variabile aleatoare 25
3.1 Definiţie şi proprietăţi . . . . . . . . . . . . . . . . . . . . . . 25
3.2 Variabile aleatoare discrete . . . . . . . . . . . . . . . . . . . . 26
3.3 Funcţie de repartiţie. Densitate de probabilitate . . . . . . . . 28
3.3.1 Funcţie de repartiţie . . . . . . . . . . . . . . . . . . . 28
3.3.2 Densitate de probabilitate . . . . . . . . . . . . . . . . 31
3.3.3 Funcţii de repartiţie multidimensionale . . . . . . . . . 31
3.4 Caracteristici numerice . . . . . . . . . . . . . . . . . . . . . 32
3.4.1 Caracteristici numerice ale variabilelor aleatoare discrete 33
3.4.2 Caracteristici numerice ale variabilelor aleatoare continue 36
3.4.3 Inegalitatea lui Cebı̂şev . . . . . . . . . . . . . . . . . . 37
3.4.4 Corelaţie . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.4.5 Mod, asimetrie, exces, mediană, cuantile . . . . . . . . 41
3.5 Funcţia caracteristică . . . . . . . . . . . . . . . . . . . . . . . 42
iii
iv CUPRINS
II Statistica matematică 93
6 Statistică descriptivă 97
6.1 Terminologia de bază . . . . . . . . . . . . . . . . . . . . . . . 98
6.2 Culegerea datelor . . . . . . . . . . . . . . . . . . . . . . . . . 101
6.3 Prezentarea grafică . . . . . . . . . . . . . . . . . . . . . . . . 103
6.4 Repartiţii de frecvenţe . . . . . . . . . . . . . . . . . . . . . . 105
6.4.1 Tabele de frecvenţe . . . . . . . . . . . . . . . . . . . . 105
6.4.2 Reprezentarea grafică a repartiţiilor de frecvenţe . . . . 105
6.4.3 Tipuri de serii statistice . . . . . . . . . . . . . . . . . 106
6.5 Caracterizarea repartiţiilor de frecvenţe . . . . . . . . . . . . . 107
6.5.1 Indicatori de poziţie . . . . . . . . . . . . . . . . . . . 108
6.5.2 Indicatori ai variaţiei . . . . . . . . . . . . . . . . . . . 112
6.6 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
CUPRINS v
8 Estimaţie 145
8.1 Funcţia de verosimilitate şi statistici suficiente . . . . . . . . . 145
8.2 Funcţii de estimaţie . . . . . . . . . . . . . . . . . . . . . . . . 148
8.2.1 Estimatori absolut corecţi . . . . . . . . . . . . . . . . 149
8.2.2 Estimatori corecţi . . . . . . . . . . . . . . . . . . . . . 150
8.3 Estimaţii eficiente . . . . . . . . . . . . . . . . . . . . . . . . . 151
8.4 Estimatori optimali . . . . . . . . . . . . . . . . . . . . . . . . 160
8.5 Metode de estimaţie punctuală . . . . . . . . . . . . . . . . . 165
8.5.1 Metoda verosimilităţii maxime . . . . . . . . . . . . . . 165
8.5.2 Metoda momentelor . . . . . . . . . . . . . . . . . . . 170
8.5.3 Metoda minimului lui χ2 . . . . . . . . . . . . . . . . . 171
8.6 Metoda intervalelor de ı̂ncredere . . . . . . . . . . . . . . . . . 172
8.6.1 Intervale de ı̂ncredere pentru medie . . . . . . . . . . . 172
8.6.2 Intervale de ı̂ncredere pentru diferenţa a două medii . . 174
8.6.3 Estimarea unei proporţii . . . . . . . . . . . . . . . . . 176
8.6.4 Intervale de ı̂ncredere pentru dispersie şi raportul a
două dispersii . . . . . . . . . . . . . . . . . . . . . . . 178
Bibliografie 339
viii CUPRINS
Partea I
Calculul probabilităţilor
1
Calculul probabilităţilor – scurt
istoric
3
4
Câmpuri de probabilitate
Fiecare probă atrage după sine fie realizarea, fie nerealizarea oricărui
eveniment. Astfel, dacă la o aruncare a zarului apare faţa 4, atunci eveni-
mentul A s-a realizat, iar evenimentele B,C,D nu s-au realizat. Este clar că
fiecărui eveniment ı̂i corespunde o mulţime de cazuri favorabile, care este o
submulţime a lui E. Aceasta este mulţimea de cazuri care realizează eveni-
mentul considerat.
Astfel:
5
6 Câmpuri de probabilitate
Exemplul 1.1.1 A = {2, 4, 6}, B = {1, 3, 5}, C = {1, 2, 3}. A şi B sunt
incompatibile, B şi C sunt compatibile, iar A şi C sunt compatibile.
Exemplul 1.1.2 O urnă conţine bile albe şi negre. Cu ajutorul evenimen-
telor:
A: prima bilă extrasă este albă;
B: a doua bilă extrasă este albă,
să se scrie evenimentele:
C: prima bilă extrasă este neagră;
D: cel puţin o bilă este albă;
F: ambele bile sunt negre;
G: o bilă şi numai una este albă.
Soluţie.
C = Ā (contrariul evenimentului prima bilă este albă);
”
D = A ∪ B (prima bilă este albă sau a doua bilă este albă);
F = Ā ∩ B̄ (prima bilă este neagră şi a doua bilă este neagră);
G = (A ∩ B̄) ∪ (Ā ∩ B) (prima bilă este albă şi a doua bilă este neagră
sau prima bilă este neagră şi a doua bilă este albă).
Fie A ⊂ E un eveniment. Spunem că sistemul de evenimente (A)i=1,n ,
Ai ⊂ E realizează o desfacere a evenimentului A dacăSevenimentele sunt
două câte două incompatibile, Ai ∩ Aj = ∅, i ̸= j şi A = ni=1 Ai . Un sistem
de evenimente care realizează o desfacere a evenimentului sigur se numeşte
sistem complet de evenimente (s.c.e).
1. A ∈ K =⇒ Ā ∈ K;
2. A, B ∈ K =⇒ A ∪ B ∈ K.
1. 0 ≤ f (A) ≤ 1, ∀A;
2. f (E) = 1;
7. f (Ā) = 1 − f (A).
1.2. Câmp finit de probabilitate 9
1. ∀A ∈ K P (A) ≥ 0;
2. P (E) = 1;
Demonstraţie.
n
! n n n
[ X X X
P Ai = P (Ai ) − P (Ai ∩ Aj) + + P (Ai ∩ Aj ∩ Ak )+
i=1 i=1 i,j=1 i,j,k=1
i<j i<j<k
n
!
\
n−1
+ · · · + (−1) P Ai . (1.1)
i=1
1. A ∈ K ⇒ Ā ∈ K;
2’. Ai ∈ K, i ∈ N ⇒ ∞
S
i=1 Ai ∈ K.
1. ∀A ∈ K P (A) ≥ 0;
2. P (E) = 1;
S P
3’. ∀Ai ∈ K, Ai ∩ Aj = ∅, i, j ∈ I, i ̸= j P ( i∈I Ai ) = i∈I P (Ai ),
cardI ≤ ℵ0 .
lungimea([a′ , b′ ]) b ′ − a′
P (A) = = .
lungimea([a, b]) b−a
∞
! ∞
[ X
P Ai ≤ P (Ai ).
i=1 i=1
T P
2. (Inegalitatea lui Boole) P ( i∈I Ai ) ≥ 1 − i∈I P (Ai ).
Demonstraţie.
12 Câmpuri de probabilitate
şi deci ! !
\ [ X
P Ai =1−P Ai ≤1− P Ai .
i∈I i∈I i∈I
T T
3. Fie A = n∈N An şi Bn = An − A. Este clar că n∈N Bn = ∅ şi că
(Bn )n∈N este un şir descrescător de evenimente din K. Deoarece
rezultă că pentru demonstrarea proprietăţii este sufucient să arătăm că
lim P (Bn ) = 0.
n→∞
Din ultimele două relaţii rezultă că P (Bn ) reprezintă restul seriei con-
vergente din membrul drept al celei de-a doua relaţii. În consecinţă
P (Bn ) → 0 şi deci relaţia căutată este demonstrată.
4. Considerăm şirul de evenimente Cn = An , care este descrescăscător şi
deci, putem să-i aplicăm proprietatea anterioară, obţinându-se imediat
relaţia căutată.
Să considerăm acum experienţa aruncării unui zar. Dacă A = {1, 2, 3} şi
B = {2, 3, 4, 5, 6}, atunci P (A) = 12 şi P (B) = 56 . Să presupunem că acoperim
feţele 2, 3, 4, 5, 6 cu un strat de vopsea roşie. Dacă ı̂n urma aruncării zarului
s-a obţinut o faţă roşie, ştim că s-a realizat B, dar nu ştim ce faţă a apărut.
Ne putem ı̂ntreba care este probabilitatea ca A să se realizeze, după ce am
obţinut informaţia că B s-a realizat. În acest moment nu mai avem 6 cazuri
posibile, ci 5 (cazurile favorabile lui B au devenit cazuri posibile). Din aceste
cazuri posibile două sunt favorabile lui A. Rezultă PB (A) = 52 .
Să repetăm acest raţionament pentru un experiment având n cazuri posi-
bile echiprobabile. Dacă B este un eveniment cu m cazuri favorabile, atunci
P (B) = m n
. Dacă din cele m cazuri favorabile lui B p sunt favorabile unui
eveniment A, atunci P (A ∩ B) = np . În momentul ı̂n care ştim că B s-a
realizat, mai avem m cazuri posibile. Dintre acestea p sunt favorabile lui A:
p
p n P (A ∩ B)
PB (A) = = m = .
m n
P (B)
Aceasta justifică:
Definiţia 1.4.1 Fie câmpul de probabilitate (E, K, P ) şi B ∈ K astfel
ı̂ncât P (B) > 0. Vom numi probabilitatea de apariţie a evenimentului A
condiţionată de evenimentul B raportul
P (A ∩ B)
PB (A) = P (A|B) = .
P (B)
Se verifică uşor că:
(i).
P (A ∩ E) P (A)
PA (E) = = =1
P (A) P (A)
(ii).
P (A ∩ E) P (A)
PE (A) = = = P (A) ∀A ⊂ E.
P (E) 1
Definiţia 1.4.2 Două evenimente A, B ∈ K se numesc independente dacă
P (A ∩ B) = P (A)P (B). În caz contrar evenimentele se numesc depen-
dente.
Din definiţia probabilităţii condiţionate avem P (A∩B) = P (A)·PA (B) =
P (B) · PB (A).
Se observă că dacă A şi B sunt independente avem P (A) = PB (A) şi
P (B) = PA (B), ceea ce ı̂nseamnă că probabilitatea de apariţie a evenimen-
tului A nu se schimbă dacă ştim că s-a realizat ı̂n prealabil B, atunci când
ele sunt independente.
1.5. Formula probabilităţii totale. Formula lui Bayes 15
Propoziţia 1.4.4 Dacă A şi B sunt independente, atunci şi perechile A şi
B̄, Ā şi B şi Ā şi B̄ sunt independente.
1. Aruncarea a două zaruri este un experiment (E) care constă din arunca-
rea primului zar (E1 ) şi aruncarea celui de-al doilea zar (E2 ). Este clar
că cunoaşterea lui (E1 ) nu modifică probabilitatea nici unui eveniment
legat de (E2 ).
A A ..... A
1 2 n−1 A n
Exemplul 1.5.6 O urnă conţine 10 bile albe şi negre ı̂ntr-o proporţie necu-
noscută. Se extrag 4 bile punând de fiecare dată bila ı̂n urnă şi se constată
că toate cele 4 bile extrase au fost albe. Care este probabilitatea ca urna să
nu conţină decât bile albe?
Soluţie. Înainte de extragerea unei bile orice compoziţie a urnei este la fel
de posibilă. Dacă notăm cu (Ai ), i = 0, 10, evenimentul ca urna să conţină i
bile albe şi n − i bile negre (ı̂nainte de orice extracţie), atunci
1
P (A0 ) = P (A1 ) = . . . = P (A10 ) = .
10
Fie X evenimentul ca făcând 4 extrageri şi punând de fiecare dată bila ı̂napoi
ı̂n urnă să obţinem 4 bile albe. Cu aceste notaţii probabilitatea căutată
k 4
este P (A10 |X). Deoarece P (X|A0 ) = 0, P (X|Ak ) = 10 , k = 1, 9 şi
P (X|A10 ) = 1, formula (1.4) ne permite să scriem
P (A10 )P (X|A10 ) 1
P (A10 |X) = P10 = =
1 4 2 4 10 4
i=0 P (Ai )P (X|A i ) 10
+ 10 + ··· + 10
4
10
= ·
14 + 24 + · · · + 104
Capitolul 2
19
20 Scheme clasice de probabilitate
Exemplul 2.1.1 Se dau 3 urne: prima conţine 2 bile albe şi 3 bile negre,
a doua 4 bile albe şi o bilă neagră, iar a treia 3 bile albe şi două bile negre.
Din fiecare urnă se extrage câte o bilă. Care este probabilitatea ca două bile
să fie albe şi una neagră?
adică
2 4 2 3 4 3 2 3 1 58
· · + · · + · · = .
5 5 5 5 5 5 5 5 5 125
În general, dacă A este un eveniment legat de o experienţă şi P (A) = p şi
dacă repetăm de n ori experienţa, atunci probabilitatea ca A să se realizeze
dek ori (prin abuz de limbaj am considerat A ı̂n loc de Ai , i = 1, n) este
n k n−k
k
p q , unde q = 1 − p.
Modelul schemei lui Bernoulli cu bila ı̂ntoarsă este dat de o urnă cu a
bile albe şi b bile negre, din care efectuăm n extrageri, punând după fiecare
extragere bila ı̂napoi ı̂n urnă. Probabilitatea ca să obţinem la o extragere o
a
bilă albă este p = a+b . Conform celor arătate mai sus probabilitatea ca ı̂n n
extrageri să obţinem k bile albe şi n − k bile negre este nk pk q n−k .
Numărul de cazuri posibile este Nn (N bile ı̂n urnă, dincare se extrag n).
Exemplul 2.3.1 Într-un set de 100 de chestionare asupra unei opinii ştim
că la o ı̂ntrebare 60 de persoane au răspuns da şi 40 de persoane au răspuns
nu. În scopul realizării unui sondaj privind opinia populaţiei chestionate
asupra respectivei probleme, se aleg la ı̂ntâmplare 10 chestionare.
a) Care este probabiltatea ca din cele 10 chestionare să avem un răspuns
da şi 9 răspunsuri nu?
b) Care este probabilitatea să avem cel puţin 8 răspunsuri da?
c) Care este probabilitatea să avem numai răspunsuri da sau numai răs-
punsuri nu?
Soluţie.
a) n = 10, α = 1, a = 60, b = 40, n − α = 9 şi
60 40
1
P10 (1) = 100
9 ·
10
Exemplul 2.4.2 Fie experimentul care constă ı̂n aruncarea unui zar. Care
este probabilitatea ca faţa 6 să apară după 5 ı̂ncercări?
Soluţie. Fie evenimentul A – apariţia feţei 6. Suntem ı̂n cazul schemei lui
Pascal cu k = 5, p = 16 şi q = 56 . Se obţine
5
1 5
P (S1 = 5) = ·
6 6
2.5. Schema lui Bernoulli cu mai multe stări 23
Exemplul 2.5.1 Să presupunem că avem o urnă cu 5 bile albe, 10 bile negre
şi 4 bile roşii. Care este probabilitatea ca din 6 extrageri să obţinem 2 bile
albe, 2 bile negre şi 2 bile roşii:
2 2 2
6! 5 10 4
a) P (6; 2, 2, 2) = .
2!2!2! 19 19 19
5 10 4
2 2
b) P (6; 2, 2, 2) = 19
2 .
6
Capitolul 3
Variabile aleatoare
În această definiţie X(e) < a se poate ı̂nlocui cu una din inegalităţile
X(e) ≤ a, X(e) > a, X(e) ≥ a, obţinându-se definiţii echivalente. Din
definiţia de mai sus rezultă că unei variabile aleatoare X i se asociază eve-
nimente de forma A = (X < a), a ∈ R. Prin urmare X ia valori mai mici
decât a cu probabilitatea P (A).
La această noţiune s-a ajuns printr-un ı̂ndelungat proces istoric, pornind
de la mărimi care iau valori cu anumite probabilităţi, sub influenţa unor
factori ı̂ntâmplători.
Proprietăţi.
25
26 Variabile aleatoare
Demonstraţie.
2. Temă.
X + Y = X − (−Y )
1
(X + Y )2 − (X − Y )2
XY =
4
X 1
=X·
Y Y
Exemplul 3.2.2 Fie experienţa aruncării unui zar. Am văzut că E = {1,
2, 3, 4, 5, 6}, K = P(E). Aplicaţia X : E −→ K, X(ei ) = i, i ∈ N este o
variabilă aleatoare.
Egalitatea (3.2) exprimă faptul că funcţia de repartiţie a unei variabile ale-
atoare discrete X este suma probabilităţilor valorilor X(e) situate la stânga
lui x. Funcţia de repartiţie corespunzătoare unei variabile aleatoare discrete
se numeşte funcţie de repartiţie de tip discret.
Exemplul 3.3.2 Să presupunem că variabila aleatoare X are distribuţia
dată de tabelul:
0 1 2 3 4 5
X: .
0.1 0.2 0.1 0.3 0.1 0.2
Din (3.2) rezultă
0 dacă x ≤ 0
0.1 dacă 0 < x ≤ 1
0.1 + 0.2 dacă 1 < x ≤ 2
F (x) = 0.1 + 0.2 + 0.1 dacă 2 < x ≤ 3 .
0.1 + 0.2 + 0.1 + 0.3 dacă 3 < x ≤ 4
0.1 + 0.2 + 0.1 + 0.3 + 0.1 dacă 4 < x ≤ 5
1 dacă 5 < x
0.8
0.6
0.4
0.2
−2 −1 0 1 2 3 4 5 6 7
3. F (−∞) = 0, F (+∞) = 1.
Demonstraţie.
2. Fie x ∈ R şi fie (xn ) un şir de numere reale crescător cu limita x. Fie
şirul de evenimente (Cn ), definit
T de Cn = [xn , x). Este clar că acest
şir este descrescător şi că n∈N Cn = ∅. Aplicând proprietatea de
continuitate a probabilităţii rezultă
Deoarece
P (Cn ) = P ((−∞, x) − (−∞, xn )) =
= P ((−∞, x)) − P ((−∞, xn )) = F (x) − F (xn ),
rezultă că
lim F (xn ) = F (x),
n→∞
adică F este continuă la stânga ı̂n x. Deoarece x este arbitrar, rezultă
că F este continuă pe R.
3. Să considerăm şirul (xn ) de numere reale descrescător cu limita −∞.
Şirul
T de evenimente (An ) definit de An = (−∞, xn ) este descrescător
şi n∈N An = ∅. Din proprietatea de continuitate a probabilităţii
obţinem !
\
lim P (An ) = P An ,
n→∞
n∈N
adică
lim F (xn ) = P (∅) = 0.
n→∞
de unde F (∞) = 1.
4. Fie X o variabilă aleatoare cu funcţia de repartiţie F şi a < b; au loc
Proprietăţi.
1. ∀x ∈ R f (x) ≥ 0;
R∞
2. −∞ f (x)dx = 1;
Rb
3. ∀a, b ∈ R, a < b P (a ≤ X < b) = a
f (u)du;
dF (x)
f (x) = .
dx
F (x1 , . . . , xi − 0, . . . xn ) = F (x1 , . . . , xi , . . . xn );
4. F (+∞, . . . , +∞) = 1.
∂ n F (x1 , . . . , xn )
f (x1 , . . . , xn ) =
∂x1 . . . ∂xn
f (x1 , . . . , xn ) ≥ 0
şi
Z ∞ Z ∞
... f (u1 , . . . , un )du1 . . . dun = 1.
−∞ −∞
Proprietăţi.
1. Fie X şi Y două variabile aleatoare discrete. Dacă există M (X) şi
M (Y ), atunci există şi M (X + Y ) şi M (X + Y ) = M (X) + M (Y ).
Xn n
X
M( ci X i ) = ci M (Xi ), (3.3)
i=1 i=1
Demonstraţie.
1. Fie {An }n∈N şi {Bn }n∈N sisteme complete de evenimente. Fie xn =
X(e), e ∈ An , ym = Y (e), n, m ∈ R. Notăm Cmn = {X(e) = xn } ∩
34 Variabile aleatoare
Aşadar
∞ X
X ∞
M (X + Y ) = (xn + ym )P (Cmn ) =
n=1 m=1
∞ X
X ∞ ∞ X
X ∞
= xn P (Cmn ) + ym P (Cmn ) =
n=1 m=1 n=1 m=1
∞ ∞
! ∞ ∞
!
X X X X
= xn P (Cmn ) + ym P (Cmn ) =
n=1 m=1 m=1 n=1
∞
X X∞
= xn P (An ) + ym P (Bm ) =
n=1 m=1
∞
X ∞
X
= xn P (X = xn ) + ym P (Y = ym ).
n=1 m=1
xi
Definiţia 3.4.2 Fie variabila aleatoare X cu distribuţia X : pi i∈I
şi A un
eveniment astfel ı̂ncât P (A) ̸= 0. Dacă seria
X
xi P (X = xi |A)
i∈I
3.4. Caracteristici numerice 35
Momente
Definiţia 3.4.3 Fie X o variabilă aleatoare şi r un număr natural. Dacă
există M (X r ), atunci această valoare medie se numeşte momentul de or-
din r al variabilei aleatoare X şi se notează
∞
X
r
Mr (X) = M (X ) = xrn pn .
n=1
p
Numărul D(X) = σ = m2 (X) se numeşte abaterea medie pătratică a
variabilei aleatoare X.
Demonstraţie.
D2 (X) = M (X − M (X))2 = M X 2 − 2M (X) · X + (M (X))2 =
Demonstraţie.
M (Y ) = aM (X) + b,
M (Y 2 ) = M (aX + b)2 = a2 M (X) + 2abM (X) + b2 ,
- dispersia
Z ∞ Z ∞
2 2 2
D (X) = σ = (x − m) dF (x) = (x − m)2 f (x)dx
−∞ −∞
D2 (X)
P (|X − M (X)| < ε) ≥ 1 − . (3.4)
ε2
Demonstraţie. Fie F funcţia de repartiţie a lui X.
Z
P (|X − M (X)| ≥ ε) = dF (x) ≤
|x−M (X)|≥ε
Z
1
≤ 2 (x − M (X))2 dF (x),
ε |x−M (X)|≥ε
38 Variabile aleatoare
prin urmare
D2 (X)
P (|X − M (X)| ≥ ε) ≤ , (3.5)
ε2
de unde trecând la evenimentul contrar lui |X − M (X)| ≥ ε se obţine inega-
litatea dorită.
3.4.4 Corelaţie
Fie (E, K, P ) un câmp (borelian) de probabilitate şi X1 şi X2 două vari-
abile aleatoare definite pe acest câmp.
şi
cov(X1 , X2 ) = cov(X2 , X1 ).
3.4. Caracteristici numerice 39
Într-adevăr
cov(X1 , X2 ) = M [(X1 − m1 ) (X2 − m2 )] =
= M (X1 X2 − m1 X2 − m2 X1 + m1 m2 ) =
= M (X1 X2 ) − M (X1 )M (X2 ).
Proprietăţi.
1. Dacă X1 şi X2 sunt independente, atunci ρ(X1 , X2 ) = 0. Reciproca
este falsă, căci ρ(X1 , X2 ) = 0 nu implică faptul că X1 şi X2 sunt inde-
pendente, aşa cum rezultă din contraexemplul de mai jos.
−1 0 1 0 1
Contraexemplu. Fie X : , Y : .
1/2 1/4 1/2 1/2 1/2
Avem
Y\X -1 0 1 qj
0 0 1/2 0 1/2 0 −1 1
şi XY :
1 1/4 0 1/4 1/2 1/4 1/2 1/4
pi 1/4 1/2 1/4 1
40 Variabile aleatoare
X1 − M (X1 ) X2 − M (X2 )
X1′ = ; X2′ = ,
D(X1 ) D(X2 )
şi deci fie M ((X1′ + X2′ )2 ) = 0, fie M ((X1′ − X2′ )2 ) = 0, adică X1′ ± X2′ = 0
aproape sigur1 . Cu alte cuvinte, avem
(X2 − M (X2 ))
X1 = M (X1 ) − p ,
D2 (X1 )D2 (X2 )
ceea ce arată că ı̂ntre X1 şi X2 există o relaţie liniară de forma X1 = aX2 + b
cu a ̸= 0. În plus, dacă D2 (X1 ) ̸= 0, atunci din definiţia coeficientului de
corelaţie rezultă că
1
Spunem că proprietatea P are loc aproape sigur dacă P (¬P) = 0.
3.4. Caracteristici numerice 41
Observaţia 3.4.11 1. Din definiţia medianei rezultă că M e este una din
valorile x ale variabilei aleatoare X pentru care
Z x Z ∞
1
dF (t) = dF (t) = .
−∞ x 2
În cazul când X este continuă mediana este unic determinată de ega-
litatea Z x Z ∞
1
f (t)dt = f (t)dt = .
−∞ x 2
2. Din punct de vedere geometric mediana este abscisa punctului prin care
trece paralela la axa Oy, care ı̂mparte ı̂n două părţi egale aria limitată
de curba de ecuaţie y = f (x) şi de axa Ox.
42 Variabile aleatoare
Din consideraţiile făcute mai sus deducem că mediana ne poate da, ı̂n
unele situaţii, informaţii mai bune decât valoarea medie. Este firesc să ex-
tindem noţiunea de mediană pentru a obţine ı̂n locul valorii 12 o valoare de
forma n1 , pentru n > 2. Astfel valorile xi (i = 1, n − 1) pentru care
Z x1 Z x2 Z ∞
1
dF (t) = dF (t) = . . . = dF (t) =
−∞ x1 xn−1 n
1. g(0) = 1;
2. ∀t ∈ R |g(t)| ≤ 1;
Demonstraţie.
3. Vom arăta că dacă există Mn (X), atunci Rexistă toate momentele obiş-
nuite Mk , k ≤ n. Deoarece Mn (|Xn |) = R |x|n dF (x). Atunci, pentru
orice k ≤ n avem
Z Z Z
k k
|x| dF (x) = |x| dF (x) + |x|k dF (x) ≤
R |x|≤1 |x|>1
Z Z
≤ |x|k dF (x) + |x|n dF (x) ≤
|x|≤1 |x|>1
Z Z
≤ dF (x) + |x|n dF (x) ≤
|x|≤1 |x|>1
Z Z
≤ dF (x) + |x|n dF (x) = 1 + Mn (|X|) .
R R
Dar
Z Z
k
|Mk (X)| = x dF (x) ≤
|x|k dF (x) ≤ 1 + Mn (|X|) ,
R R
şi integrala din membrul drept al lui (3.9) există. Luăm ı̂n (3.9) t = 0
şi obţinem Z
(k) k
g (0) = i xk dF (x) = ik Mk (X).
R
44 Variabile aleatoare
4. gY (t) = M eit(aX+b) = M eitaX eitb = eitb gX (at).
5. Dacă X şi Y sunt independente, atunci şi eitX şi eitY sunt independente
şi M (eitX eitY ) = M (eitX )M (eitY ), adică gX+Y (t) = gX (t)gY (t).
6. Prin inducţie.
unde
un (θx) (itx)n iθx
(Rn u)(x) = = e , θ ∈ [0, 1].
n! n!
Dar
n−1
!
(itx)k
Z Z X
g(t) = eitx dF (x) = + (Rn u)(x) dF (x) =
R R k=0
k!
n−1
(it)k
X Z Z
k
x dF (x) + (Rn u)(x)dF (x) =
k=0
k! R R
∞
(it)k
X Z
M (X k ) + (Rn u)(x)dF (x).
k=0
k! R
|t|n
Fie şirul xn = n!
Mn (|X|). Avem
Observaţia 3.5.4 Din teorema de mai sus se deduce că dacă variabilele
aleatoare X şi Y admit momente de orice ordin şi au loc relaţiile M (X k ) =
M (Y k ), ∀k ∈ N, atunci gX = gY .
Teorema 3.5.5 (de inversiune a lui Paul Lévy) Fie X o variabilă ale-
atoare pe câmpul (E, K, P ) şi F şi g funcţia sa de repartiţie şi respectiv
funcţia sa caracteristică. Atunci pentru orice x1 , x2 ∈ R, x1 < x2 puncte de
continuitate ale lui F are loc
Z −itx1
1 e − e−itx2
F (x2 ) − F (x1 ) = g(t)dt.
2π R it
Distribuţii de probabilitate
clasice
k
X: n k n−k
, q =1−p
k
p q k=1,n
47
48 Distribuţii de probabilitate clasice
F (x) = P (X < x)
0 pentru x ≤ 0,
qn
pentru 0 < x ≤ 1,
[x]−1
n k n−k P1
n
k n−k
X
k=0 k
p q pentru 1 < x ≤ 2,
= p q =
k ···
k=0 Pn−1 n
pk q n−k pentru n − 1 < x ≤ n,
k=0 k
1 pentru x > n.
Teorema 4.1.2 Valoarea medie şi dispersia unei variabile aleatoare binomi-
ale de ordin n şi parametru p sunt
Pornind de la identitatea
n
n
X n k k n−k
(px + q) = p x q (4.1)
k=1
k
λk −λ
P (k; λ) = e , (4.3)
k!
unde k ∈ N şi λ > 0 se numeşte repartiţie Poisson de parametru λ.
Variabila aleatoare cu distribuţia
k
X : λk −λ (4.4)
k!
e k∈N
n(n − 1) . . . (n − k + 1) λk λ
lim P (n; λ) = lim · k (1 − )n−k =
n→∞ n→∞ k! n n
λk −λ
= e
k!
căci
n−k
n(n − 1) . . . (n − k + 1) λ
lim = 1 şi lim 1 − = e−λ
n→∞ nk n→∞ n
Din acest motiv repartiţia Poisson se mai numeşte şi legea evenimentelor
rare.
Teorema 4.1.4 Valoarea medie şi dispersia unei variabile aleatoare Poisson
de parametru λ sunt M (X) = λ şi D2 (X) = λ.
Demonstraţie. Deoarece
∞ ∞
X λk −λ −λ
X λk−1
M (X) = k e = λe = λe−λ eλ = λ
k=0
k! k=1
(k − 1)!
şi
∞ k ∞
2
X
2λ −λ
X λk −λ
M (X ) = k e = (k 2 − k + k) e =
k=0
k! k=0
k!
∞ ∞
X λ −λ X λk −λ
k
= k(k − 1) e + k e = λ2 e−λ eλ + λ = λ2 + λ,
k=1
k! k=0
k!
2. Rezultatul fiecărei probe cade ı̂n una din cele k clase sau celule.
n!
p(y1 , y2 , . . . , yk ) = py11 py22 . . . pykk
y1 !y2 ! . . . yk !
unde
k
X k
X
pi = 1 şi yi = n.
i=1 i=1
Pk
Definiţia 4.1.5 Dacă p1 , p2 , . . . , pk sunt astfel ca i=1 pi = 1 şi pi > 0
pentru i = 1, k atunci spunem că (Y1 , Y2 , . . . , Yk ) are o distribuţie multino-
mială cu parametrii n şi p1 , p2 , . . . , pk dacă funcţia de probabilitate comună
a vectorului Y1 , Y2 , . . . , Yk este dată de
n!
p(y1 , y2 , . . . , yk ) = py11 py22 . . . pykk
y1 !y2 ! . . . yk !
unde
k
X
yi = n.
i=1
1.5 1.5
1 1
0.5 0.5
0 0
−0.5 −0.5
0 2 4 6 0 2 4 6
Teorema 4.2.1 Valoarea medie şi dispersia unei variabile aleatoare uni-
forme sunt
a+b (b − a)2
M (X) = , D2 (X) = .
2 12
54 Distribuţii de probabilitate clasice
Demonstraţie.
Z ∞ Z a Z b Z ∞
M (X) = xf (x)dx = xf (x)dx + xf (x)dx + xf (x)dx =
−∞ −∞ a b
Z b b
1 x2 b 2 − a2 a+b
= xf (x)dx = = = .
a b − a 2 a 2(b − a) 2
De asemenea
∞ b
a2 + ab + b2
Z Z
2 2 1
M (X ) = x f (x)dx = x2 dx = ,
−∞ b−a a 3
de unde
2 a2 + ab + b2 a2 + 2ab + b2 (b − a)2
D (X) = − = .
3 4 12
eitb − eita
g(t) = .
it(b − a)
Teorema 4.2.2 Media şi dispersia unei variabile aleatoare normale reduse
sunt M (X) = 0 şi D2 (X) = 1.
Demonstraţie.
Z ∞ Z ∞
1 x2 1 x2
M (X) = √ xe− 2 dx = √ xe− 2 dx = 0,
−∞ 2π 2π −∞
deoarece ∞ √
Z
2
e−x dx = π (integrala lui Poisson)
0
(pentru acest rezultat vezi formula (A.6) din secţiunea A.1, anexa A).
Corolarul 4.2.3 Media şi dispersia unei variabile aleatoare normale, de pa-
rametri m şi σ 2 sunt M (X) = m şi D2 (X) = σ 2 .
Deci am obţinut
σ2
σ3
Φ(u)
x=u
Deoarece seria din membrul drept este uniform convergentă putem permuta
suma cu integrala, obţinând
∞ n n Z ∞ n n
X t i 1 x2
X t i
g(t) = ·√ xn e− 2 dx = Mn (X).
n=0
n! 2π R n=0
n!
0.4 1
0.9
0.35
0.8
0.3
0.7
0.25
0.6
0.2 0.5
0.4
0.15
0.3
0.1
0.2
0.05
0.1
0 0
−4 −2 0 2 4 −4 −2 0 2 4
x−m
Pentru o variabilă aleatoare X ∈ N (m, σ 2 ), deoarece Y = σ
este normală
standard obţinem
σ 2 t2
gX (t) = gσY +m (t) = eitm gY (σt) = eitm− 2 .
În faptul că asimetria şi excesul repartiţiei N (m, σ 2 ) sunt nule ı̂şi are originea
procedeul statisticii descriptive de a considera aceste caracteristici drept cri-
terii de stabilire a normalităţii. Totuşi, condiţia As = E = 0 este o condiţie
necesară, dar nu suficientă pentru normalitate.
Regula celor 3 σ pentru variabile aleatoare normale.
ε ε
P (|x − m| < ε) = P (−ε + m < X < ε + m) = Φ −Φ − =
ε σ σ
= 2Φ − 1.
σ
În tabele găsim Φ(3) = 0.9987, de unde p = 0.9974. Cu alte cuvinte, proba-
bilitatea ca abaterea ı̂n valoare absolută să depăşească 3σ este 1 − 0.9974 =
0.0026, adică practic 0.
unde Γ(r) reprezintă valoarea funcţiei gama a lui Euler ı̂n r (vezi secţiunea
A.1 din anexă). Mulţimea variabilelor aleatoare ce urmează legea gama de
parametri r şi λ se va nota cu γ(r, λ). Pentru λ = 1 se obţine repartiţia
gama standard de parametru r, având densitatea de probabilitate
(
e−x xr−1
Γ(r)
, pentru x > 0
f (x; r) =
0, pentru x ≤ 0.
Această repartiţie a fost pusă ı̂n evidenţă de Erlang ı̂n studiile sale privind
apelurile abonaţilor unei centrale telefonice. Notăm cu Er(r, λ) mulţimea
variabilelor aleatoare care urmează legea Erlang de parametrii r şi λ. Se
verifică uşor că Er(r, λ) = γ(r, λr).
(X−m)2
Teorema 4.2.9 Dacă X ∈ N (m, σ 2 ) atunci Y = 2σ 2
∈ γ ∗ ( 12 ).
Demonstraţie. Avem
√ X −m √ √ X −m √
P (Y < x) = P − x< √ < x = P − 2x < < 2x .
σ 2 σ
X−m
Deoarece σ
∈ N (0, 1), obţinem
Z √2x Z √2x
1 u2 2 u2
P (Y < x) = √ √
e− 2 du = √ e− 2 du.
2π − 2x 2π 0
√
Efectuând schimbarea de variabilă u2 = 2v şi ţinând cont că Γ(1/2) = π,
rezultă că Z x
1 1
P (Y < x) = 1 e−v v − 2 dv = FY (x),
Γ( 2 ) 0
adică −x 1 −1
e x2 1
1 , pentru x > 0
fY (x) = Γ( ) = f γ ∗ (x; ).
2 2
pentru x ≤ 0
0,
Această repartiţie a fost descoperită de astronomul Helmert ı̂n 1876 şi pusă
ı̂n valoare 30 de ani mai târziu de Karl Pearson, motiv pentru care se
mai numeşte şi repartiţia Helmert–Pearson. Pentru σ 2 = 1 se obţine
repartiţia χ2 standard cu ν > 0 grade de libertate, având densitatea de
probabilitate − x ν −1
e 2 x2
ν , pentru x > 0
f (x; ν) = 2 2 Γ( ν2 )
pentru x ≤ 0.
0,
Mulţimea variabilelor aleatoare ce urmează legea χ2 de parametri ν şi σ 2 se
va nota cu χ2 (ν, σ 2 ) sau cu X 2 (ν, σ 2 ). În figura 4.5 apar mai multe exemple
de distribuţii χ2 standard, cu diverse grade de libertate.
0.2
χ2(5,1)
χ2(10,1)
0.15
χ2(30,1)
0.1
0.05
0
0 10 20 30 40 50 60 70 80
2
χ2(1,1)
1.5
0.5
0
0 2 4 6 8 10 12
Demonstraţie.
X2
Conform teoremei 4.2.9 Xj ∈ N (0, σ 2 ) ⇒ Yj = 2σj2 ∈ γ ∗ ( 21 ) ⇔ Xj2 ∈
γ( 12 , 2σ1 2 ) ⇔ Xj2 ∈ X 2 (1, σ 2 ). Deoarece X1 , . . . , Xν sunt independente
ν
gY (t) = gx21 (t) · · · gx2ν (t) = (1 − 2σ 2 ti)− 2
adică Y ∈ X 2 (ν, σ 2 ).
X−M (X)
Teorema 4.2.11 Fie X ∈ X 2 (ν, σ 2 ). Pentru ν → ∞, X ∗ = D(X)
ur-
mează legea normală standard N (0, 1).
unde B(m, n) este funcţia beta a lui Euler (vezi secţiunea A.2 din anexă).
Mulţimea variabilelor aleatoare ce urmează repartiţia beta de parametri m, n
se notează cu β(m, n).
Momentul de ordin r al unei variabile aleatoare X ∈ β(m, n) este
Z 1
1 B(m + r, n)
Mr (X) = xr+m−1 (1 − x)n−1 dx = .
B(m, n) 0 B(m, n)
De aici, folosind formula A.13 din anexa A, care ne dă legătura ı̂ntre funcţiile
euleriene beta şi gama, se obţine
Γ(m + n)Γ(m + r)Γ(n) Γ(m + n)Γ(m + r)
Mr (X) = = .
Γ(n)Γ(m)Γ(m + n + r) Γ(m)Γ(m + n + r)
În particular
m m(m + 1)
M1 (X) = , M2 (X) = . (4.12)
m+n (m + n + 1)
Din ultimele două egalităţi rezultă
mn
D2 (X) = . (4.13)
(m + n)2 (m + n + 1)
În figura 4.6 apar câteva exemple de grafice ale unor densităţi de probabilitate
ale unor repartiţii beta pentru diverse valori ale lui m şi n. Figura ilustrează
marea varietate de forme pe care care le poate avea graficul densităţii de
repartiţie a distribuţiei beta; astfel se explică importanţa acestei repartiţii
ca instrument de studiu al unei proporţii necunoscute p ∈ (0, 1).
8 6 4
6 m<1, n>1 3
4 m<1, n<1
4 m<1, n=1 2
2
2 1
0 0 0
0 0.5 1 0 0.5 1 0 0.5 1
3 2 1.5
m=1, n>2
1.5
2 1
1 m=1, 1<n<2
m=1, n=2
1 0.5
0.5
0 0 0
0 0.5 1 0 0.5 1 0 0.5 1
2 6 2
m=n=1
1.5 1.5
4
1 m=1, n<1 1
2 m=n>1
0.5 0.5
0 0 0
0 0.5 1 0 0.5 1 0 0.5 1
2 2 10
1.5 1.5
m>1>n
1 1<m<n 1 5
1<n<m
0.5 0.5
0 0 0
0 0.5 1 0 0.5 1 0 0.5 1
1.5 2 3
m>2, n=1
1.5
1 2
1
n=1<m<2
0.5 1
0.5 m=2, n=1
0 0 0
0 0.5 1 0 0.5 1 0 0.5 1
Dar ν ν ν ν
Γ = − 1 ··· −k Γ −k
2 2 2 2
şi
1 1 1 1
Γ k+ = k− ··· Γ ,
2 2 2 2
de unde
1 · 3 · · · (2k − 1)
M2k (X) = νk (4.17a)
(ν − 2)(ν − 4) · · · (ν − 2k)
cu condiţia să avem k < ν2 .
Deci, primele două momente de ordin par, dacă există sunt
ν 3ν 2
M2 (X) = m2 (X) = , M4 (X) = m4 (X) = .
ν−2 (ν − 2)(ν − 4)
şi deoarece M2k+1 (X) = 0, rezultă că momentele repartiţiei Student tind la
momentele repartiţiei N (0, 1) când n → ∞. Am demonstrat astfel teorema:
0.4
ν=1
ν=5
ν=10
0.35
ν=30
0.3
0.25
0.2
0.15
0.1
0.05
0
−3 −2 −1 0 1 2 3
În figura 4.7 apar mai multe grafice de densităţi de probabilitate Student
pentru diverse grade de libertate.
Vom studia ı̂n continuare legătura ı̂ntre repartiţia Student şi alte repartiţii
cunoscute.
X0
Y =r
X12 + · · · + Xν2
ν
este de clasă T (ν).
şi
1
Yν = √ (X1 + · · · + Xν ) (4.21)
ν
cu coeficienţii aleşi astfel ı̂ncât matricea A = (aij ) să fie ortogonală. Deoarece
X1 , . . . , Xν sunt variabile aleatoare independente de clasă N (0, σ 2 ), rezultă
că şi Y1 , . . . , Yν sunt independente şi de clasă N (0, σ 2 ). Mai mult
Y12 + · · · + Yν2 = X12 + · · · + Xν2 (4.22a)
de unde
X12 + · · · + Xν2
Y12 + · · · + Yν−1
2
= X12 + · · · + Xν2 − =
ν
X ν
= X12 + · · · + Xν2 − νY 2 = (Xi − Y )2 (4.23)
i=1
4.2.7 Repartiţia F
Spunem că o variabilă aleatoare are repartiţia F sau repartiţia Snedecor-
Fisher cu ν1 > 0 şi ν2 > 0 grade de libertate dacă densitatea sa de probabi-
litate este
ν1 ν1
ν1 2 x 2 −1
ν2 ν1 +ν 2
pentru x > 0
f (x; ν1 , ν2 ) = ν1 ν2
ν1 2
(4.24)
B 2 , 2 1 + ν2 x
0 pentru x ≤ 0.
0.4
N(0,1)
T(5)
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
−4 −3 −2 −1 0 1 2 3 4
ν2 ν2 ν1 + 2
M (X) = ; M2 (X) = 2 · ,
ν2 − 2 ν1 (ν2 − 2)(ν2 − 4)
2 2ν22 (ν1 + ν2 − 2)
D (X) = .
ν2 − 2
−3
x 10
5
4.5
3.5
2.5
1.5
0.5
0
0 1 2 3 4 5 6 7 8 9 10
şi deci
D(x1 , x2 ) νν21 x2 νν12 y
ν1
= = x2 ,
D(y, x2 ) 0 1 ν2
de unde rezultă
ν1 ν1 ν1
f (y, x2 ) = f (x1 , x2 ) x2 = fχ2 ( yx2 ; ν1 , σ 2 )fχ2 (x2 ; ν2 , σ 2 ) x2 .
ν2 ν2 ν2
Teorema 4.2.17 Dacă X1 , . . . , Xν1 şi Y1 , . . . , Yν2 sunt variabile aleatoare in-
dependente din clasa N (0, σ 2 ), atunci variabila aleatoare
ν2 X12 + · · · + Xν21
Z= ·
ν1 Y12 + · · · Yν22
e−Q/2
f (x1 , x2 ) = p , x, y ∈ R
2πσ1 σ2 1 − ρ2
unde
(x1 − m1 )2 (x1 − m1 )(x2 − m2 ) (x2 − m2 )2
1
Q= − 2ρ + .
1 − ρ2 σ12 σ1 σ2 σ22
0.16 0.2
0.14
0.12 0.15
0.1
0.08 0.1
0.06
0.04 0.05
0.02
0 0
4 4
2 4 2 4
2 2
0 0
0 0
−2 −2
−2 −2
−4 −4 −4 −4
75
76 Legea numerelor mari şi legi limită
Definiţia 5.1.2 Spunem că şirul de variabile aleatoare (Xn ) converge ı̂n Lp
Lp
(sau ı̂n medie de ordinul p) către o variabilă aleatoare X (notaţie Xn −→ X),
p ≥ 1 dacă ∀ε > 0, ∃Nε ∈ N astfel ı̂ncât ∀n ≥ Nε
Z
|Xn (ω) − X(ω)| dω =: ∥Xn − X∥pLp < ε.
E
Definiţia 5.1.3 Spunem că şirul de variabile aleatoare (Xn ) converge aproape
a.s.
sigur către o variabilă aleatoare X (notaţie Xn −→ X) dacă ∃A ∈ K cu
P (A) = 0 astfel ı̂ncât ∀ω ∈ A şi ∀ε > 0, ∃Nε ∈ N astfel ı̂ncât ∀n ≥ Nε
Teorema 5.1.4
a.s.
Xn −→ X =⇒ Xn −→ X.
(Convergent, a punctuală implică convergent, a aproape sigură).
Teorema 5.1.5
p
Xn ⇒ X =⇒ Xn −→ X.
(Convergent, a uniformă implică convergent, a ı̂n probabilitate).
Teorema 5.1.6
Lp p
Xn −→ X =⇒ Xn −→ X.
(convergent, a ı̂n Lp implică convergent, a ı̂n probabilitate).
Lp
Demonstraţie. Fie ε > 0 şi presupunem că Xn −→ X. Aplicăm inegalita-
tea lui Cebı̂şev
∥Xn − X∥pLp
P (|Xn − X| ≥ ε) ≤ −→ 0 când n → ∞.
εp
Teorema 5.1.7
Lp
Xn ⇒ X =⇒ Xn −→ X
(convergent, a uniformă implică convergent, a ı̂n Lp ).
Teorema 5.1.8
a.s. p
Xn −→ X =⇒ Xn −→
(convergent, a aproape sigură implică convergent, a ı̂n probabilitate).
Rezultatul se bazează pe teorema lui Egorov, pe care o enunt, ăm fără demonstrat, ie.
a.s.
Teorema 5.1.9 (Egorov) Fie P (E) < ∞ şi presupunem că Xn −→ X.
Atunci ∀δ > 0 ∃A ∈ K cu P (A) < δ astfel ı̂ncât Xn ⇒ X pe A.
Definiţia 5.1.11 Spunem că şirul de variabile aleatoare (Xn ) converge ı̂n
r
repartiţie către variabila aleatoare X (notaţie Xn −→ X) dacă ı̂n orice punct
de continuitate x0 al funcţiei de repartiţie F (x) a variabilei aleatoare X avem
p r
Teorema 5.1.12 Dacă Xn −→ X, atunci Xn −→ X.
Avem
F (x0 − δ) = P (X < x0 − δ) =
= P ((X < x0 − δ)∩(Xn < x0 ))+P ((X < x0 − δ)∩(Xn ≥ x0 )) =
= Fn (x0 ) + P ((X < x0 − δ) ∩ (Xn ≥ x0 )) ≤
≤ Fn (x0 ) + P (|Xn − X| ≥ δ) .
Analog se obţine
F (x0 + δ) ≥ limn→∞ Fn (x0 ).
Din ultimele două inegalităţi şi din (5.2) rezultă
r
ceea ce ne arată că Xn −→ X.
5.2. Legea slabă a numerelor mari 79
pentru orice ε > 0 dat, atunci spunem că şirul (Xn ) urmează legea slabă a
numerelor mari.
p
Cu alte cuvinte |Yn − cn | −→ 0.
Una din cele mai frecvente alegeri pentru φn este
X1 + · · · + Xn
φn (X1 , . . . , Xn ) = ,
n
iar pentru cn
M (X1 ) + · · · + M (Xn )
cn = .
n
Teorema 5.2.2 (Markov) Dacă (Xn ) verifică condiţia lui Markov
n
!
1 2 X
lim D Xi = 0,
n→∞ n2
i=1
atunci n !
1 X n
1X
lim P Xi − M (Xi ) < ε = 1 (5.3)
n n i=1
n→∞
i=1
pentru orice ε > 0 dat.
Demonstraţie. Punem
X 1 + · · · + Xn
X̄ =
n
şi aplicăm inegalitatea lui Cebı̂şev 3.4
D2 (X̄)
P X̄ − M (X̄) < ε ≥ 1 −
ε2
Deoarece
1
D2 (X̄) = 2 D2 (X1 + · · · + Xn ) −→ 0 (n → ∞)
n
obţinem limn→∞ P X̄ − M (X̄) < ε ≥ 1 şi, ţinând cont că probabilitatea
este subunitară rezultă concluzia.
Din teorema lui Markov rezultă:
80 Legea numerelor mari şi legi limită
şi deci
Zn2
0≤M ≤ ε2 + P (|Zn | ≥ ε) ,
1 + Zn2
din care rezultă imediat (5.5).
Suficienţa. Rezultă din şirul de inegalităţi.
1 + ε2 x2
Z Z
P (|Zn | ≥ ε) = dGn (x) ≤ dGn (x)
ε2 1 + x2
|x|≥ε |x|≥ε
Z∞
1 + ε2 x2 1 + ε2 Zn2
≤ dGn (x) = M .
ε2 1 + x2 ε2 1 + Zn2
−∞
Teorema 5.2.9 (Hincin) Dacă (Xn ) este un şir de variabile aleatoare in-
dependente şi identic repartizate cu media finită (M (Xn ) = a < ∞), atunci
(Xn ) este supus legii slabe a numerelor mari.
Demonstraţie. Definim variabilele aleatoare
Yk = Xk − a, 1 ≤ k ≤ n.
Avem M (Yk ) = 0. Aplicând teorema 5.2.8 se obţine
" #
(Y1 + · · · Yn )2
M
n2 + (Y1 + · · · Yn )2
5.3. Legea tare a numerelor mari 83
Rezultă că
n
! n
[ X
P max |Zj (ω)| ≥ ε =P Aj = P (Aj ) . (5.9)
1≤j≤n
j=1 j=1
şi
M (Yi Yk |Aj ) = M (Yi |Aj ) M (Yk |Aj ) = 0, i > k ≥ j + 1. (5.13)
Se mai observă că
M Zj2 |Aj ≥ ε2 ,
1 ≤ j ≤ n, (5.14)
căci, pentru ω ∈ Aj , Zj2 (ω) ≥ ε.
Din relaţiile (5.11), (5.12), (5.13) şi (5.14)
M Zn2 |Aj ≥ ε2 ,
1 ≤ j ≤ n. (5.15)
n
! n n n
X X X X
2 2 2 2
D (Zn ) = D Yj = D (Yj ) = D (Xj ) = σj2 .
j=1 j=1 j=1 j=1
5.3. Legea tare a numerelor mari 85
Într-adevăr
( n )
X
ω : max (Xj (ω) − mj ) ≥ ε
1≤j≤n
j=1
( j
)
X
= ω: (Xi (ω) − mi ) ≤ ε, 1 ≤ j ≤ n .
i=1
Teorema 5.3.3 Fie (Xn ) un şir de variabile aleatoare. Dacă pentru orice
k∈N
∞
X 1
P |Xn − X0 | ≥ < +∞, (5.17)
k=1
k
atunci (Xn ) converge aproape sigur către X0 .
Deoarece
∞ ∞ ∞
X X X 1
Bnk Akn+j Aki
P ≤ P = P = P |Xi − X0 | ≥ ,
j=0 i=n i=n
k
adică
∞ [
∞ \ ∞ !
[ 1
P ω : |Xn+j (ω) − X0 (ω)| ≥ = 0,
k=1 n=1 j=0
k
a.s.
de unde se obţine că Xn −−→ X0 .
să conveargă pentru orice ı̂ntreg pozitiv k, atunci (Xn ) converge aproape sigur
către X0 .
Demonstraţie. Fie VA
n
X
Yn = (Xj − M (Xj ))
j=1
1
Zn = Yn.
n
5.3. Legea tare a numerelor mari 87
Este suficient să arătăm că (Zn ) converge aproape sigur către zero. Fie ε > 0
şi m ∈ N. Definim probabilităţile
P (m, ε) = P max |Zn | ≤ ε, 2m ≤ n < 2m+1 .
n
Deoarece
P (m, ε) ≤ P max |Yn | ≤ 2m ε, 2m ≤ n < 2m+1 ,
n
şi deci
∞
X ∞
X 22m+1
X−1 ∞
X X
−2 −2m −2
P (m, ε) ≤ ε 2 V (Xj ) = ε V (Xj ) 2−2m ,
m=1 m=1 j=1 j=1 m∈Mj
unde
Mj = m : 2m+1 > j .
vom avea ∞
X X 4 16
2−2m = 2−2m = 2−2mj < 2 ,
m∈Mj m=mj
3 3j
Teorema 5.3.6 Fie (Xn ) un şir de VAI. Dacă dispersiile variabilelor alea-
toare (Xn ) sunt mărginite de aceeaşi constantă reală, atunci (Xn ) urmează
legea tare a numerelor mari.
88 Legea numerelor mari şi legi limită
Observaţia 5.3.7 Teorema este analoagă teoremei lui Cebı̂şev (vezi ...).
Din teorema precedentă, putem deduce analoagele teoremelor lui Poisson şi
Bernoulli pentru legea tare a numerelor mari.
Teorema 5.3.8 Fie X(n) numărul de apariţii ale unui eveniment A ı̂n n ex-
perimente independente, probabilitatea producerii lui A ı̂n a k-lea experiment
fiind pk . În aceste condiţii, cu probabilitatea 1,
X(n) p1 + · · · + pn
lim − = 0.
n n n
Teorema 5.3.9 (Borel) Fie X(n) numărul de apariţii ale unui eveniment
A ı̂n n experimente independente, probabilitatea producerii lui A ı̂n fiecare
experiment fiind p. În aceste condiţii, cu probabilitatea 1,
X(n)
lim = p. (5.20)
n n
Rezultă că
Zn n
X
Yn2 2
(k + 1)2 P (k < |Xj | ≤ k + 1)
V (Yn ) ≤ M = x dF (x) ≤
−n k=0
şi deci
∞ ∞ n
X V (Yn ) X X (k + 1)2
2
≤ 2
P (k < |Xj | ≤ k + 1)
n=k
n n=1 k=0
n
∞ ∞
X 2
X 1
= (k + 1) P (k < |Xj | ≤ k + 1)
k=1 n=k
n2
∞
X 1
+ P (0 < |Xj | < 1) .
n=k
n2
Deoarece
∞
X 1 2
2
< k −2 + k −1 < ,
n=k
n k
rezultă de aici
∞ ∞
X V (Yn ) X 2(k + 1)2
2
≤ P (k < |Xj | ≤ k + 1) + 2P (0 < |Xj | < 1)
n=k
n k=1
k
∞
X
≤2 kP (k < |Xj | ≤ k + 1) + 8
k=1
∞
X Z
≤8+2 x dF (x) ≤ 8 + 2A,
k=0
k<|x|≤k+1
Mai trebuie să arătăm că (Xn ) urmează legea tare a numerelor mari. Pentru
90 Legea numerelor mari şi legi limită
Deoarece integrala (5.21) există şi este finită, rezultă că pentru m suficient
de mare integrala Z
|x|dF (x)
|x|≥m
aj = MP(Xj ) σj2 = DP
2
(Xj )
(5.23)
a(n) = j=1 aj σ(n) = nj=1 σj2
n 2
n
1 X
Yn = 2 (Xj − aj ) (5.24)
σ(n) j=1
Această condiţie ne arată că termenii sumei (5.24) sunt mici ı̂n mod uniform.
(a) (Xn ) admit dispersii finite şi mărginite şi limn→∞ σ(n) = +∞;
(b) variabilele aleatoare (Xn ) sunt identic repartizate şi admit dispersii fi-
nite;
ρ3j = M |Xj − aj |3
ρ(n) Pn
şi limn→∞ σ(n)
= 0, unde ρ3(n) = j=1 ρ3j .
X−λ
2. Dacă X ∈ P o(λ), atunci Y = λ
este asimptotic normală standard.
Statistica matematică
93
Statistica – scurt istoric
Primele preocupări statistice datează din antichitate. În China şi ı̂n Egip-
tul antic se culegeau şi se ,,prelucrau“ date referitoare la populaţie, recolte,
cadastru, ı̂n scopul unei mai bune colectări a impozitelor şi a păstrării unei
evidenţe a bărbaţilor capabili să poarte arme. De asemenea, Vechiul Testa-
ment aminteşte de numărarea bărbaţilor capabili să poarte arme efectuată
de Moise. Anchetele şi recensămintele efectuate de romani au reprezentat
o culme a acestui tip de activităţi. Preocupări de colectare a informaţiilor
despre populaţie au existat şi ı̂n America precolumbiană.
În evul mediu se cunosc recensămintele efectuate de mongoli, arabi, incaşi,
iar ı̂n renaştere activităţile lui Leonardo Pissano (Fibonacci) şi Luca Pacciolo.
În antichitate şi evul mediu culegerea datelor privind resursele umane şi
materiale se făcea pe considerente pur practice şi ı̂n scopul folosirii acestora
ı̂n scopuri fiscale, administrative sau militare. Putem spune că toate acestea
erau utilizate ı̂n descrierea statului, de unde provine probabil termenul de
statistică.
Începutul tratării ştiinţifice a datelor statistice s-a făcut ı̂n Germania
secolelor XVII – XVIII. Termenul statistică apare pentru prima dată ı̂n cur-
sul ,,Collegium politico-statisticum“ ţinut de Martin Schmeizel (1659-1757)
la Universitatea din Halle, iar după alţi autori ı̂n cursul ,,Staatskunde“ a
lui Gottfried Achenwall (1719-1772) de la Universitatea din Göttingen. În
Anglia, tot ı̂n aceiaşi perioadă, exista ca disciplină descriptivă a statului
aritmetica politică.
Un moment important ı̂n dezvoltarea statisticii ı̂l reprezintă cristalizarea
calculului probabilităţilor. Dezvoltarea acestuia din ultimii 200 de ani şi-a
pus din plin amprenta asupra statisticii. Un statistician important al secolu-
lui al XIX-lea este Adolphe Quetelet (1769-1874), de al cărui nume se leagă
noţiunile de repartiţie, medie, dispersie, observare de masă şi regularitate.
El considera că statistica este singura metodă ce se poate aplica fenomenelor
de masă.
Trecerea de la statistica descriptivă la studierea ştiinţifică a populaţiilor
statistice s-a realizat, la ı̂nceputul secolului nostru, de Karl Pearson (1857-
95
96
1936) şi elevii săi, care au ı̂nceput să considere caracteristicile unei populaţii
ca reprezentând variabile aleatoare. Această viziune a deschis drumul uti-
lizării intense a Teoriei probabilităţilor ı̂n problemele statistice, dând naştere
la ceea ce se numeşte azi Statistica matematică. Datorită contribuţiilor lui
Ronald Aylmer Fischer (1890-1962), Snedecor şi Shewart statistica a benefi-
ciat ı̂n secolul nostru de avantajele şi sprijinul producţiei de masă.
O contribuţie importantă la dezvoltarea Statisticii matematice a avut şi
şcoala românească de statistică, prin iluştrii săi reprezentanţi Octav Onices-
cu, Gheorghe Mihoc şi Marius Iosifescu.
Capitolul 6
Statistică descriptivă
97
98 Statistică descriptivă
(a) să fie aleatoare (orice selecţie să aibă şansa de a fi aleasă – şansa
poate fi calculată);
(b) toate elementele colectivităţii să aibă aceiaşi probabilitate de a fi
alese;
(c) structura selecţiei să fie cât mai apropiată de structura populaţiei,
adică selecţia să fie reprezentativă;
(d) volumul selecţiei să fie suficient de mare.
Să ilustrăm relaţia dintre cele două ramuri ale matematicii printr-un
exemplu. Avem două urne (una probabilistică şi una statistică, vezi figura
6.1). Urna probabilistică conţine 5 bile albastre, 5 roşii şi 5 albe. Subiec-
tul Calculul probabilităţilor ı̂ncearcă să răspundă la ı̂ntrebări de genul: dacă
se extrage o bilă sau mai multe din urnă, care este probabilitatea să avem o
anumită configuraţie de culori? Pe de altă parte urna statistică are o configu-
raţie necunoscută. Extragem o selecţie de bile şi facem afirmaţii despre ceea
ce credem că ar fi ı̂n urnă. Observaţi diferenţa: calculul probabilităţilor cal-
culează şansa ca ceva (o selecţie) să se ı̂ntâmple când se cunoaşte populaţia.
Statistica cere să se extragă o selecţie, descrie selecţia (statistică descriptivă)
şi apoi face inferenţe asupra populaţiei bazându-se pe informaţia găsită ı̂n
selecţie (statistica inferenţială).
6.2. Culegerea datelor 101
Dacă fiecare element al unei populaţii este listat sau enumerat avem
de-a face cu un recensământ. Un recensământ al populaţiei din exem-
plul 6.2.1 se poate obţine probabil din registrul matricol al facultăţii. Totuşi
102 Statistică descriptivă
Selecţia sistematică este o selecţie din care se extrage tot al k-lea ele-
ment din cadrul de selecţie. Această metodă de selecţie utilizează tabelul sau
generatorul de numere aleatoare o singura dată, pentru punctul de pornire.
Aceasta este o procedură bună de selecţie a unui procentaj dintr-o populaţie
mare. Când populaţia este ciclică sau repetitivă nu este recomandată. Pen-
tru a selecta o selecţie sistematică de x% dintr-o populaţie trebuie selectat
din 100/x ı̂n 100/x elemente (dacă 100/x nu este ı̂ntreg se rotunjeşte). De
exemplu, primul element (punctul de start) este selectat aleator, utilizând ta-
belul sau generatorul de numere aleatoare, din primele 33 (100/3) elemente
din cadrul de selecţie şi apoi fiecare al 33-lea element din cadrul de selecţie
ı̂ncepând cu primul aparţine selecţiei.
Când selectăm populaţii foarte mari, uneori este posibil să ı̂mpărţim po-
pulaţia pe baza anumitor caracteristici. Aceste subpopulaţii se numesc stra-
turi.
Selecţia stratificată se obţine stratificând cadrul de selecţie şi apoi
selectând un număr finit de elemente din fiecare strat. Când se construieşte
o selecţie stratificată, populaţia se ı̂mparte ı̂n straturi şi din fiecare strat se
face o selecţie simplă, sistematică sau aleatoare (după caz). Subselecţiile se
combină apoi ı̂ntr-o selecţie care va fi utilizată ı̂n continuare.
Selecţia proporţională se obţine stratificând cadrul de selecţie şi apoi
selectând un număr de elemente din fiecare strat după o proporţie stabilită
sau proporţional cu dimensiunea stratului.
Selecţia grupată se obţine stratificând cadrul de selecţie şi apoi se-
lectând elemente doar din unele straturi, nu din toate.
y = x(1 + d)k .
Logaritmând se obţine
pot fi reprezentate nu numai sub formă de tabele ci şi sub formă de grafice.
În acest mod multe trăsături caracteristice ale repartiţiei de frecvenţe devin
mai clare.
Dacă valorile se grupează ı̂n clase, fiecare clasă corespunzând unui interval
de variaţie al variabilei, avem de-a face cu o serie de tipul (S3). Ea poate fi
reprezentată printr-o tabelă de forma:
H ≤ G ≤ x̄.
Mediana şi mărimi ı̂nrudite. Mediana este o valoare care ı̂mparte seria
ı̂n două grupe de frecvenţe egale. Să presupunem că toate elementele seriei
sunt aranjate ı̂n ordinea mărimii lor. Dacă seria are 2n + 1 elemente, atunci
mediana este elementul n + 1, iar dacă seria are 2n elemente, atunci mediana
este media aritmetică a elementelor de rang n şi n + 1. Intervalul median
este intervalul care conţine elementul de rang k2 , unde k este numărul total de
observaţii. Mediana se poate determina şi din graficul frecvenţelor cumulate.
Se determină pe axa verticală punctul k2 . Se ridică din acest punct o perpen-
diculară pe axa verticală până ce se intersecteză curba. Din punctul astfel
110 Statistică descriptivă
16
14
C
12
10 nMe
E
8 k/2
6
A
4 n*−1 B
Me
D
2
0
xMe
dMe
−2
0 5 10 15 20
ni xki
P
mk = Pi .
i ni
ni (xi − x̄)k
P
mk = i P .
i ni
m1 = 0;
m2 = m2 − m21 ;
m3 = m3 − 3m1 m2 + 2m31 ;
m4 = m4 − 4m1 m3 + 6m21 m2 − 3m41 ,
...
m∗1 = 0;
1
m∗2 = m2 − ;
12
m∗3 = m3 ;
m2 7
m∗4 = m4 − + ;
2 240
...
Asimetria. Forma unei repartiţii se poate aprecia şi din punct de vedere
al gradului de asimetrie pe care-l prezintă. Asimetria repartiţiei este cu atât
mai mare cu cât diferenţa dintre media aritmetică şi modul este mai mare;
116 Statistică descriptivă
diferenţa este nulă ı̂n cazul repartiţiilor unimodale, simetrice şi care nu sunt
sub formă de U. Asimetria absolută este
As = x̄ − M o,
6.6 Exemple
Exemplul 6.6.1 S-a cercetat un lot de 70 de becuri din punct de vedere al
caracteristicii X ce reprezintă durate de viaţă ı̂n mii de ore. Datele statistice
obţinute sunt
6.6. Exemple 117
1.318 3.128 2.758 1.583 2.517 2.304 1.155 3.156 2.807 2.879
3.426 1.690 3.537 2.214 2.219 2.072 2.726 1.403 2.493 1.560
3.972 2.637 0.842 2.256 1.708 1.628 2.345 1.855 1.546 3.852
2.128 2.465 2.316 2.262 1.962 1.802 2.230 3.460 1.493 3.093
1.548 2.298 1.875 3.394 1.931 1.179 1.946 1.355 3.006 2.455
1.937 1.977 2.206 1.681 1.960 3.281 2.838 2.525 1.553 2.676
2.500 2.641 1.631 1.864 2.015 2.502 2.444 2.636 2.337 1.966
Soluţie.
a), b) Folosind formula lui Sturges, numărul claselor este c = 1+ 10
3
log n =
7. 1503. Se ia c = 7.
Pentru c = 11, obţinem tabela de frecvenţe dată ı̂n tabelul 6.1.
c) Poligonul frecvenţelor absolute apare ı̂n figura 6.3, ogiva ı̂n figura 6.4,
iar histograma frecvenţelor absolute ı̂n figura 6.5.
d) Pentru datele negrupate avem următorii indicatori statistici:
118 Statistică descriptivă
15
10
0
0 2 4 6 8 10 12
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0 2 4 6 8 10 12
14
12
10
0
0.5 1 1.5 2 2.5 3 3.5 4
Indicatorul Valoarea
Dimensiunea selecţiei 70
Media aritmetică 2.27077
Mediana 2.243
Modul 2.23
Media geometrică 2.17249
Dispersia 0.444294
Abaterea medie pătratică 0.666554
Eroarea standard 0.0796684
Minimul 0.842
Maximul 3.972
Amplitudinea 3.13
Cuartila inferioară 1.802
Cuartila superioară 2.641
Interval intercuartilic 0.839
Skewness 0.407549
Kurtosis -0.106585
e) Pentru datele grupate avem
n
1X 1
x̄ = nk xk = (1 · 0.85 + 2 · 1.15 + . . . + 3 · 3.55 + 2 · 2.85) = 2.29.
n k=1 70
35 − 31
M e = 2.2 + 0.3 = 2.28.
15
Intervalul modal este [2.2, 2.5) deci modul (modulul) va fi M o = 2.35 (mij-
locul). Cuartilele sunt Q1 = 1.78 şi Q3 = 2.695.
Primele patru momente de selecţie sunt
n
1X 1
m1 = nk xk = (1 · 0.85 + 2 · 1.15 + . . . + 3 · 3.55 + 2 · 2.85) =
n k=1 70
= 2.29,
n
1X 1
m2 = nk x2k = (1 · 0.852 + 2 · 1.152 + . . . + 3 · 3.552 + 2 · 2.852 ) =
n k=1 70
= 5.688,
6.6. Exemple 121
n
1X 1
m3 = nk x3k = (1 · 0.853 + 2 · 1.153 + . . . + 3 · 3.553 + 2 · 2.853 ) =
n k=1 70
= 15.1467,
n
1X 1
m4 = nk x4k = (1 · 0.854 + 2 · 1.154 + . . . + 3 · 3.554 + 2 · 2.854 ) =
n k=1 70
= 42.8038.
şi respectiv
γ̄2 = β̄2 − 3 = −0.2726.
Exemplul 6.6.2 Producţia ı̂n tone obţinută de o fermă apare ı̂n tabelul 6.2.
Să se reprezinte grafic datele sub formă de sectoare de cerc (diagrame circu-
lare).
Exemplul 6.6.3 Tabelul 6.3 dă numărul de şomeri (ı̂n mii de persoane) din
două oraşe X şi Y pe timp de 6 ani. Să se reprezinte aceste date sub formă
de grafice rectangulare şi hărţi rectilinii.
Tabela 6.2: Datele din exem- Tabela 6.3: Datele din exem-
plul 6.6.2 plul 6.6.3
16% 31%
19%
7 7
orasul X orasul X
orasul Y orasul Y
6 6
5 5
4 4
3 3
2 2
1 1
0 0
1990 1991 1992 1993 1994 1995 1990 1991 1992 1993 1994 1995
Figura 6.7: Numărul de şomeri din două oraşe reprezentat sub formă de
grafice dreptunghiulare (dreapta) şi hărţi rectilinii (stânga)
124 Statistică descriptivă
Capitolul 7
Teoria selecţiei
Zn = hn (X1 , X2 , . . . , Xn ),
Demonstraţie.
n
1X 1
M (X) = M (Xk ) = nm = m
n k=1 n
1 X 2 1 σ2
D2 (X) = D (X k ) = nσ 2
= ,
n2 n2 n
deoarece Xk sunt independente şi identic
repartizate cu X.
σ2
Dacă n → ∞, X va urma legea N µ, .
n
Propoziţia 7.2.3 Dacă m = M (X) şi σ 2 = D2 (X) atunci
X −m
Zn = σ
√
n
converge ı̂n repartiţie către legea normală N (0, 1) când n → ∞, iar când
X ∈ N (n, σ) afirmaţia are loc pentru orice n.
Demonstraţie. Rezultă din teorema limită centrală sau din proprietăţile
distribuţiei normale.
Demonstraţie. Avem
n n
1X 1X 1
M (mk ) = M (Xik ) = M (X k ) = nMk = Mk
n i=1 n i=1 n
şi
n
2 1 X 2 k 1 M2k − Mk2
D (mk ) = 2 D (Xi ) = 2 n(M2k − Mk2 ) = .
n i=1 n n
n
1X
m2 = (Yn − Y )2
n k=1
unde
n
1X
Y = Yk .
n k=1
Pe de altă parte
2
2 n−1
D (m2 ) = M (m22 ) − (M (m2 )) =2
M (m22 ) − σ4.
n
7.3. Momente de selecţie 129
apoi
! " n
! n
!#
2 X 1 X X X
M Y Yk2 = 2M Yi2 + 2 Yi Yj Yk2
k
n i=1 i<j k=1
" #
1 X X X
= 2M Yk4 + 2 Yi2 Yj2 + 2 Yi Yj Yk2
n k i<j i,j,k
i<j
1 2
= 2
[nM 4 + n(n − 1)M 2 ]
n
1 n−1 2
= M4 + M2
n n
deci
1 2
D2 (m2 ) ≈ (M 4 − M 2 ).
n
n−1
Deoarece Cov(X, m2 ) = M 3 , rezultă că X şi m2 sunt necorelate
n2
pentru n → ∞, iar dacă X are distribuţia simetrică (M 3 = 0), atunci X şi
m2 sunt necorelate pentru orice n. De asemenea se poate arăta că statistica
m2 − M 2
Zn = s as N (0, 1).
2
M4 − M2
n
Demonstraţie.
n
1X
mk = (Xi − X)n
n i=1
1X k k k−1 n k
= Xi − Xi X + · · · + (−1) X
n i 1
k k
= mk − Xmk−1 + · · · + (−1)k X .
1
i 2i
M 2 (X mk−i ) ≤ M (X )M (m2k−i ), i = 2, k
sau
i 1
M (X mk−i ) ≤ O , i = 2, k.
n 2i
7.4. Funcţia empirică de repartiţie şi teorema lui Glivenko 133
νn (x)
F̄n (x) = , x∈R
n
unde
νn = card{xi | xi ≤ x, i = 1, n}
iar
card{xi | xi ≤ x, i = 1, n}
F n (x) = , x∈R
n
se numeşte valoarea funcţiei de repartiţie de selecţie.
134 Teoria selecţiei
F n (x) = n
n
[F (x)]k [1 − F (x)]n−k
k k=0,n
Lema 7.4.5 Considerăm n probe independente ale unui experiment şi pre-
supunem că la fiecare repetare A apare cu probabilitatea p. Avem
k
P lim − p = 0 = 1
n→∞ n
kr kr
xrk xrk
kr
xrk
şi
ν(xr,k ) card{Xi | Xi ≤ xr,k , i = 1, n}
F n (xr,k ) = = .
n n
Prin urmare F n (xr,k ) este frecvenţa relativă a apariţiei evenimentului Br,k
şi deci conform lemei 7.4.5
P lim |Fn (xr,k ) − F (xr,k )| = 0 = 1, k = 1, r.
n→∞
unde Ar ı̂nseamnă
pentru fiecare j = 1, r.
Dacă se notează cu Dr,j evenimentul
atunci D(Pr ) = 1.
Dacă se consideră evenimentul Er = Ar ∩ Dr , care ı̂nseamnă
deci
P lim sup |F n (x) − F (x)| = 0 = 1.
n→∞ x∈R
şi
F (xr,k ) ≤ F (x) ≤ F (xr,k+1 ) − 0,
de unde se obţine
Folosind cele două inegalităţi obţinute rezultă că |F n (x) − F (x)| ≤ Mn,r
unde
1
Mn,r = max {|F n (xr,k ) − F (xn,k )|, |F n (xr,j − 0) − F (xr,j − 0)|} + ,
k,j=1,r r
unde
Dn = sup |F n (x) − F (x)|,
x∈R
iar
∞
2 x2
X
K(x) = (−1)k e−2k , x > 0,
k=−∞
0, dacă x ≤ 0.27
√
3
2π X −(2i−1)2 π2 /(8x2 )
e , dacă 0.27 < x < 1
x
i=1
K(x) = 4
2 2
X
1 − 2 (−1)i−1 e−2i x , dacă 1 ≤ x < 31
i=1
1, dacă x > 3.1.
şi
r
X s
X r X
X s
ni. = n.j = nij = n (7.7)
i=1 j=1 i=1 j=1
s
X r
X
pi. = pij , p.j = pij (7.8)
j=1 i=1
r
X s
X
pi. = p.j = 1. (7.9)
i=1 j=1
Proprietăţi.
Demonstraţie. Dacă X şi Y sunt independente, atunci pij = pi. p.j , şi
avem
X r X
s r
X s
X
m11 = pij xi yj = xi pi. yj p.j = m10 m01
i=1 j=1 i=1 j=1
şi deci
m11 − m10 m01
r̄(X, Y ) = = 0.
s1 s2
Propoziţia 7.5.4 r̄(X, Y ) = 1 dacă şi numai dacă ı̂ntre X şi Y există o
legătură liniară.
Proprietăţi.
Demonstraţie.
(⇒)Dacă X şi Y sunt independente, atunci pij = pi. p.j şi toate pătratele
din (7.19) vor fi nule.
(⇐)Dacă ρ2 = 0, atunci toate pătratele din (7.19) sunt nule, deci pij =
pi. p.j , ceea ce ı̂nseamnă chiar independenţa lui X şi Y .
Deoarece s
X pij
= 1,
j=1
pi.
expresia
s s
X p2ij X pij pij
= ·
p p
j=1 i. .j
p p.j
j=1 i.
144 Teoria selecţiei
pij
poate fi interpretată ca valoare medie a unei repartiţii discrete cu valorile p.j
,
p
j = 1, s, cu probabilităţile (condiţionate) piji. ; avem
s
X p2ij pij
≤ 0 ≤ 1,
p p
j=1 i. .j
p.j0
pij0
unde p.j0
este valoarea maximă a repartiţiei considerate. În final obţinem
r X s
!
1 X p2ij
ρ2 = p −1 ≤
(r − 1)(s − 1) p p
i=1 j=1 i. .j
r
! r
1 X r−1 r−1
≤p 1−1 = p = < 1.
(r − 1)(s − 1) i=1 (r − 1)(s − 1) s−1
Estimaţie
După ce s-au obţinut datele statistice ı̂n urma cercetării selective se proce-
dează la generalizări care se referă la populaţia din care se extrage selecţia. În
particular aceste generalizări sunt legate de estimarea parametrilor necunos-
cuţi, care determină particularităţile caracteristice ale colectivităţilor iniţiale.
Determinând un parametru, ne propunem să obţinem o mărime care ı̂ntr-o
măsură oarecare să fie cât mai apropiată de valoarea reală a parametrului
necunoscut. Dacă nu reuşim aceasta, căutăm nişte limite ı̂n interiorul cărora,
cu o anumită probabilitate, să putem afirma că se află mărimea reală a para-
metrului necunoscut. În acest caz avem de-a face cu un interval de ı̂ncredere
pentru parametrul necunoscut.
Presupunem că studiem o caracteristică X a unei populaţii şi că X ur-
mează legea dată de f (X, θ), unde f (X, θ) este funcţia de frecvenţă ı̂n cazul
discret şi d.p. ı̂n cazul continuu iar θ este un parametru necunoscut. Se con-
sideră o selecţie repetată de volum n şi variabilele de selecţie corespunzătoare
X1 , X2 , . . . , Xn .
145
146 Estimaţie
reprezintă ı̂n cazul discret funcţia de frecvenţă, iar ı̂n cazul continuu densi-
tatea de probabilitate a vectorului aleator (X1 , X2 , . . . , Xn ).
unde s = S(X1 , . . . , Xn ).
λx −x
f (x, λ) = e , x∈N
X!
n
X
Considerăm statistica S = Xk . Deoarece X1 , X2 , . . . , Xn i.i.d. cu X,
k=1
S ∈ P0 (nλ)
(nλ)s −nλ
O(S = s) = e
s!
n
Y λ
L(X1 , . . . , Xn ; λ) = f (Xk , λ) = e−nλ
k=1
X1 !X2 ! . . . Xn !
1
φ(X1 , . . . , Xn ) = , h(s; λ) = λs e−nλ
X1 ! . . . Xn !
sau
s! (nλ)s −nλ
φ(X1 , . . . , Xn ) = s
, h(s; λ) = e
n X1 ! . . . Xn ! s!
Deci nu se impune unicitatea factorizării.
8.1. Funcţia de verosimilitate şi statistici suficiente 147
Statistica
n
X
S = S(X1 , . . . , Xn ) = a(Xk )
k=1
( n n
)
X X
= exp α(θ) a(xk ) + nβ(θ) + b(xk )
k=1 k=1
148 Estimaţie
( n
) ( n )
X X
= exp α(θ) a(xk ) + nβ(θ) exp b(xk ) .
k=1 k=1
Dacă se consideră
n
!
X
φ(X1 , . . . , Xk ) = exp b(Xk )
k=1
şi
h(s, θ) = exp (α(θ)s + nβθ)
atunci
L(X1 , . . . , Xn |θ) = φ(X1 , . . . , Xn )h(s, θ).
θb = φ(X
b 1 , X2 , . . . , Xn )
D2 (θ)
b
1 ≥ P (|θ − θ| < ε) ≥ 1 −
b , ∀ ε > 0.
ε2
Trecând la limită pentru n → ∞ se obţine
∂L(X1 , . . . , Xn ; θ) ∂ ln L(X1 , . . . , Xn ; θ)
= L(X1 , . . . , Xn ; θ) (8.1)
∂θ ∂θ
Se obţine
Z Z
∂ ln L(X1 , . . . , Xn ; θ)
··· L(X1 , . . . , Xn ; θ)dX1 . . . dXn = 0. (8.2)
∂θ
Rn
Z Z 2
∂ ln L(X1 , . . . , Xn ; θ)
+ ··· L(X1 , . . . , Xn ; θ)dX1 . . . dXn = 0
∂θ
Rn
sau echivalent
2 " 2 #
∂ ln L(X1 , . . . , Xn ; θ) ∂ ln L(X1 , . . . , Xn ; θ)
M +M = 0.
∂θ2 ∂θ
căci
∂ 2 ln f (X; θ)
I1 (θ) = −E .
∂θ2
Demonstraţie.
Deci avem
∂ 2 ln L(X1 , . . . , Xn ; θ) ∂ 2 ln h(S, θ) ∂ 2 ln f (X1 , . . . , Xn ; θ|S)
= + (8.3)
∂θ2 ∂θ2 ∂θ2
deci
∂ 2 ln f (X1 , . . . , X; θ|S)
In (θ) = IS (θ) − E ≥ IS (θ).
∂θ2
1
D2 (θ)
b ≥ .
In (θ)
unde n
Y
L(X1 , . . . , Xn ; θ) = f (Xk ; θ)
k=1
8.3. Estimaţii eficiente 155
sau
Z Z " n
#" n #
X ∂ ln f (xk ; θ) Y
··· θ(X
b 1 , . . . , Xn ) f (Xi ; θ) dX1 . . . dXn = 1
k=1
∂θ i=1
Rn
(8.4)
Pe de altă parte, deoarece
Z
∂ ln f (X; θ)
f (X; θ)dX = 0,
R ∂θ
avem
n Z Z " n #
X ∂ ln f (Xk ; θ) Y
θ ··· f (Xi ; θ) dX1 . . . dXn = 0
k=1
∂θ i=1
Rn
adică " !#
n
b 1 , . . . , Xn ) − θ)
X ∂ ln f (Xk ; θ)
M (θ(X = 1.
k=1
∂θ
Aplicăm inegalitatea lui Schwarz şi obţinem
" " n
!##2
b 1 , . . . , Xn ) − θ)
X ∂ ln f (X k ; θ)
1 = M (θ(X
∂θ
k=1 !2
n
b 1 , . . . , Xn ) − θ)2 ]M
X ∂ ln f (Xk ; θ)
≤ M [(θ(X
k=1
∂θ
n
!
2 b 2
X ∂ ln f (Xk ; θ)
= D (θ)D
∂θ
k=1
2 b 2 ∂ ln f (X; θ)
= D (θ)nD ,
∂θ
156 Estimaţie
adică
1
D2 (θ)
b ≥ (8.5)
∂ ln f (X; θ)
nD2
∂θ
Dar
2
2 ∂ ln f (X; θ) ∂ ln f (X; θ)
nD = nM = nI1 (θ) = In (θ)
∂θ ∂θ
In−1 (θ)
e(θ)
b = .
D2 (θ)b
Definiţia 8.3.11 Spunem că funcţia de estimaţie absolut corectă pentru pa-
rametrul θ, Θb = θ(X
b 1 , . . . , Xn ) este eficientă dacă ı̂n inegalitatea Rao-Cramer
are loc egalitatea, adică e(θ) b = 1.
ln f (X; θ) = A′ (θ)[L(X)
e − θ] + A(θ) + N (X),
∂ ln f (x; θ) ∂ ln f (0, θ)
K(θ)[θ(X,
b 0, . . . , 0) − θ] = + (n − 1)
∂θ ∂θ
de unde
∂ ln f (x; θ)
= U (θ)Q(x) + V (θ).
∂θ
Astfel s-a obţinut că
n n
X ∂ ln f (Xk ; θ) X
= U (θ) Q(Xk ) + nV (θ)
k=1
∂θ k=1
de unde
n
b 1 , . . . , Xn ) = U (θ) nV (θ)
X
θ(X Q(Xk ) + + θ,
K(θ) k=1 K(θ)
pentru orice X1 , . . . , Xn . Rezultă de aici că
U (θ) nV (θ)
h= , g= +θ
K(θ) K(θ)
= A′ (θ)[L(X)
e − θ] + A(θ) + N (X),
de unde
ln f (X; θ) = A′ (θ)[L(X)
e − θ] + A(θ) + N (X).
Pentru suficientă se porneşte de la relaţia cunoscută
Z
f (X; θ)dX = 1,
R
adică Z
exp{A′ (θ)[L(X)
e − θ] + A(θ) + N (X)}dX = 1,
R
pe care o derivăm ı̂n raport cu θ:
Z
A′′ (θ)(L(X)
e − θ)f (X; θ)dX = 0,
R
de unde Z
(L(X)
e − θ)2 A′′ (θ)f (X; θ)dX = 1.
R
Deoarece M (L(X))
e = 0, am obţinut astfel că
1
D2 (L(X))
e = ,
A′′ (θ)
Pe de altă parte
1
In−1 (θ)
nA′′ (θ)
e(θ)
b = = = 1,
V ar(θ)
b 1
nA′′ (θ)
deci Θ
b = θ(X
b 1 , . . . , Xn ) este un estimator eficient pentru θ.
de unde
m θ θ
ln f (X; θ) = ln + X ln + (m − X) ln 1 −
X m m
θ θ m
= (X − θ) ln + θ ln + m ln(m − θ) + ln − m ln m.
m−θ m−θ X
Considerând
A(θ) = θ ln θ + (m − θ) ln(m − θ)
avem
θ
A′ (θ) = ln ,
m−θ
deci
f (X; θ) = [L(X)
e − θ]A′ (θ) + A(θ) + N (X)
m
unde L(X) = X şi N (X) = ln
e −m ln m. Pe baza teoremei Rao-Cramer
X
se obţine că
n n
1Xe 1X
θ=
b L(Xk ) = Xk
n k=1 n k=1
este un estimator eficient pentru θ = mp.
Demonstraţie. Fie θb1 = θb1 (X1 , . . . , Xn ) şi θb2 = θb2 (X1 , . . . , Xn ) doi
estimatori optimali distincţi pentru θ. Dacă se consideră funcţia de selecţie
1
θb = (θb1 + θb2 ), atunci θb este nedeplasat deoarece
2
b = 1 (M (θb1 ) + M (θb2 )) = 1 (θ + θ) = θ.
M (θ)
2 2
8.4. Estimatori optimali 161
Pe de altă parte
adică D2 (θb1 − θb2 ) = 0. Dar M (θb1 ) = M (θb2 ) de unde rezultă M [(θb1 − θb2 )2 ] = 0.
Prin urmare θb1 = θb2 , contradicţie cu afirmaţia că cei doi estimatori sunt
distincţi.
Statisticile suficiente joacă un rol important ı̂n găsirea unor estimatori
buni pentru parametrii necunoscuţi. Dacă θb este un estimator nedeplasat
pentru θb şi S este o statistică suficientă pentru θ, atunci există o funcţie
de S care este un estimator nedeplasat pentru θ, a cărui dispersie nu este
mai mare decât cea a lui θ. b Dacă căutăm estimatori nedeplasaţi cu dispersie
mică ne putem restrânge căutarea la estimatori care sunt funcţii de statistică
suficiente.
Teorema 8.4.4 (Rao-Blackwell) Fie caracteristica X cu funcţia de pro-
babilitate f (X, θ) şi fie θb = θ(X
b 1 , . . . , Xn ) un estimator nedeplasat pentru θ.
Dacă statistica S = S(X1 , . . . , Xn ) este o statistică suficientă pentru para-
metrul θ, atunci estimatorul θ = θ(X1 , . . . , Xn ) = M (θ/S)b este un estimator
nedeplasat pentru θ şi are loc relaţia
D2 (θ) ≤ D2 (θ).
b
D2 (θ0
b = M [D2 (θ/S)]
b + D2 (θ). (8.6)
D2 (θ)
b = M [(θb − θ)2 ] = M [(θb − M (θ/S)
b + M (θ/S)
b − θ)2 ]
2
= M [(θb− M (θ/S))
b ] + M [(M (θ/S)
b − θ)2 ] + 2M [(θb− M (θ/S))(M
b (θ/S)
b − θ)].
Dar
M [D2 (θ/S)]
b = M [M ((θb − M (θ/S)))
b 2
/S] = M [(θb − M (θ/S))
b 2
],
M [(M (θ/S)
b − θ)2 ] = M [(θ − θ)2 ] = D2 (θ),
iar ultimul termen este nul deoarece pentru S = s fixat, avem M (θ/S)
b −θ =
constant deci
M [(θb − M (θ/S))(M
b (θ/S)
b − θ)] = M [(θ/S)
b − θ]M [θb − M (θ/S)]
b
= [M (θ/S)
b − θ][M (θ)
b − M (θ)]
b = 0.
pentru orice λ > 0, ceea ce are loc dacă fiecare coeficient este nul, adică
φ(s) = 0, când s ∈ N.
θ = θ(X1 , . . . , Xn ) = M (θ/S)
b
este optimal.
θ1 = θ1 (X1 , . . . , Xn ) = M (θ/S)
e
M [M (θ/S)
b − M (θ/S)]
e = 0.
Având ı̂n vedere că statistica S este completă, rezultă că M (θ/S)
b = M (θ/S)
e
a.s., de unde D2 (θ) = D2 (θ1 ).
În final D2 (θ) = D2 (θ1 ) ≤ D2 (θ),
e adică θe este optimal.
164 Estimaţie
b 1 , . . . , Xn ) = 1 card{Xi | Xi = 0, i = 1, n},
θb = θ(X
n
θb n n
θk (1 − θ)n−k
k k=0,n
Pentru S = s, avem
θb = θ(X
b 1 , . . . , Xn )
deci maximul lui L ı̂n raport cu θ se obţine atunci şi numai atunci când se
obţine maximul lui h după θ. Deci θb se exprimă ı̂n funcţie de S.
Înlocuind θ cu θb obţinem
∂ ln L(X1 , . . . , Xn ; θ)
b
b θb − θ)
= K(θ)( b =0
∂θ
Teorema 8.5.5 (Zehna) Fie X o v.a. cu d.p. f (X; θ), θ parametru ne-
cunoscut, θ ∈ Dθ ⊆ R şi λ = g(θ), λ ∈ Dλ ⊆ R, unde g este inversabilă.
Atunci θn∗ = θn∗ (X1 , . . . , Xn ) este estimator de verosimilitate maximă pen-
tru θ dacă şi numai dacă g[θn∗ (X1 , . . . , Xn )] este estimator de verosimilitate
maximă pentru parametrul necunoscut λ.
L(X
e 1 , . . . , Xn ; λ) = L(X
e 1 , . . . , Xn ; g(θ)).
cu soluţiile
n
1X
m
b = xi = x̄
n i=1
n
1X
σb2 = (xi − x̄)2 = s2 .
n i=1
cu soluţia λ
b = x̄.
170 Estimaţie
1 X
f (X; a, b) = a
X a−1 e− b , X > 0.
Γ(a)b
Z ∞
1 X
M2 (X) = M (X ) 2
X a+1 e− b dX = ab2 (a + 1).
γ(a)ba 0
k
2
X [Ni − npi (θ)]2
χ =
i=1
npi (θ)
ni
Dacă notăm pbi = , atunci valoarea lui χ2 se poate scrie sub forma
n
k k k
!
X (ni − npi )2 X pi − npi )2
(nb X pb2 i
χ2 = = =n −1
i=1
npi i=1
npi i=1
pi
k
X pbi
.
i=1
pi
[θ(x1 , . . . , xn ), θ(x1 , . . . , xn )]
cu proprietăţile
X̄ − m
Z=
√σ
n
0.4
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
zα/2 z1−α/2
−0.05
−0.1
−3 Figura
−2 8.1: Intervale
−1 de0 ı̂ncredere1 pentru medie
2 3
Soluţie. Cu datele de mai sus media este x̄ = 986. 33, s′ = 13.03, iar
cuantilele sunt t7,0.025 = −2.365 şi t7,0.9755 = 2.365 (distribuţia este simetrică).
Se obţine intervalul 986.33 ± 2.365 · 13.03√
8
= 986.33± 10. 895, adică (986.33−
10. 895, 986.33+ 10. 895) = (975. 44, 997. 23).
şi
n 1 2 n
1 X 2 ′2 1 X 2
s′2
1 = X1i − X̄1 , s2 = X2i − X̄1 .
n1 − 1 i=1 n2 − 1 i=1
Procedura Timpul
Clasică 32 37 35 28 41 44 35 31 34
Nouă 35 31 29 25 34 40 27 32 31
Deci r
195.56 + 160.22
Sp = = 4. 7155.
9+9−2
Cum numărul de grade de libertate este n1 + n2 − 2 = 16 şi t16,0.975 = 2.120
se obţine un interval de forma
r
1 1
(x̄1 − x̄2 ) ± tn1 +n2 −2,1−α/2 Sp + ,
n1 n2
de unde prin ı̂nlocuire avem
r
1 1
(35.22 − 31.56) ± 2.120 · 4.7155 · + = 3. 66 ± 4. 7126 =
9 9
= (−1. 0526, 8. 3726) .
Observaţia 8.6.4 Dacă volumul selecţiei este mare diferenţa ı̂ntre valorile
cuantilelor repartiţiei Student şi cele ale repartiţiei normale standard este
neglijabilă şi atât la determinarea intervalelor de ı̂ncredere pentru medie cât
şi pentru diferenţa a două medii se poate considera că statisticile utilizate au
distribuţia normală.
a) oricare
√ ar fi valoare lui p ∈ [0, 1], p(1 − p) ≤ 14 ; aşadar dacă folosim
0.5/ n ı̂n loc de √σn , vom folosi un număr care nu este mai mic decât
media pătratică;
b) q
dacă n este suficeient de mare, eroare ce provine din ı̂nlocuirea cantităţii
p(1−p)
p
n
cu x̄n (1 − x̄n )/n este mică.
De aici rezultă
2
zα/2 pq
n= . (8.11)
E2
Exemplul 8.6.7 Un producător susţine că marfa sa are defecte ı̂n proporţie
de 5%. Să se determine dimensiunea selecţiei astfel ı̂ncât estimaţia să fie cu
precizia 0.02 (eroarea) la nivelul de 90%.
Dacă χ2n,α este cuantila de ordin α a repartiţiei χ2 (n, 1), atunci putem lua
χ21 = χ2n−1,α/2 şi χ22 = χ2n−1,1−α/2 , aşa cum se arată ı̂n figura 8.2. Avem
ns2
χ2n−1,α/2 < X 2 < χ2n−1,1−α/2 ⇔ χ2n−1,α/2 < < χ2n−1,1−α/2 ,
σ2
de unde se obţine
ns2 ns2
< σ2 < . (8.12)
χ2n−1,1−α/2 χ2n−1,α/2
0.09
0.08
0.07
0.06
0.05
0.04
0.03
0.02
0.01
0
2 2
χn−1,α/2 χn−1,1−α/2
−0.01
0 5 10 15 20 25 30 35
2
Figura 8.2: Interval de ı̂ncredere pentru σ
Soluţie. Presupunând că datele sunt normale, avem s′2 = 10.57, α/2 =
0.05, numărul de grade de libertate este n−1 = 2, iar cuantilele sunt χ22,0.05 =
0.103 şi χ22,0.95 = 5.991. Aplicând formula (8.12) se obţine intervalul
!
(n − 1)s′2 (n − 1)s′2
, = (3.53, 205.4).
χ2n−1,1−α/2 χ2n−1,α/2
1 s′2
1 σ12 1 s′2
1
′2
< < .
fn1 −1,n2 −1;1−α/2 s2 σ22
fn1 −1,n2 −1;α/2 s′2
2
Exemplul 8.6.9 Să considerăm datele din exemplul 8.6.3. Dorim să deter-
minăm un interval de ı̂ncredere 95 % pentru raportul dispersiilor.
În geometria euclidiană poate fi luată ca ipoteză afirmaţia că suma un-
ghiurilor unui triunghi este 180◦ . Cu procedee general acceptate de demon-
straţie se verifică dacă această ipoteză este adevărată sau falsă. În acest caz
avem de-a face cu o demonstraţie matematică a ipotezei şi dacă demonstraţia
este riguroasă, suntem siguri că ipoteza este adevărată sau falsă. În alte ştinţe
decât matematica, pot fi propuse ipoteze sau teorii referitoare la un anumit
univers sau la o anumită populaţie. Aceste ipoteze le vom numi ipoteze
statistice şi singura cale de a fi absolut siguri de adevărul sau falsitatea lor
este de a cerceta ı̂ntreaga populaţie. Acest procedeu nu este practic (sau este
chiar imposibil) şi suntem nevoiţi să considerăm o selecţie dintr-o populaţie
şi s-o utilizăm pentru a decide asupra valabilităţii sau falsităţii ipotezei.
Procedeul de a folosi o selecţie pentru a verifica dacă o ipoteză este
adevărată (sau falsă) este numit test statistic asupra valabilităţii (sau fal-
sităţii) ipotezei.
Nu există nici o certitudine că nu vom comite o eroare. Într-adevăr există
două tipuri de erori pe care le putem face. Dacă se ı̂ntâmplă ca ipoteza
cercetată să fie adevărată şi noi decidem că este falsă, facem o eroare de
ordinul I (speţa, genul, tipul I). Probabilitatea acestei erori se notează cu
α; dacă dimpotrivă, ipoteza este falsă şi noi decidem că este adevărată,
facem o eroare de ordinul II, probabilitatea acestei erori notându-se cu β.
Frecvenţa cu care facem o greşeală este, desigur, foarte importantă şi vom
vedea că această frecvenţă poate fi controlată până la un anumit grad.
Decizia dacă ipoteza va fi acceptată sau respinsă se va baza pe informaţia
pe care o deţinem făcând observaţii şi pe riscul pe care suntem dispuşi să-l
acceptăm ı̂n a lua o decizie greşită.
Stabilim, de exemplu, ipoteza că un anumit parametru al unei populaţii
are o anumită valoare. Din populaţia studiată considerăm o selecţie şi
cercetăm dacă rezultatele obţinute pot fi considerate ca provenind sau nu
181
182 Verificarea ipotezelor statistice
Există două abordări pentru testele statistice: abordarea clasică şi abor-
darea bazată pe probabilitate.
Pentru ı̂nceput, exemplele vor fi rezolvate ı̂n ambele abordări. Cele ı̂n
abordarea clasică vor avea sigla (C), iar cele ı̂n abordarea bazată pe proba-
bilităţi sigla (P). După ce cititorul va fi familiarizat cu testele statistice vom
utiliza doar una din abordări, şi anume cea mai convenabilă.
H0 : m = m0 ,
X̄ − m
Z= (9.1)
√σ
n
urmează legea normală N (0, 1). Prin urmare, pentru α ∈ (0, 1) putem de-
termina un interval numeric (z1 , z2 ) astfel ı̂ncât
Intervalul (z1 , z2 ) nu este determinat ı̂n mod unic, dar având ı̂n vedere alter-
nativa H1 considerată, adăugăm una din condiţiile suplimentare:
unde ū = n1 nk=1 uk .
P
Ipoteza nulă va fi admisă dacă datele de selecţie satisfac condiţia (x1 , . . .,
xn ) ∈
/ U , iar ı̂n caz contrar va fi respinsă.
Observaţia 9.1.1 Testul Z se poate aplica şi pentru caracteristici care nu
sunt normale, dacă volumul selecţiei este mare (n > 30) şi dacă media este
necunoscută, iar dispersia cunoscută.
0.4 0.4
0.35 0.35
0.3 0.3
0.25 0.25
0.2 0.2
0.15 0.15
0.1 0.1
0.05 0.05
0 0
−0.1 −0.1
−2 0 2 −2 0 2
Exemplul 9.1.2 S-a afirmat că greutatea media a studentelor dintr-o uni-
versitate este 54.4 kg. Profesorul X nu crede asta. Pentru a verifica ipoteza
el a considerat o selecţie aleatoare de 100 de studente, obţinând o medie de
selecţie de 53.75. Se poate respinge ipoteza că media este 54.4 kg, pentru
α = 5% şi σ = 5.4 kg?
186 Verificarea ipotezelor statistice
Soluţie.
(C) (P)
P1. H0 : m = 54.4kg P1. H0 : m = 54.4kg
P2. H1 : m ̸= 54.4kg P2. H1 : m ̸= 54.4kg
P3. Statistica testului: P3. α = 0.05
Z = X̄−m
√σ
P4. Z = 53.75−54.4
√5.4
= −1. 2037
n 100
α = 0.05 P5. Φ(−1.2037) = 0.1151
Regiunea critică: P = 2 · 0.1151 = 0. 2302
vezi figura 9.1 (figura 9.1)
P4.Z = 53.75−54.4
√5.4
= −1. 2037 P6. P > 0.05, deci
100
P5.z ∗ ∈
/ U , H0 se acceptă H0 se acceptă
Exemplul 9.1.3 Biroul de internări al unui spital afirmă că vârsta medie
a pacienţilor săi este de 42 de ani. O selecţie aleatoare de 120 de vârste
obţinute din ı̂nregistrările bolnavilor dă o medie de selecţie de 44.2 ani. Este
selecţia semnificativă pentru a afirma că media este mai mare de 42 de ani,
pentru α = 5% şi σ = 20?
Soluţie.
(C) (P)
P1. H0 : m = 42 P1. H0 : m = 42
P2. H1 : m > 42 P2. H1 : m > 42
P3. Statistica testului: P3. α = 0.05
Z = X̄−m
√σ
P4. Z = 44.2−42
√20
= 1. 205
n 120
α = 0.05 P5. P = 1 − Φ(1. 205) =
Regiunea critică: = 1 − 0. 8849 = 0. 1151
vezi figura 9.2 (figura 9.2, dreapta)
P4. Z = 44.2−42
√20
= 1. 205 P6. P > 0.05, deci se acceptă H0 .
120
P5. z ∗ < 1.64 deci H0 se acceptă. Nu putem spune că m > 42.
Nu putem spune că m > 42.
• H1 : m ̸= m0 (testul t bilateral),
0.4 0.4
0.35 0.35
0.3 0.3
0.25 0.25
0.2 0.2
0.15 0.15
0.1 0.1
0.05 0.05
0 0
1.64 1.64
−0.05 −0.05
0.45 0.45
−0.1 −0.1
−2 0 2 −2 0 2
X̄ − m X̄ − m
T = s′
= q
√ m̄2
n n−1
(1)
( )
|ū − m0 |
U= (u1 , . . . , un ) ∈ Rn | s′
≥ tn−1,1−α/2 ;
√
n
(2)
( )
ū − m0
U= (u1 , . . . , un ) ∈ Rn | s′
≥ tn−1,1−α ;
√
n
(3)
( )
|ū − m0 |
U= (u1 , . . . , un ) ∈ Rn | s′
≤ tn−1,α .
√
n
0.4 0.4
0.35 0.35
0.3 0.3
0.25 0.25
0.2 0.2
0.15 0.15
0.1 0.1
0.05 0.05
0 0
1.71 1.71
−0.05 −0.05
0.48 0.48
−0.1 −0.1
−2 0 2 −2 0 2
Soluţie.
9.1. Teste asupra unei populaţii 189
(C) (P)
P1. H0 : m = 4.9 P1. H0 : m = 4.9
P2. H1 : m > 4.9 P2. H1 : m > 4.9
P3. Statistica testului: P3. α = 0.05
T = X̄−m
s′
√
P4. T = 5.1−4.9
√2.1 = 0. 47619
n 25
H0 : p = p0 ,
H1 : p > p0 ,
calculăm expresia
n
X n l
P = p0 (1 − p0 )n−l
l=k
l
şi respingem ipoteza nulă la pragul de semnificaţia α dacă P > α.
Dacă n are valori mari, putem folosi statistica Z şi respingem H0 dacă
k
k − np0 − p0
Z=p = qn > Φ−1 (α) = Ψ(α).
np0 (1 − p0 ) p0 (1−p0 )
n
Lăsăm ı̂n seama cititorului formularea procedurii de verificare ı̂n cazul ipo-
tezei alternative bilaterale sau unilaterale stânga.
10 10
X 10 l 10−l 1 X 10 386
P = p0 (1 − p0 ) = 10 = = 0.377.
l=6
l 2 l=6 l 1024
Deoarece P > 0.01, ipoteza că raportul dintre sexe este 1 : 1 nu poate fi
respinsă la nivelul de semnificaţie 0.01.
0.4 0.4
0.35 0.35
0.3 0.3
0.25 0.25
0.2 0.2
0.15 0.15
0.1 0.1
0.05 0.05
0 0
−1.28 −1.28
−0.05 −0.05
−2.6 −2.6
−0.1 −0.1
−2 0 2 −2 0 2
Exemplul 9.1.6 Oficiul pentru protecţia consumatorilor afirmă că 15% din
fasolea dintr-un lot supus controlului are gărgăriţe. Pentru a verifica afirmaţia
la nivelul 0.10 se iau 200 de boabe şi se găsesc 7 cu gărgăriţe. Avem motive
să ne ı̂ndoim de afirmaţia Oficiului pentru protecţia consumatorilor?
Soluţie.
9.1. Teste asupra unei populaţii 191
(C) (P)
P1. H0 : p = 0.15(≥) P1. H0 : p = 0.15(≥)
P2. H1 : p < 0.15 P2. H1 : p < 0.15
P3. Statistica testului: P3. α = 0.10
′
Z = q pp0−p 0
(1−p0 )
, p′ = nk P4. p′ = 200
17
= 0.0 85
n
α = 0.10, z0.15 = −1.28 √ 0.15·0.85 = −2. 5744 = z ∗
Z = 0.085−0.150
200
Regiunea critică: P5. P = P (Z < z ∗ ) =
vezi figura 9.4 P (Z < −2. 5744) = 0.0047
P4. p′ = 200
17
= 0.0 85 figura 9.4
Z = √ 0.15·0.85 = −2. 5744 = z ∗
0.085−0.150
P6. P < 0.10. Se respinge H0
200
P5. Se respinge H0 . Se pare că mai Se pare că mai puţin de 15%
puţin de 15% din boabele de fasole din boabele de fasole au
au gărgăriţe. gărgăriţe.
H0 : σ 2 = σ02 ,
(1)
( n
)
1 X
U= (u1 , . . . , un ) ∈ Rn | 2 (uk − ū)2 ∈
/ (χ2n−1,α/2 , χ2n−1,1−α/2 ) ;
σ0 k=1
(2)
( n
)
n 1 X
U= (u1 , . . . , un ) ∈ R | 2 (uk − ū)2 ≥ χ2n−1,1−α ;
σ0 k=1
(3)
( n
)
n 1
X
U= (u1 , . . . , un ) ∈ R | 2 (uk − ū)2 ≤ χ2n−1,α .
σ0 k=1
0.09
0.08
0.07
0.06
0.05
0.04
2*
χ =67.5
0.03
0.02
0.01
0
χ2
n−1,1−α
=40.1
−0.01
0 5 10 15 20 25 30 35
Figura 9.5: Test χ2 pentru dispersie cu regiune critică unilaterală dreapta
Soluţie.
(C) (P)
2 2
P1. H0 : σ = 0.0004 P1. H0 : σ = 0.0004
P2. H1 : σ 2 > 0.0004 P2. H1 : σ 2 > 0.0004
P3. Statistica testului: X 2 , n = 28 P3. α = 0.05
27 grade de libertate P4. X 2 = 27·0.001
0.0004
= 67. 5 = χ2∗
α = 0.05, χ227,0.95 = 40.1 P5. P = P (X 2 > χ2∗ ) =
Regiunea critică: = P (X 2 > 67. 5) < 0.005
vezi figura 9.5 (figura 9.5)
P6. P < 0.005 < 05, deci
P4. X 2 = 27·0.001
0.0004
= 67. 5 = χ2∗ ipoteza se respinge
P5. Respingem H0 .
Soluţie.
194 Verificarea ipotezelor statistice
0.09
0.08
0.07
0.06
0.05
0.04
20.672
0.03
0.02
0.01
0
χ2
n−1,α/2
=14.6 χ2 =43.2
n−1,1−α/2
−0.01
0 5 10 15 20 25 30 35
(C) (P)
P1. H0 : σ = 12 P1. H0 : σ = 12
P2. H1 : σ ̸= 12 P2. H1 : σ ̸= 12
P3. Statistica testului: X 2 cu P3. α = 0.05
2
27 de grade de libertate P4. X 2 = 27·10.5
122
= 20. 672 = χ2∗
α = 0.05, cuantilele P5. P = P (|X 2 | > χ2∗ ) =
χ227,0.025 = 14.6, χ227,0.975 = 43.2 = 2P (X 2 > 20. 672)
Regiunea critică: figura 9.6
2
P4. X 2 = 27·10.5
122
= 20. 672 = χ2∗ P6. P > 0.05
P5. Decizia: H0 se acceptă Decizia: H0 se acceptă
H0 : m1 ̸= m2
2. are media m1 − m2 ;
196 Verificarea ipotezelor statistice
σ12 σ22
3. are dispersia σ 2 = m1
+ m2
.
este N (0, 1), deci se poate aplica testul Z pentru media teoretică. Pentru
α ∈ (0, 1) se obţin regiunile critice corespunzătoare celor trei alternative:
(1)
|ū − v̄|
U = (u1 , . . . , un1 , v1 , . . . vn2 ) ∈ Rn1 +n2 q 2 2
≥ z1−α/2 ;
σ1 + σ2
n1 n2
(2)
n1 +n2 ū − v̄
U = (u1 , . . . , un1 , v1 , . . . vn2 ) ∈ R q σ2 σ2 ≥ z1−α ;
1
+ n22
n1
(3)
ū − v̄
U = (u1 , . . . , un1 , v1 , . . . vn2 ) ∈ Rn1 +n2 q 2 2
≤ zα .
σ1 + σ2
n1 n2
Selecţia n x̄ s′
A 50 57.5 6.2
B 60 54.4 10.6
Soluţie.
Ambele selecţii fiind mai mari decât 30 se poate aplica testul Z.
9.2. Teste referitoare la două populaţii 197
0.4
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
2.01
−0.05
1.908
−0.1
−3 −2 −1 0 1 2 3
(C) (P)
P1. H0 : mA − mB = 0(≤) P1. H0 : mA − mB = 0(≤)
P2. H1 : mA − mB > 0 P2. H1 : mA − mB > 0
P3. Statistica testului: P3. α = 0.02
Z = (X̄1 −r
X̄2 )−(m1 −m2 )
σ2 σ2
P4. Z = q57.5−54.4
6.22 10.62
= 1. 9074 =
1+ 2 50
+ 60
n1 n2
∗
α = 0.02, z0.98 = 2.05 =z
P5. Φ(1.9074) = 0.9761
Regiunea critică: P = P (Z > z ∗ ) = 1−0.9761 =
figura 9.7 = 0.0 239
P4. Z = q57.5−54.4
6.22 10.62
= 1. 9074 = z ∗ P6. P > 0.02, deci H0 se acceptă.
50
+ 60
P5. z ∗ < z0.98 , deci H0 se acceptă. La nivelul de semnificaţie
Nu se poate afirma că mA > mB α = 0.02 mediile nu diferă.
unde s
(n1 − 1)s′2 ′2
1 + (n2 − 1)s2
Sp = .
n1 + n2 − 2
198 Verificarea ipotezelor statistice
0.4
0.35
0.3
0.25
0.2
0.15
0.1
0.05
−2.262
−0.05
0.759
−0.1
−3 −2 −1 0 1 2 3
1 c2 (1 − c)2
= + , (9.6)
n n1 − 1 n2 − 1
iar
s′2
1
n1
c= s′2 s′2
. (9.7)
1
n1
+ 2
n2
Exemplul 9.2.6 Se consideră două selecţii din două populaţii normale, in-
dependente, cu dispersii diferite, care conduc la valorile
Selecţia n x̄ s′
A 10 5.38 1.89
B 12 5.92 0.83
Pentru α = 0.05, se poate trage concluzia că media lui A este mai mică
decât media lui B?
Soluţie. (C)
P1. H0 : mA = mB .
P2. H1 : mA < mB .
P3. Statistica testului este dată de (9.5), α = 0.05, iar regiunea critică
apare ı̂n figura 9.9. Numărul de grade de libertate se obţine cu ajutorul
formulelor (9.6) şi (9.7):
1.892
9
c= 1.892 2 = . 86371
9
+ 0.83
11
1
n= . 863712 (1−. 86371)2
= 11. 824
10−1
+ 12−1
0.4
0.35
0.3
0.25
0.2
0.15
0.1
0.05
−1.784
−0.05
−0.83
−0.1
−3 −2 −1 0 1 2 3
P5. Deoarece tn,0.05 < t∗ se acceptă H0 . Nu putem afirma că media lui A
este mai mică decât media lui B.
d¯ − md
−3.106 < T = sd < 3.106,
√
n
5.83 5.83
5 − 3.106 · √ < md < 5 + 3.106 · √ ,
12 12
unde
x1 + x2
p= .
n1 + n2
Ipoteza nulă este H0 : p1 = p2 ; sunt posibile şi ipoteze alternative bilaterale
şi unilaterale.
Soluţie. (C)
P1. H0 : p1 = p2 .
P2. H1 : p1 ̸= p2 .
P3. Statistica testului este dată de (9.8), α = 0.01, zα = −2.58, iar
regiunea critică apare ı̂n figura 9.10.
P4.
x1 5 x2 9 x1 + x2 14
p′1 = = , p′2 = = , p= = .
n1 13 n2 12 n1 + n2 25
5 9
−
Z=q 13 12
= −1. 8387 = z ∗ .
14 11 25
25 25
· 13·12
P5. Deoarece zα = −2.58 < z ∗ < z1−α = 2.58, ipoteza nulă se acceptă;
datele nu ne permit să afirmăm superioritatea noului tratament.
9.2. Teste referitoare la două populaţii 203
0.4
0.35
0.3
0.25
0.2
0.15
0.1
0.05
−2.58 2.58
−0.05
−1.83
−0.1
−3 −2 −1 0 1 2 3
producătorului maşinii noi că maşina modernă are o dispersie mai mică decât
a maşinii actuale, pentru α = 1%?
Selecţia n s′2
maşina actuală, p 22 0.0008
maşina modernă, m 25 0.0018
Soluţie. 2
P1. H0 : σm2
= σp2 sau σσm2 = 1(≤).
p
2
σm
2
P2. H1 : σm> σp2 sau > 1.
σp2
P3. Statistica testului este F dată de (9.9), n1 = 24, n2 = 21, α = 0.01,
cuantila este f24,21,0.99 = 2.80, iar regiunea critică apare ı̂n figura 9.11.
0.8
0.7
0.6
0.5
0.4
0.3 F*=2.25
0.2
0.1
0
fn ,n ,1−α=2.8
1 2
−0.1
0 1 2 3 4 5 6
P4.
s′2 0.0018
F = m
′2
= = 2. 25 = F ∗ .
sp 0.0008
P5. Deoarece F ∗ < f24,21,0.99 ipoteza nulă se acceptă, deci respingem
afirmaţia producătorului maşinii noi.
α = P ((X1 , . . . , Xn ) ∈ U |H0 ).
Admiterea unei ipoteze false se numeşte eroare de speţa a II-a iar proba-
bilitatea ei se notează cu β
β = P ((X1 , . . . , Xn ) ̸∈ U |H1 ).
Definiţia 9.3.1 Puterea unui test este probabilitatea respingerii unei ipoteze
false, adică
3.5 − 3.4
− ϕ 3.5 − 3.4 − 2.58
β = 0.05 = ϕ 0.5 + 2.58 0.5
√ √
n 5
1√ 1√
=ϕ n + 2.58 − ϕ n − 2.58 .
5 5
1√
Dacă n este a.ı̂. n − 2.58 < 0 se observă că valoarea β = 0.05 nu poate
5
1√ 1√
fi atinsă. Dacă n − 2.58 > 0, atunci n > 166, şi avem Ω n + 2.58 ≈
5 5
9.3. Puterea unui test şi lema Neyman-Pearson 207
1√
0.5. Prin urmare pentru determinarea lui n optim avem relaţia ϕ n − 2.58 =
5
1√ √
0.45, de unde 5 − 2.58 = 1.65 ⇒ n = 5 · 4.23 = 21.15 de unde se obţine
5
n = 448.
Presupunem că vrem să testăm ipoteza nulă simplă H0 : θ = θ0 ı̂n raport
cu alternativa H1 : θ = θ1 . Deoarece avem de-a face doar cu două valori
particulare ale lui θ (θ0 şi θ1 ) vom alege regiunea critică astfel ca α să fie
fixat şi β = 1 − π(θ1 ) să fie cât mai mic posibil. Echivalent căutăm un cel
mai puternic test, adică un test cu π(θ1 ) maxim. Rezultatul care urmează
ne furnizează o metodologie pentru deducerea celui mai puternic test pentru
testarea ipotezei simple H0 ı̂n raport cu alternativa simplă H1 .
= P ((X1 , . . . , Xn ) ∈ U
e |H0 ),
regiunea critică U
e fiind definită prin
n L(U1 , . . . , Un ; θ1 )
U = (U1 , . . . , Un ) ∈ R |
e ≥ Kα > 0
L(U1 , . . . , Un ; θ0 )
unde
n
Y
L(U1 , . . . , Un ; θ) = f (Uk , θ)
k=1
Notăm W = U ∩ U e ; obţinem
Z Z
· · · L(U1 , . . . , Un ; θ0 )dU1 . . . dUn = P ((X1 , . . . , Xn ) ∈ U |H0 ) = α
U
Z Z
= P ((X1 , . . . , Xn ) ∈ U
e |H0 ) = ··· L(U1 , . . . , Un ; θ0 )dU1 . . . dUn
U
e
de unde
Z Z Z Z
L(U1 , . . . , Un ; θ0 )dU1 . . . dUn + · · · L(U1 , . . . , Un ; θ0 )dU1 . . . dUn
U \W W
Z Z Z Z
= ··· L(U1 , . . . , Un ; θ0 )dU1 . . . dUn + ··· L(U1 , . . . , Un ; θ0 )dU1 . . . dUn
e \W
U W
adică
Z Z Z Z
· · · L(U1 , . . . , Un ; θ0 )dU1 . . . dUn = · · · L(U1 , . . . , Un ; θ0 )dU1 . . . dUn .
U \W e \W
U
(9.12)
Calculăm acum diferenţa β − β:
e
β−βe = (1−β)−(1−β)
e = P ((X1 , . . . , Xn ) ∈ U
e |H1 )−P ((X1 , . . . , Xn ) ∈ U |H1 )
Z Z Z Z
= · · · L(U1 , . . . , Un ; θ1 )dU1 . . . dUn − · · · L(U1 , . . . , Un ; θ1 )dU1 . . . dUn
U
e U
9.3. Puterea unui test şi lema Neyman-Pearson 209
Z Z Z Z
= ··· L(U1 , . . . , Un ; θ1 )dU1 . . . dUn − ··· L(U1 , . . . , Un ; θ1 )dU1 . . . dUn
e \W
U U \W
Integrala din membrul drept este pozitivă, iar din modul de definiţie al
regiunii U
e rezultă
L(ξ1 , . . . , ξn ; θ1 ) L(η1 , . . . , ηn ; θ1 )
≥ Kα > ,
L(ξ1 , . . . , ξn ; θ0 ) L(η1 , . . . , ηn ; θ0 )
Observaţia 9.3.8 Demonstraţia lemei Neyman-Pearson s-a dat ı̂n cazul con-
tinuu. Demonstraţia pentru cazul discret este analoagă, integralele multiple
ı̂nlocuindu-se prin sume după mai mulţi indici.
Definiţia 9.3.9 Un test pentru care puterea este maximă se numeşte cel mai
puternic test.
210 Verificarea ipotezelor statistice
adică puterea testului este mai mare decât riscul de speţa I se numeşte test
nedeplasat.
Propoziţia 9.3.11 Cel mai puternic test dat de lema Neyman-Pearson este
un test nedeplasat, adică 1 − βe > α.
Cazul 1. Kα > 1.
Z Z
1−β = ··· L(U1 , . . . , Un ; θ1 )dU1 . . . dUn
U
Z Z
≥ Kα ··· L(U1 , . . . , Un ; θ0 )dU1 . . . dUn
U
e
Z Z
> ··· L(U1 , . . . , Un ; θ0 )dU1 . . . dUn = α
U
e
Cazul 2. Kα ≤ 1.
Z Z
βe = ··· L(U1 , . . . , Un ; θ1 )dU1 . . . dUn
CU
e
Z Z
< Kα ··· L(U1 , . . . , Un ; θ0 )dU1 . . . dUn
CU
e
Z Z
≤ ··· L(U1 , . . . , Un ; θ0 )dU1 . . . dUn = 1 − α
cU
e
de unde 1 − βe > α.
sau n
X
2(m1 − m0 ) Uk − n(m1 − m0 )(m1 + m0 ) ≥ 2σ 2 ln Kα
k=1
adică n
X
2(m1 − m0 ) Uk ≥ 2σ 2 ln Kα + n(m1 − m0 )(m1 + m0 )
k=1
e = {(U1 , . . . , Un ) ∈ Rn |U ≤ Kα }
U
C2. m0 < m1 . Analog
e = {(U1 , . . . , Un ) ∈ Rn |U ≥ Kα }
U
α = P ((X1 , . . . , Xn ) ∈ U
e |H0 ) = P (X ≤ Kα |H0 )
212 Verificarea ipotezelor statistice
sau
X − m0 Kα − m0
α=P σ ≤ |H0 = α.
σ
√ √
n n
Prin urmare Kα se va determina astfel ca
Kα − m0
ϕ σ =α
√
n
Cazul 1. m0 > m1
π(m1 ) = 1 − βe = P ((X1 , . . . , Xn ) ∈ U
e |m = m1 )
σ
= P X ≤ m0 + zα √ |m = m1
n
X − m1 m0 − m1 m0 − m1
=P σ ≤ + zα |m = m1 = ϕe + zα
σ σ
√ √ √
n n n
Dacă m0 < m1
π(m1 ) = 1 − βe = P ((X1 , . . . , Xn ) ∈ U
e |m = m1 )
σ
= P (X ≥ m0 + z1−α √ |m = m1 )
n
X − m1 m0 − m1 m0 − m1
=P σ ≥ + z1−α |m = m1 = 1 − ϕ + z1−α
σ σ
√ √ √
n n n
Se observă că, ı̂n ambele cazuri π(m1 ) → 1, când n → ∞, adică βe → 0.
Să dăm şi modul de determinare a volumului selecţiei pentru a se atinge
o putere fixată (şi deci β fixat). α este dat!
C1. m0 > m1
σ
Kα = m0 + √ zα (9.13)
n
Dar P ((X1 , . . . , Xn ) ∈ U
e |H1 ) = 1 − β se rescrie sub forma
X − m1 Kα − m1
P σ ≤ |H1 = 1 − β,
σ
e
√ √
n n
adică
K α − m1
ϕ σ =1−β
√
n
De aici
Kα − m1
σ = z1 − βe (9.14)
√
n
214 Verificarea ipotezelor statistice
σ 2 (z1−βe − zα )2
n= (9.15)
(m0 − m1 )2
C2. m0 < m1
σ
Kα = m0 + √ z1−α
n
Kα − m1
σ = zβe,
√
n
de unde
σ 2 (zβe − z1−α )
n= .
(m0 − m1 )2
Λ b 1 , . . . , Xn ) = supθ∈A0 L(X1 , . . . , Xn ; θ) ,
b = Λ(X
supθ∈A L(X1 , . . . , Xn ; θ)
unde
n
Y
L(U1 , . . . , Un ; θ) = f (Uk ; θ)
k=1
iar
n
1 1 X 2
sup L(X1 , . . . , Xn ; m0 , σ) = √ exp − 2 (Xk − m0 )
σ>0 σ
b1 2π 2b
σ1
n2
n
=
n
X
2
2πe (Xk − m0 )
k=1
Pentru numitor avem EVM
n
1X
m
b = Xk = X
n k=1
v
u n
u1 X √
σ=t (Xk − X)2 = m2
n k=1
n " n
#
1 1 X
sup L(X1 , . . . , Xn ; m, σ) = √ exp − (Xk − X)2
m∈R,σ>0 2πm 2 2µ 2 k=1
n2
n
=
n
X
2πe (Xk − X)2
k=1
Scriem acum statistica raportului verosimilităţilor
n n2
X
2
(Xk − X)
k=1
Λ
b=
X n
(Xk − m0 )2
k=1
216 Verificarea ipotezelor statistice
avem − n2
n(X − m0 )2
Λ = 1 + n
b
X
2
(Xk − X)
k=1
Introducând statistica T
X − m0 X − m0
T = ′ =
s
v
u n
√ 1 u 1 X
n √ t (Xk − X)2
n n − 1 k=1
se obţine
n2
1
Λ
b=
2
T
1+
n−1
Regiunea critică U , pentru α ∈ (0, 1) se obţine din
deci testul obţinut prin această metodă este testul T bilateral. Referitor la
Λ
b avem următorul rezultat
9.4. Testul raportului verosimilităţilor 217
ln L(X1 , . . . , Xn ; θ0 ) − ln L(X1 , . . . , Xn ; θ)
b
2
b ∂ ln L(X1 , . . . , Xn ; θ) + 1 (θ0 − θ)b 2 ∂ ln L(X1 , . . . , Xn ; ξ) ,
b
= (θ0 − θ)
∂θ 2 ∂θ2
unde ξ ∈ (θ0 , θ)
b sau ξ ∈ (θ, b θ0 ). Dar cum θb este estimator de verosimilitate
maximă pentru θ,
∂ ln L(X1 , . . . , Xn ; θ)
b
=0
∂θ
obţinem
2
b = −(θ0 − θb0 )2 ∂ ln L(X1 , . . . , Xn ; ξ) .
−2 ln Λ
∂θ2
a.s.
Pe de altă parte, dacă ipoteza H0 : θ = θ0 este adevărată, atunci θb −→ θ0 ,
a.s.
deci ξ −→ θ0 , când n → ∞. Putem scrie
∂ 2 ln L(X1 , . . . , Xn ; ξ) ∂ 2 ln L(X1 , . . . , Xn ; θ0 )
≃
∂θ2 ∂θ2
n n
X ∂ 2 ln f (Xk ; θ0 ) 1 X ∂ 2 ln f (Xk ; θ0 )
= =n· .
k=1
∂θ2 n k=1 ∂θ2
Din legea tare a numerelor mari rezultă
n
1 X ∂ 2 ln f (Xk ; θ0 ) a.s.
2
∂ ln f (X; θ0 )
−→ M = −I1 (θ0 ),
n k=1 ∂θ2 ∂ 2 θ2
218 Verificarea ipotezelor statistice
de unde
∂ 2 ln L(X1 , . . . , Xn ; ξ)
≃ −nI1 (θ0 ) = −In (θ0 )
∂θ2
sau
−2 ln Λ b 2 In (θ0 ).
b ≃ (θ0 − θ)
θb − θ0
Dar statistica p este asimptotic N (0, 1), de unde rezultă că (θ0 −
In−1 (θ0 )
b 2 In (θ0 ) urmează legea χ2 (1, 1), ceea ce trebuia demonstrat.
θ)
9.5 Testul χ2
Până acum testul χ2 a fost utilizat pentru a verifica ipoteze asupra disper-
siei teoretice a unei populaţii. Distribuţia χ2 se poate de asemenea utiliza la
teste asupra experimentelor multinomiale şi tabelelor de contingenţă (analiza
categorială a datelor - Categorical Data Analysis). Aceste tipuri de teste vor
fi utilizate la compararea rezultatelor experimentale cu cele teoretice pentru
a determina: (1) preferinţele, (2) independenţa, (3) omogenitatea. Datele
care vor fi utilizate ı̂n cadrul acestor tehnici vor fi enumerative, adică vor
rezulta din numărarea apariţiilor.
9.5.1 Statistica χ2
Există multe probleme ı̂n care datele sunt grupate ı̂n clase sau catego-
rii, iar rezultatele sunt ilustrate prin numărare. Să presupunem că avem
un număr k de clase sau celule, ı̂n care sunt ı̂nregistrate n observaţii.
Frecvenţele observate din fiecare celulă sunt notate cu O1 , O2 , . . . , Ok .
Suma frecvenţelor observate este O1 +O2 +· · ·+On = n. Dorim să comparăm
aceste frecvenţe cu frecvenţele teoretice notate cu E1 , E2 , . . . , Ek . Suma aces-
tor frecvenţe este E1 + E2 + · · · + Ek = n. Pentru a decide dacă frecvenţele
observate sunt ı̂n concordanţă cu cele teoretice vom utiliza distribuţia χ2 .
Statistica testului va fi:
k
2
X (Oi − Ei )2
X = . (9.16)
i=1
Ei
valoarea teoretică. Observaţia aceasta sugerează ideea că valori mici ale
statisticii ı̂nseamnă concordanţă, iar valori mari discordanţă. Pentru selecţii
repetate mari, distribuţia statisticii X 2 poate fi aproximată bine cu ajutorul
distribuţiei χ2 . Această aproximare este considerată adecvată când toate
frecvenţele teoretice sunt ≥ 5 şi k ≥ 5. Pentru k < 4, Ei trebuie să fie mult
mai mare decât 5. Dacă aceste condiţii nu se realizează, se poate proceda la
o regrupare a datelor.
2. rezultatul unui experiment cade ı̂n exact una din cele k celule sau clase
posibile;
obţinem
k
X 1 xi
ln P (O1 = n1 , O2 = n2 , . . . , Ok = nk ) ≃ ln K − ni + ln 1 + √ .
i=1
2 npi
Dezvoltând logaritmul ı̂n serie Taylor şi păstrând doar primii doi termeni din
dezvoltare
x2
xi xi
ln 1 + √ ≃√ − i ,
npi npi 2npi
9.5. Testul χ2 221
obţinem succesiv
ln P (O1 = n1 , O2 = n2 , . . . , Ok = nk ) ≃
k
x2i
X 1 xi
≃ ln K − ni + √ − =
i=1
2 np i 2np i
k
x2i
X √ 1 xi
= ln K − ni + xi npi + √ − ≃
i=1
2 npi 2npi
k
x2i
X √
≃ ln K − xi npi + .
i=1
2
Deoarece
k k
X √ X
xi npi = (ni − npi ) = 0,
i=1 i=1
avem
k
1X 2
ln P (O1 = n1 , O2 = n2 , . . . , Ok = nk ) ≃ ln K − x
2 i=1 i
sau Pk
1
x2i .
P (O1 = n1 , O2 = n2 , . . . , Ok = nk ) ≃ Ke− 2 i=1
Oi −npi
Punând Xi = √
npi
, rezultă că
1 Pk
x2i ,
P (X1 = x1 , X2 = x2 , . . . , Xk = xk ) ≃ Ke− 2 i=1
Exemplul 9.5.2 Să presupunem că dorim să testăm dacă un zar este perfect
sau măsluit. Se aruncă zarul de mai multe ori şi dacă fiecare faţă apare cam
ı̂n 16 din cazuri, se poate presupune că zarul este bun. Aruncând zarul de 60
de ori se obţin frecvenţele
Număr 1 2 3 4 5 6
Apariţii 7 12 10 12 8 11
Să se verifice dacă zarul este corect, pentru α = 5%.
Soluţie.
P1. Ipoteza nulă este H0 : pi = 61 , i = 1, 6 sau echivalent p1 = 16 ∧ p2 = 16 ∧
p3 = 16 ∧ p4 = 61 ∧ p5 = 61 ∧ p6 = 16 .
222 Verificarea ipotezelor statistice
0.09
0.08
0.07
0.06
0.05
0.04
0.03
0.02
0.01
0
χ2 =11.7
n−1,1−α
−0.01 χ2*=2.2
0 5 10 15 20 25 30 35
2
Figura 9.12: Test χ pentru proporţii
1
P4. Frecvenţele teoretice sunt Ei = npi = 60 · 6
= 10, i = 1, 6. Valoarea
statisticii este
1
X2 = (7 − 10)2 + (12 − 10)2 + (10 − 10)2 + (12 − 10)2 +
10
+(8 − 10)2 + (11 − 10)2 = 2.2. = χ2∗
Soluţie.
P1. Raportul de moştenire este 9:3:3:1, sau ı̂n formulare matematică
9 3 3 1
H0 : p1 = 16 , p2 = 16 , p3 = 16 , p4 = 16 .
9.5. Testul χ2 223
0.09
0.08
0.07
0.06
χ2*=0.47
0.05
0.04
0.03
0.02
0.01
0
χ2 =7.82
n−1,1−α
−0.01
0 5 10 15 20 25 30 35
Figura 9.13: Diagrama pentru verificarea teoriei mendeliene a eredităţii
Justificare: ţinând cont că avem ı̂n total rs căsuţe ı̂n tabel, iar totalurile
pe linii şi coloane sunt fixate şi suma totalurilor pe linii şi coloane este n,
ne rămân posibilităţile fixate de formulă. Formula de mai sus este valabilă
numai dacă r ̸= 1 şi s ̸= 1. Dacă r = 1, gl = s − 1, iar dacă s = 1, atunci
gl = r − 1. Deci
(r − 1)(s − 1) dacă r ̸= 1 ∧ s ̸= 1,
gl = s−1 dacă r = 1,
r−1 dacă s = 1.
Disciplina favorită
Sex SN SS SU Total
M 37 41 44 122
F 35 72 71 178
Total 72 113 115 300
9.5. Testul χ2 225
Soluţie.
P1. H0 : pij = pi. p.j , i = 1, 2, j = 1, 3 (preferinţa pentru SN, SU, SS este
independentă de sex).
P2. Preferinţa nu este independentă de sex, adică
H1 : ∃i0 ∈ {1, 2} ∃j0 ∈ {1, 2, 3} pi0 j0 ̸= pi0 . p.j0 .
P3. Statistica testului este dată de (9.21), gl = 2, α = 0.05, χ22,0.95 = 6.00.
Regiunea critică apare ı̂n figura 9.14.
0.09
0.08
0.07
0.06
0.05
χ2*=3.01
0.04
0.03
0.02
0.01
0
χ2
n−1,1−α
=6
−0.01
0 5 10 15 20 25 30 35
72 113
E11 = · 122 = 29. 28, E12 = · 122 = 45. 95,
300 300
115 72
E13 = · 122 = 46. 77, E21 = · 178 = 42. 72,
300 300
113 115
E22 = · 178 = 67. 05, E23 = · 178 = 68. 23.
300 300
Tabela de contingenţă completă este următoarea:
Disciplina favorită
Sex SN SS SU Total
M 37 41 44 122
(29.28) (45.95) (46.77)
F 35 72 71 178
(42.72) (67.05) (68.23)
Total 72 113 115 300
226 Verificarea ipotezelor statistice
P5. Deoarece χ2∗ nu este ı̂n regiunea critică nu se poate respinge H0 , deci
preferinţele sunt independente de sex.
Testarea omogenităţii. Aceste teste se utilizează când una din cele
două variabile este controlată de experimentator, astfel ı̂ncât totalurile mar-
ginale pe linii sau pe coloane să aibă valori predeterminate.
De exemplu să presupunem că vrem să sondăm preferinţele asupra unui
proiect de lege propus de guvern. În cadrul sondajului se selectează alea-
tor 200 de persoane din mediul urban, 200 din suburbii şi 100 din mediul
rural şi acestea sunt chestionate asupra părerii faţă de iniţiativa guvernului.
Rezultatele se vor trece ı̂ntr-o tabelă de forma:
Tip de Propunerea guvernului
reşedinţă Da Nu Total
Urban 200
Suburban 200
Rural 100
Total 500
Într-un test de acest tip, dorim să testăm ipoteza ,,distribuţia proporţiilor
ı̂n interiorul liniilor este aceiaşi pentru toate liniile“. Alternativa la această
ipoteză este aceea că proporţiile ı̂n interiorul liniilor nu coincid pentru toate
liniile. Acest tip de exemplu poate fi gândit ca o comparaţie ı̂ntre mai multe
experimente multinomiale. Înafara acestei diferenţe conceptuale, testul de
independenţă şi testul de omogenitate (ambele realizate prin intermediul ta-
belelor de contingenţă) coincid.
Să ilustrăm acest lucru finalizând exemplu cu sondajul. Să presupunem
că am obţinut datele:
Tip de Propunerea guvernului
reşedinţă Da Nu Total
Urban 143 57 200
Suburban 98 102 200
Rural 13 87 100
Total 254 246 500
Ne permite selecţia să afirmăm că persoanele din diverse medii au opinii
diferite asupra propunerii guvernamentale (α = 5%)?
9.6. Teste de concordanţă 227
Soluţie.
P1. H0 : pij = pj , i = 1, 3, j = 1, 2 (proporţia ı̂n interiorul celor trei
grupuri este aceeaşi, adică purban,da = pda , psuburban,da = pda , prural,da = pda ,
etc...)
P2. H1 : Proporţia nu este aceeaşi ı̂n interiorul grupurilor (există măcar
unul pentru care proporţia diferă de a celorlalte).
P3. Statistica testului este dată de (9.21), gl = 2, α = 0.05, χ22,0.95 = 6.00.
Regiunea critică apare ı̂n figura 9.15.
P4. După calculul frecvenţelor teoretice obţinem tabela
Tip de Propunerea guvernului
reşedinţă Da Nu Total
Urban 143 57 200
(101.6) (98.4)
Suburban 98 102 200
(101.6) (98.4)
Rural 13 87 100
(50.8) (49.2)
Total 254 246 500
Valoarea statisticii este
(143 − 101.6)2 (57 − 98.4)2 (98 − 101.6)2 (102 − 98.4)2
X2 = + + +
101.6 98.4 101.6 98.4
(13 − 50.8)2 (87 − 49.2)2
+ +
50.8 49.2
2∗
= 91.715 = χ
0.09
0.08
0.07
0.06
0.05
0.04 χ2*=91.71
0.03
0.02
0.01
0
χ2 =6
n−1,1−α
−0.01
0 5 10 15 20 25 30 35
Figura 9.15: Diagrama pentru un test χ2 de omogenitate
Soluţie.
a) Z x
1 (t−m)2
H0 : F (x) = F0 (X) = √ e− 2σ2 dt, x ∈ R,
σ 2π −∞
cu m = 100.25, σ = 1.
Calculăm dn = sup{x ∈ R : |Fn (x)−F0 (x)|} = maxi=1,10 |Fn (ai )−F0 (ai )|,
unde ai = 97.75 + 0.5i, i = 0, 10 şi Fn (x) = F1000 (x) este funcţia de repartiţie
de selecţie. Valorile lui F0 se pot calcula cu formula
x−m
F0 (x) = Φ ,
σ
230 Verificarea ipotezelor statistice
Cuantila corespunzătoare este χ2k−1,1−α = χ29,0.95 = 16.9 şi cum χ2∗ = 3.21 <
16.9 = χ29,0.95 , ipoteza nulă se acceptă.
232 Verificarea ipotezelor statistice
Capitolul 10
10.1 Introducere
Până acum am presupus că variabilele aleatoare de selecţie Y1 , Y2 , . . . , Yn
sunt independente şi identic distribuite. M (Yi ) = µ este o constantă. Această
presupunere este nerealistă pentru multe probleme. În acest capitol vom
considera o v.a. Y , numită variabilă dependentă care are o medie care este
o funcţie de una sau mai multe variabile nealeatoare X1 , X2 , . . . , Xk numite
variabile independente. (Aici dependent şi independent au sensul matematic
clasic, nu cel din calculul probabilităţilor.)
Vom utiliza diverse tipuri de funcţii matematice pentru a modela un
răspuns care este o funcţie de una sau mai multe variabile independente.
Modelele pot fi clasificate ı̂n două categorii: deterministice şi probabilistice.
Un model este deterministic dacă nu admite nici o eroare la calculul lui y ca
funcţie de variabile independente. De exemplu dacă
y = β0 + β1 x
233
234 Modele liniare şi metoda celor mai mici pătrate
13
12.5
12
11.5
11
10.5
10
1 2 3 4 5 6 7
M (Y ) = β0 + β1 x1 + β2 x2 + · · · + βk xk .
0
6
4
4
2 2
0 0
β0+β1(5.5)
mai mulţi dintre aceşi parametri au o interpretare fizică. Din acest motiv
vom dezvolta metode inferenţiale pentru un parametru individual β şi pentru
mulţimi de parametri β.
Y = β0 + β1 x + ε
unde ε are o distribuţie de probabilitate cu M (ε) = 0. Dacă β̂0 şi β̂1 sunt
estimatori ai parametrilor β0 şi β̂1 atunci Ŷ = β0 + β̂1 x este evident un
estimator al lui M (Y ).
Dacă
ŷi = β̂0 + β̂1 xi
este predicţia pentru valoarea lui y când x = xi , atunci abaterea valorii
observate a lui y de la dreapta ŷ (numită eroare) este
yi − ŷ;
∂SSE ∂SSE
= 0 şi = 0;
∂ β̂0 ∂ β̂1
β0 = y − β̂1 x.
Pentru a arăta că acesta este ı̂ntr-adevăr minim trebuie să arătăm că matricea
hessiană este pozitiv definită (exerciţiu). Cantităţile
n
X n
X
Sxy = (xi − x)(yi − y) şi Sxx = (xi − x)2
i=1 i=1
apar frecvent ı̂n dezvoltarea modelelor liniare simple. Cu ajutorul lor putem
scrie
Sxy
β̂1 = , β̂0 = y − β̂1 x.
Sxx
Exemplul 10.3.1 Utilizaţi metoda celor mai mici pătrate pentru a obţine
dreapta de regresie corespunzătoare datelor
x −2 −1 0 1 2
y 0 0 1 1 3
Soluţie.
n n
X 1X X
xi y i − xi yi 1
Sxy n 7− ·0·5
β̂1 = = i=1 i=1
!2 = 5 = 0.7
Sxx n n 1 2
X 1 X 10 − · 0
x2i − xi 5
i=1
n i=1
5
β̂0 = y − β̂1 x =
− 0.7 · 0 = 1
5
Deci ŷ = 1 + 0.7x. Pentru x = 3, ŷ = 1 + 0.7 · 3 = 3.1. Graficul apare ı̂n
figura 10.3.
238 Modele liniare şi metoda celor mai mici pătrate
2.5
1.5
0.5
−0.5
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2
M (β̂i ) = βi , i = 0, 1.
X
x2i
2 2
2. D (β̂0 ) = c00 σ unde c00 = .
nSxx
1
3. D2 (β̂1 ) = c11 σ 2 , unde c11 = .
Sxx
−x
4. Cov(β̂0 , β̂1 ) = c01 σ 2 , unde c01 = .
Sxx
5. Un estimator nedeplasat
X al lui σ 2 este S 2 = SSE/(n − 2) unde SSE =
Syy − β̂1 Sxy şi Syy = (yi − y)2 . În plus dacă εi , erorile individuale, sunt
normal distribuite atunci:
6. β̂0 şi β̂1 sunt normal distribuite.
10.4. Proprietăţi ale estimatorilor 239
(n − 2)S 2
7. Variabila aleatoare 2
are o distribuţie χ2 cu n − 2 grade de
σ
libertate.
8. Statistica S 2 este independentă atât de β̂0 cât şi de β̂1 .
Yi = β0 + β1 xi + εi .
Dar
0
X X zX }| {
Sxy (xi − x)(Yi − Y ) (xi − x)Yi − Y (xi − x)
β̂1 = = X =
Sxx (xi − x)2 Sxx
X
(xi − x)Yi
=
Sxx
şi X X
(xi − x)M (Yi ) (xi − x)(β0 + β1 xi )
M (β̂1 ) = =
Sxx Sxx
0
zX }| { X X
(xi − x) (xi − x)x (xi − x)2
= β0 + β1 = β1 = β1 ,
Sxx Sxx Sxx
adică β̂1 este un estimator nedeplasat al lui β1 .
Să calculăm acum dispersia lui β1 .
2 X 2 X
σ2
2 1 2 1
D (β1 ) = D [(xi − x)Yi ] = (xi − x)D2 (Yi ) =
Sxx Sxx Sxx
Să calculăm acum valoarea medie şi dispersia lui β̂0 = Y − β̂1 x
Trebuie să găsim D2 (Y ) şi Cov(Y , β̂1 ) pentru a obţine D2 (β̂0 ). Deoarece
Yi = β0 + β1 xi + εi observăm că
1X
Y = Yi = β0 + β1 x + ε
n
240 Modele liniare şi metoda celor mai mici pătrate
Astfel
E(Y ) = β0 + β1 x + M (ε) = β0 + β1 x
şi
1 2 σ2
D2 (Y ) = D2 (ε) = D (εi ) =
n n
Pentru a găsi Cov(Y , β̂1 ) rescriem expresia lui β̂1 sub forma
X
β̂1 = ci y i
unde
xi − x
ci = .
Sxx
X
Observăm că ci = 0. Atunci
X
1 X
Cov(Y , β̂1 ) = Cov Yi , ci Y i
n
X ci X X cj
= D2 (Yi ) + Cov(Yi , Yj ).
n i<j
n
σ2 X
Cov(Y , β1 ) = ci = 0.
n
Revenind la calculul mediei şi dispersiei lui
β̂0 = Y − β̂1 x
M (β̂0 ) = M (Y ) − M (β̂1 )x = β0 + β1 x − β1 x = β0 .
Deoarece D2 (Y ), D2 (β̂1 ) şi Cov(Y , β̂1 ) au fost calculate
2
2 2
σ 2 X x2
σ σ 1 x i
= + x2 = σ2 + = .
n Sxx n Sxx nSxx
Mai departe
2 −xσ 2
= −xD (β1 ) =
Sxx
Deci β̂0 şi β̂1 sunt corelate (şi deci dependente), ı̂n afară de cazul când
x = 0.
Dispersiile estimatorilor sunt exprimate cu ajutorul lui σ 2 = D2 (ε), care
este necunoscut. Vom arăta că
n
2 1 X 1
S = (Yi − Ŷi )2 = SSE
n − 2 i=1 n−2
şi deci
hX i hX 2
i
M (Yi − Ŷi )2 = M Yi2 − nY − β̂12 Sxx
X
= M (Yi2 ) − nM (Y )2 − Sxx M (β̂12 ).
β̂i − βi0
Z= √
σ cii
θ̂ = a0 β̂0 + a1 β̂1
Deoarece β̂0 şi β̂1 sunt normali distribuiţi, θ̂ este de asemenea normal
distribuit, iar statistica
θ̂ − θ
Z=
σθ̂
este normală standard. Putem testa ipoteza H0 : θ = θ0 , unde θ0 este o
valoare specificată a lui θ = a0 β0 + a1 β1 . De asemenea intervalul de ı̂ncredere
1 − α pentru θ este θ̂ ± zα/2 σθ̂ .
Dacă σ 2 nu este disponibil, se ı̂nlocuieşte cu estimaţia sa S 2 şi se ajunge
la o distribuţie Student cu n − 2 grade de libertate.
Test pentru θ = a0 β0 + a1 β1
H0 : θ= θ0
θ > θ0
Ha : θ < θ0
θ ̸= θ0
Statistica testului
θ̂ − θ0
T = v X
u 2
∈ T (n − 2)
u xi
u a2
u 0 + a21 − 2a0 a1 x
Su n
u Sxx
t
Regiunea de respingere
t > tα
t < −tα
|t| > tα/2
10.8. Predicţia unei valori particulare ı̂n cazul regresiei simple 245
Y ∗ − Ŷ ∗
Z= r
1 (x∗ − x)2
σ 1+ +
n Sxx
este normală standard. Estimând σ prin S obţinem că statistica
Y ∗ − Ŷ ∗
T = r
1 (x∗ − x)2
σ 1+ +
n Sxx
este distribuită Student cu n − 2 grade de libertate.
Vom obţine cu ajutorul ei un interval de ı̂ncredere 1 − α pentru y ∗ .
σ 1+ +
n Sxx
De aici se obţine pentru Y ∗ un interval de ı̂ncredere de forma
s
1 (x∗ − x)2
β̂0 + β̂1 x∗ ± tn−2, α2 S 1 + +
n Sxx
−2
−4
−3 −2 −1 0 1 2 3 4 5
10.9 Corelaţie
Să considerăm vectorul aleator (X, Y ). Ne interesează dacă X şi Y
sunt independente. Dacă (X, Y ) are o distribuţie nominală bidimensională,
atunci testarea independenţei este echivalentă cu a testa dacă coeficientul de
corelaţie ρ este egal cu zero. Reamintim că ρ este pozitiv dacă X şi Y cresc
deodată şi negativ dacă Y descreşte când Y creşte:
Fie (X1 , Y1 ), (X2 , Y2 ), . . . , (Xn , Yn ) variabile de selecţie pentru o distribu-
ţie normală bidimensională. Estimatorul de verosimilitate maximă pentru ρ
248 Modele liniare şi metoda celor mai mici pătrate
Rezultă că r şi β̂1 au acelaşi semn. În cazul când (X, Y ) are o distribuţie
normală bidimensională
σy
M (Y |X = x) = β0 + β1 x unde β1 = ρ
σx
1 1 + r 1 1 + ρ0
ln − ln
2 1 − r 2 1 − ρ0
Z=
1
√
n−3
10.10. Utilizarea matricelor la modele liniare 249
Y = β0 + β1 x1 + · · · + βk xk + ε
unde xij este valoarea celei de-a j-a variabile independente la observaţia a
i-a, unde i = 1, 2, . . . , n. Definim acum matricele următoare cu x0 = 1:
y1 x0 x11 x12 . . . x1k β0 ε1
y2 x0 x21 x22 . . . x2k β1 ε2
Y = .. , X = .. .. , β = .. , ε = ..
.. ..
. . . . . . .
yn x0 xn1 xn2 . . . xnk βk εk
Y = β0 + β1 x + ε
avem
y1 1 x1 ε1
y2 1 x2 ε2
β0
Y = , X= .. .. , ε= , β=
.. .. β1
. . . .
yn 1 xn εn
n
X n
X n
X
β̂0 xi + β̂1 x2i = xi yi
i=1 i=1 i=1
250 Modele liniare şi metoda celor mai mici pătrate
Deoarece
X
1 x1 n xi
1 x2
1 1 ... 1
T
X X= .. .. = X
n
x1 x2 . . . xn
. . X
2
xi xi
1 xn i=1
şi Xn
yi
i=1
XT Y =
n
X
xi y i
i=1
(X T X)β̂ = X T Y
unde
β̂0
β̂ = ,
β̂1
deci
β̂ = (X T X)−1 X T Y
Expresiile pentru D2 (β̂0 ), D2 (β̂1 ), Cov(β̂0 , β̂1 ) din modelul liniar simplu
pot fi exprimate convenabil cu ajutorul matricelor. Deoarece
X
n xi
T
X X= X
X
2
xi xi
D2 (β̂i )2 = cii σ 2 , i = 0, 1
10.11. Proprietăţi ale estimatorilor 251
şi
Cov(β̂0 , β̂1 ) = c01 σ 2 = c10 σ 2
De asemenea
SSE = Y T Y − Ŷ T X T Y,
X
căci Y T Y = Yi2 .
a0 β 0 + a1 β 1 + a2 β 2 + · · · + ak β k (10.4)
aT β̂ − aT β aT β̂ − aT β
Z=p = p
D2 (aT β) σ aT (X T X)−1 a
H0 : aT β = (aT β)0
unde (aT β)0 este o valoare dată. Expresia unui interval de ı̂ncredere 1 − α
pentru aT β este p
aT β ± zα/2 σ aT (X T X)−1 a.
Dacă ı̂nlocuim σ cu S, variabila aleatoare
aT β̂ − aT β
T = p
S aT (X T X)−1 a
10.13. Predicţia ı̂n regresia multiplă 253
variabila aleatoare
Y ∗ − Ŷ ∗
Z= p
σ 1 + aT (X T X)−1 a
este normală standard. Dacă σ este estimat prin se poate arăta că
Y ∗ − Ŷ ∗
T = p
S 1 + aT (X T X)−1 a
are o distribuţie Student cu n − (k + 1) grade de libertate. Obţinem astfel
următorul interval de ı̂ncredere 1 − α pentru Y
p
aT β̂ ± tn−(k+1), α2 S 1 + aT (X T X)−1 a
Mai departe
5 0 10 5
X T X = 0 10 0 , XT Y = 7
10 0 34 13
iar
17/35 0 −1/7
(X T X)−1 = 0 1/10 0
−1/7 0 1/14
17/35 0 −1/7 5 4/7
β̂ = (X T X)−1 X T Y = 0 1/10 0 7 = 7/10 .
−1/7 0 1/14 13 3/14
Deci ecuaţia finală este
4 7 3
Ŷ = + x1 + x2 .
7 10 14
Graficul se dă ı̂n figura 10.5.
2.5
1.5
0.5
−0.5
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2
modelul C : Y = β0 + β1 x1 + β2 x2 + · · · + βg xg + βg+1 + · · · + βk + ε
De notat că modelul complet conţine toţi termenii modelului redus R, plus
termeni suplimentari xg+1 , xg+2 , . . . , xk (k > g). Dacă xg+1 , xg+2 , . . . , xk
contribuie la predicţia lui Y cu o cantitate substanţială de informaţie care
nu este conţinută ı̂n variabilele x1 , x2 , . . . , xg (adică, cel puţin unul din
parametrii βg+1 , βg+2 , . . . , βk este nenul), care va fi relaţia dintre SSER şi
SSEC ? Intuitiv, dacă xg+1 , xg+2 , . . . , xk sunt variabile importante pentru
cantitatea de informaţie, modelul complet C va avea o eroare de predicţie
mai mică decât modelul R, adică SSEC < SSER . Cu cât va fi mai mare
diferenţa (SSER − SSEC ), cu atât va fi mai puternică dovada ı̂n sprijinul
ipotezei alternative că xg+1 , xg+2 , . . . , xk contribuie cu informaţie la predicţia
lui Y şi să respingem ipoteza nulă
Am partiţionat SSER ı̂n două părţi: SSEC şi diferenţa (SSER − SSEC ).
Dacă H0 este adevărată, atunci
SSER
χ23 = ,
σ2
SSEC
χ22 = ,
σ2
SSER − SSEC
χ21 =
σ2
au distribuţii χ2 cu (n − [g + 1]), (n − [k + 1]), şi respectiv (k − g) gl. Mai
mult, se poate arăta că χ22 şi χ21 sunt independente statistic.
10.14. Testarea ipotezei H0 : βg+1 = βg+2 = · · · = βk = 0 257
Considerăm raportul
F > Fα .
Exemplul 10.14.1 Ne permit datele din exemplul 10.3.1 să tragem conclu-
zia că modelul
Y = β 0 + β 1 x + β 2 x2 + ε
contribuie cu informaţie la predicţia lui Y ? Adică, vom testa ipoteza H0 :
β1 = β2 = 0 ı̂n raport cu alternativa Ha : cel puţin unul dintre parametrii β1 ,
β2 este nenul (α = .05).
Y = β0 + ε
T T
unde Y = 0 0 1 1 3 , X = 1 1 1 1 1 . Aplicând m.c.m.m.p.
se obţine βb = y = 1. Astfel,
SSER = Y T Y − βX
b TY
X
2
X X
2 1 X 2
= yi − y yi = yi − yi
n
1
= 11 − · 25 = 6.
5
258 Modele liniare şi metoda celor mai mici pătrate
H0 : β1 = β2 = · · · = βk = 0
Y = β0 + ε.
H0 : β1 = β2 = · · · = βk = 0
R2
n − (k + 1)
F = .
k 1 − R2
x′1 − 50 x′2 − 4
x1 = , x2 = .
6.7 2
Datele1 se dau ı̂n tabela 10.1. De notat că se utilizează 5 niveluri atât pentru
x1 cât şi pentru x2 , cu punctul (x1 = 0, x2 = 0) repetat de trei ori. Să
determinăm modelul
Y = β0 + β1 x1 + β2 x2 + β3 x21 + β4 x22 + β5 x1 x2 + ε
cu aceste date. Acest model reprezintă o suprafaţă conică ı̂n planul (x1 , x2 ).
Determinaţi un model de ordinul doi şi testaţiH0 : β3 = β4 = β5 = 0.
(Testăm dacă suprafaţa este plană ı̂n raport cu alternativa că este conică
(Alegeţi α = .05).
1
Sursa: Ronald Suich and G. C. Derringer, Technometrics 19(2) (1977): 214.
260 Modele liniare şi metoda celor mai mici pătrate
y x1 x2
83 1 −1
113 1 1
92 −1 1
82 −1 −1
100 0 0
96 0 0
98 0 0
95 0 1.5
80 0 −1.5
100 1.5 0
92 −1.5 0
Analiză dispersională
H0 : m1 = m2 = m3 = m4 = m5.
Utilizând tehnicile ı̂ntâlnite până acum am putea testa pe rând ipotezele
H01 : m1 = m2 H02 : m1 = m3 H03 : m1 = m4 H04 : m1 = m5
H05 : m2 = m3 H06 : m2 = m4 H07 : m2 = m5 H08 : m3 = m4
H09 : m3 = m5 H010 : m4 = m5 .
Acceptarea lui H0 ı̂nseamnă acceptarea tuturor celor 10 ipoteze, iar respin-
gerea lui H0 respingerea a cel puţin una din ele. Această metodă este foarte
laborioasă, iar eroarea totală este posibil să fie mai mare decât eroarea de
genul I, α, asociată cu un singur test. Tehnicile ANOVA ne permit să testăm
ipoteza nulă (toate mediile egale) ı̂n raport cu ipoteza alternativă (cel puţin
o pereche de medii diferă), la un prag de semnificaţie α.
Experimentele ANOVA pot fi foarte complexe. Vom trata aici doar
ANOVA cu un singur factor.
263
264 Analiză dispersională
SelecţieSelecţie Selecţie
13◦ 15◦ 16◦
10 7 3
12 6 3
10 7 5
9 8 4
7
Total pe C1 = 41 C2 = 35 C3 = 15
coloană x̄1 = 10.25 x̄2 = 7.0 x̄3 = 3.75
Nivelul producţiei este măsurat prin valoarea medie; x̄i indică producţia
medie observată la nivelul i, unde i = 1, 3 corespunde temperaturilor de 13,
15 şi respectiv 16◦ . Există o anumită variaţie ı̂ntre aceste medii. Deoarece
mediile de selecţie nu se repetă neapărat când se iau selecţii repetate din-
tr-o populaţie, sunt de aşteptat anumite variaţii. Vom urmări ı̂n continuare
problema: ,,este variaţia ı̂ntre valorile x̄ datorată şansei sau se datorează
efectului temperaturii asupra productivităţii¿‘
Soluţie. Ipoteza nulă pe care o vom testa este
adică producţia medie este aceeaşi pentru fiecare nivel de temperatură testat.
Cu alte cuvinte, temperatura nu are un efect semnificativ asupra producti-
vităţii. Ipoteza alternativă este
adică nu toate mediile sunt egale. Vom respinge ipoteza nulă dacă datele ne
arată că una sau mai multe medii diferă semnificativ de celelate. Decizia de
acceptare sau respingere a lui H0 se ia utilizând distribuţia şi statistica F .
Reamintim că valoarea lui F este raportul a două dispersii. Procedura de
11.1. Introducere ı̂n tehnicile analizei dispersionale 265
Observaţia 11.1.2 Datele au fost aranjate astfel ı̂ncât fiecare coloană re-
prezintă un nivel diferit al factorului care urmează a fi testat. Putem găsi
SS(temp) pentru exemplul nostru cu ajutorul formulei (11.2):
2
352 152 912
41
SS(temp) = + + − = 84.5.
4 5 4 13
266 Analiză dispersională
1.
gl(f actor) = c − 1, (11.4)
unde c este numărul de niveluri pentru care factorul este testat (ı̂n
cazul nostru numărul de coloane);
2.
gl(total) = n − 1, (11.5)
unde n = k1 + k2 + k3 + · · · (ki este numărul de replici pentru fiecare
nivel ), n este volumul selecţiei;
sau
gl(eroare) = n − c. (11.6)
gl(temp) = c − 1 = 3 − 1 = 2
gl(total) = n − 1 = 13 − 1 = 12
gl(eroare) = n − c = 13 − 3 = 10.
11.1. Introducere ı̂n tehnicile analizei dispersionale 267
SS(f actor)
M S(f actor) = , (11.9)
gl(f actor)
SS(eroare)
M S(eroare) = . (11.10)
gl(eroare)
84.5
M S(temp) = = 42. 25
2
9.5
M S(eroare) = = 0.95.
10
Tabelul anova complet este
Sursa SS gl MS
temperatură 84.5 2 42.25
eroare 9.5 10 0.95
Total 94.0 12
42. 25
F = = 44. 47 = F ∗ .
0.95
Decizia de a respinge H0 sau de a o accepta se ia comparând valoare cal-
culată F ∗ cu valoarea critică unilaterală dreapta a distribuţiei F (cuantila
fgl(f actor),gl(eroare),1−α ). În cazul nostru F ∗ = 44.7 > f2,10,0.95 = 4.10, deci vom
respinge ipoteza nulă (vezi figura 11.1). De aceea concluzionăm că tempera-
tura ı̂ncăperii are un efect semnificativ asupra productivităţii.
268 Analiză dispersională
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
−0.1 F*
0 1 2 3 4 5 6
Exemplul 11.2.1 Ne permit datele din tabelul 11.2 să afirmăm că există o
diferenţă ı̂ntre mediile a trei populaţii mF , mG , mH ?
Diagrama de mai jos ne arată relaţiile relative ı̂ntre cele trei selecţii:
11.2. Logica ANOVA 269
Nivelurile factorului
Selecţia pentru Selecţia pentru Selecţia pentru
nivelul F nivelul G nivelul H
3 5 8
2 6 7
3 5 7
4 5 8
Total coloane CF = 12 CG = 21 CH = 30
x̄F = 3.0 x̄G = 5.25 x̄H = 7.50
x F G H
2 2
3 3 3
x̄F = 3.0
4 4
x̄G = 5.25
5 5 5 5
x̄H = 7.50
6 6
7 7 7
8 8 8
Se constată că există o variaţie mică ı̂n interiorul selecţiilor şi o variaţie
mare ı̂ntre selecţii.
Exemplul 11.2.2 Ne permit datele de mai jos să tragem concluzia că există
o diferenţă ı̂ntre cele trei medii mJ , mK , şi mL ?
Nivelurile factorului
Selecţia pentru Selecţia pentru Selecţia pentru
nivelul F nivelul G nivelul H
3 5 8
2 6 7
3 5 7
4 5 8
Total coloane CF = 12 CG = 21 CH = 30
x̄F = 3.0 x̄G = 5.25 x̄H = 7.50
desigur că dorim să respingem ipoteza nulă ı̂n favoarea alternativei.
Apoi, studiul ı̂n continuare ne va permite să determinăm cel mai bun
nivel al factorului.
2. Vom presupune că efectele datorate şansei şi factorilor netestaţi sunt
normal distribuite şi că variabilitatea datorată acestor efecte este con-
stantă pe parcursul experimentului.
3. Vom presupune independenţa tuturor observaţiilor şi vom organiza tes-
tul ı̂ntr-o ordine aleatoare pentru a asigura independenţa şi a evita pe
cât posibil contaminarea datelor.
Soluţie. În acest experiment factorul este metoda de ochire, iar nivelurile
sunt cele trei metode de ochire. Replicile vor fi scorurile obţinute de trăgători.
Ipoteza nulă este cele trei metode au acelaşi efect (mediile obţinute pentru
”
cele trei metode sunt aceleaşi)“.
OD OS AO
12 10 16
10 17 14
18 16 16
12 13 11
14 20
11
2202
SS(total) = 3392 − = 165. 33,
2 15
562 982
66
SS(metoda) = + + − 3226.67 = 29.20,
5 4 6
SS(eroare) = SS(total) − SS(metoda) = 136.13.
272 Analiză dispersională
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
fn ,n ,1−α=3.8
1 2
−0.1 F*=3
0 1 2 3 4 5 6
29.20
M S(metoda) = = 14.60
2
136.3
M S(eroare) = = 11.35.
12
Rezultatele calculelor apar ı̂n tabela ANOVA de mai jos:
Sursa SS gl MS
metoda 29.20 2 14.60
eroare 136.13 12 11.35
Total 165. 33 14
Statistica testului este
14.60
F = = 1. 286 = F ∗ .
11.35
P5. Deoarece F ∗ = 1.286 < f2,12,0.95 = 3.89 (vezi figura 11.2), nu putem
respinge H0 .
Capitolul 12
Metode neparametrice
2. metodele neparametrice sunt ı̂n general mai uşor de aplicat decât co-
respondentul lor parametric;
5. metodele neparametrice par să irosească informaţia, ı̂n sensul că ele sa-
crifică valoarea unei variabile pentru un semn sau un număr de ordine.
Totuşi metodele neparametrice au eficienţa apropiată de a corespon-
dentului lor parametric (80%, [ J84]).
273
274 Metode neparametrice
fX fY
În acest capitol, dacă ne vom referi la modelul cu deplasare pentru două
populaţii vom presupune că X1, X2 , . . ., Xn1 este o selecţie aleatoare cu
funcţia de repartiţie F (x) şi Y1 , Y2 , . . ., Yn2 este o selecţie aleatoare cu funcţia
de repartiţie G(y) = F (y − θ), pentru o anumită valoare necunoscută a lui
θ. Pentru acest model H0 : F (z) = G(z) este echivalentă cu H0 : θ = 0.
Dacă θ > 0 (< 0), atunci distribuţia valorilor lui Y este localizată la dreapta
(respectiv la stânga) distribuţie valorilor lui X.
Soluţie. Fiecare dată se va converti ı̂n plus (+) dacă are valoarea >15,
ı̂n (-) dacă valoarea este <15 şi ı̂n (0) dacă valoarea ei este egală cu 15.
Valorile nule sunt eliminate, dimensiunea utilă a selecţiei devenind egală cu
30. Notăm cu n(+) numărul de plusuri şi cu n(−) numărul de minusuri. În
cazul nostru n(+) = 22, n(−) = 8, n = n(+) + n(−) = 30.
P1. H0 : M e = 15.
P2. H1 : M e ̸= 15.
P3. Fiind un test bilateral α = 0.05. Statistica testului va fi numărul de
apariţii ale semnului cel mai puţin frecvent, adică x = min(n(−), n(+)), ı̂n
cazul nostru n(−). Vom respinge ipoteza nulă dacă numărul de apariţii ale
semnului cel mai puţin frecvent este mic. Valorile admisibile pentru numărul
de apariţii ale semnului celui mai puţin frecvent se dau ı̂n tabele. Mai exact,
dacă numărul de apariţii ale semnului cel mai puţin frecvent este mai mic sau
egal cu valoarea critică din tabelă, vom respinge H0 . Dacă valoarea observată
a celui mai puţin frecvent semn este mai mare decât valoarea tabelată, nu
12.2. Testul semnului 277
vom putea respinge (adică vom accepta) H0 . Valoarea n din tabelă este
numărul total de semne, fără a include zerourile. Pentru exemplul nostru
n = 30, iar valoarea critică este 9 (vezi tabela C.13), conform diagramei
0 H0 se respinge 9 10 H0 se acceptă
P4. Valoarea statisticii este X = n(−) = 8 = x∗ .
P5. Deoarece x∗ este situată ı̂n regiunea critică se respinge H0 . Concluzia:
selecţia nu ne permite să afirmăm la nivelul de semnificaţie α = 0.05 că
mediana este 15.
Exemplul 12.2.2 S-a iniţiat o cură de slăbire fără ı̂nfometare şi fără e-
xerciţii fizice. Pentru a testa afirmaţia ,,veţi scădea ı̂n greutate ı̂n două
săptămâni sau ...“ un statistician a obţinut greutatea a 18 persoane ı̂nainte
şi după cură. Tabela 12.1 dă lista a 18 persoane, greutatea lor ı̂nainte de
cură şi după cura de două săptămâni, precum şi semnele diferenţelor (+, -,
0). Dorim să testăm dacă cura duce la slăbire sau nu (α = 5%).
Soluţie. Ipoteza nulă este că nu avem pierderi ı̂n greutate (sau că me-
diana pierderilor ı̂n greutate este 0), ı̂nsemnând că numai o respingere a
ipotezei nule ne va permite să tragem o concluzie ı̂n favoarea curei.
P1. H0 : M e = 0 (nici o pierdere ı̂n greutate).
P2. H1 : M e < 0 (există pierderi ı̂n greutate).
P3. α = 0.05, n(+) = 5, n(−) = 11, n = 16. Valoarea critică din tabela
C.13 este k = 4.
P4. X = n(+) = 5.
P5. H0 nu se poate respinge (există prea multe semne +). Concluzia:
datele observate nu ne permit să respingem ipoteza că nu există pierderi ı̂n
greutate.
Testul semnelor se poate realiza şi prin intermediul unei aproximaţii nor-
male, care va fi utilizată dacă valoarea critică particulară nu apare ı̂n tabelă
sau dacă n este mare. Statistica testului va fi
X ′ − n2
Z= 1√ . (12.1)
2
n
278 Metode neparametrice
n/2
Exemplul 12.2.4 Se utilizează testul semnelor pentru a testa ipoteza că me-
diana M e a numărului de ore lucrat de studenţii de la o facultate este de cel
puţin 15 ore pe săptămână. Se consideră o selecţie de 120 de studenţi; se
ı̂nregistrează un semn + dacă studentul a lucrat mai mult de 15 ore şi minus
ı̂n caz contrar. În total avem 80 de semne + şi 40 de semne -, iar α = 5%.
Soluţie.
P1. H0 : M e = 15 (≥).
P2. H1 : M e < 15 (mai puţine semne + decât -).
P3. α = 0.05, x este numărul de semne +. Regiunea critică este arătată
ı̂n figura 12.4, zα = −1.65.
P4. x = 40,
X ′ − n2 40.5 − 60
Z = 1√ = 1√ = −3. 56 = z ∗ .
2
n 2
120
0.4
0.35
0.3
0.25
0.2
0.15
0.1
0.05
−1.65
−0.05
−3.56
−0.1
−3 −2 −1 0 1 2 3
(L se va rotunji ı̂n jos, iar U ı̂n sus, pentru a ne asigura că nivelul de ı̂ncredere
este 1 − α).
Calculul statisticii U a testului este o procedură ı̂n doi paşi. Vom deter-
mina ı̂ntâi suma rangurilor pentru fiecare din cele două selecţii. Utilizând
apoi suma celor două ranguri vom calcula scorul U pentru fiecare selecţie.
Statistica testului va fi cel mai mic dintre scorurile U . Suma Ra a rangurilor
pentru prima selecţie este
Rb = 4 + 7 + 8 + 9 + 12 + 13 + 15 + 17 + 19 + 20 = 124.
dorim să tragem concluzia că mediile sunt aproximativ egale. Să presupu-
nem pentru moment că ele sunt diferite – să zicem că toate valorile dintr-o
selecţie apar ı̂naintea celei mai mici valori din a doua selecţie atunci când
le grupăm ı̂mpreună. Aceasta ı̂nseamnă că vom respinge ipoteza nulă. Ce
valori ne aşteptăm să aibă U ı̂n acest caz? Să presupunem că ı̂n exemplul
12.3.1 cele 10 valori din selecţia A au raguri de la 1 la 10, iar cele din selecţia
B au ranguri de la 11 la 20. Vom obţine ı̂n acest caz Ra = 55, Rb = 155,
Ua = 100 + 10·11
2
− 155 = 0 şi Ub = 100, deci U = 0.
Presupunem, pe de altă parte, că cele două selecţii sunt identice. Cum
s-ar putea ı̂ntâmpla aceasta? De exemplu
54 54 62 62 71 71 72 72 . . .
A B A B A B A B ...
1.5 1.5 3.5 3.5 5.5 5.5 7.5 7.5 . . .
0.4
0.35
0.3
0.25
0.2
0.15
0.1
0.05
−1.65
−0.05
−1.268
−0.1
−3 −2 −1 0 1 2 3
(I) şi nici o recompensă. Tabela de mai jos dă numărul de repetări care au
fost necesare pentru executarea ı̂ntocmai a comenzii. Permite selecţia să se
afirme că metoda I cere un timp mediu mai scurt decât metoda II? (α = 0.05)
I 29 27 32 25 27 28 23 31 37 28 22 28 31 34
II 40 44 33 26 31 29 34 31 38 33 42
Soluţie.
Regiunea critică.
A B A-B |A-B| R
62.71 59.93 2.78 2.78 3
47.39 55.75 -8.36 8.36 5
50.17 52.03 -1.86 1.86 1.5
65.50 70.61 -5.11 5.11 4
60.86 62.72 -1.86 1.86 1.5
66.90 75.72 -8.82 8.82 6
Soluţie. Ipoteza nulă este că distribuţiile celor două populaţii sunt iden-
tice. Ipoteza alternativă este că distribuţiile diferă ı̂n locaţie. Deoarece
volumul de date este mic, vom lua α = 0.10, iar din tabela C.24 se găseşte
valoarea critică T0 = 2. Deci vom respinge ipoteza H0 dacă T ≤ 2. Deoarece
există o singură diferenţă pozitivă, care are rangul 3, T + = 3 şi T − = 10, deci
T = min(T + , T − ) = 3. Deoarece T ≥ T0 , ipoteza nulă nu poate fi respinsă
la nivelul de semnificaţie α = 0.10.
În cazul când volumul selecţiei este mare (n ≥ 25) se poate utiliza testul
Z, ı̂n care dacă T = T +
n(n + 1) n(n + 1)(2n + 1)
M (T ) = , D2 (T ) = ,
4 24
iar statistica testului este
T − M (T ) T − n(n + 1)/4
Z= =p .
D(T ) n(n + 1)(2n + 1)/24
În exemplul 12.5.1, dacă selecţia nu ar avea caracter aleator, ar trebui să
avem două monotonii, una pentru cifrele pare şi alta pentru cifrele impare.
Numărul maxim posibil de monotonii va fi n1 +n2 , unde n1 şi n2 sunt numerele
datelor ce posedă cele două proprietăţi de identificat.
Vom interpreta apariţia numărului maxim de monotonii ca o respingere
a ipotezei nule de aleatorism, deoarece adesea dorim să testăm caracterul
aleator al datelor ı̂n legătură cu modul lor de obţinere. De exemplu, dacă
datele alternează, am putea să suspectăm o corupere (alterare a lor). Există
mai multe aspecte ale conceptului de caracter aleator. Apariţia lui par şi
impar aşa cum s-a discutat ı̂n exemplul 12.5.1 este unul dintre ele. Un alt
aspect este fluctuaţia datelor dedesubtul sau deasupra mediei sau medianei
selecţiei.
Exemplul 12.5.2 Să considerăm secvenţa din exemplul 12.5.1 şi să testăm
fluctuaţia deasupra sau dedesubtul medianei. Ipoteza nulă este ,,secvenţa este
aleatoare“, iar α = 5%.
Soluţie.
P1. H0 : Numerele formează o secvenţă aleatoare ı̂n raport cu proprieta-
tea de a fi deasupra sau dedesubtul medianei.
P2. H1 : Secvenţa nu este aleatoare.
Vom ordona datele: 1, 1, 2, 2, 3, 4, 6, 6, 6, 7. Mediana va fi ı̂n poziţia 5.5,
M e = (3 + 4)/2 = 3.5. Comparând fiecare număr din selecţia originală cu
valoarea medianei şi notând cu a proprietatea de a avea valoarea mai mare
decât mediana şi cu b proprietatea de de a avea valoarea mai mică decât
mediana, obţinem secvenţa bbbb a b aaaa. Observăm că avem na = 5, nb = 5
şi V = 4.
Dacă n1 şi n2 sunt ambele mai mici decât 20 şi se utilizează un test
bilateral tabelele ne dau două valori critice. Din tabelaC.23, pentru α = 0.05
şi na = 5 şi nb = 5 obţinem valorile critice 2 şi 9. Aceasta ı̂nseamnă că dacă
avem două monotonii sau mai puţine şi respectiv 9 monotonii sau mai multe,
ipoteza nulă va fi respinsă. Dacă se observă ı̂ntre 3 şi 8 monotonii, ipoteza
nulă va fi acceptată.
P3. α = 0.05 şi utilizăm un test bilateral. Valorile critice se iau din
tabelă, iar regiunea critică apare ı̂n diagrama de mai jos.
0 Respingem H0 2 3 Acceptăm H0 8 9 Respingem H0
2n1 n2
mV = +1 (12.8)
n1 + n2
şi dispersia
s
2n1 n2 (2n1 n2 − n1 − n2 )
σV = . (12.9)
(n1 + n2 )2 (n1 + n2 − 1)
Statistica testului va fi
V − mV
Z= . (12.10)
σV
Exemplul 12.5.3 Să se testeze ipoteza că secvenţa care rezultă din clasifi-
carea datelor din exemplul 12.5.1 ı̂n par şi impar este o secvenţă aleatoare
(α = 0.10).
Soluţie.
P1. H0 : Secvenţa cu apariţiile de par şi impar este aleatoare.
P2. H1 : Secvenţa nu este aleatoare.
P3. α = 0.10, testul este bilateral iar regiunea critică apare ı̂n figura 12.6.
0.4
0.35
0.3
0.25
0.2
0.15
0.1
0.05
−1.65
−0.05
−1.268
−0.1
−3 −2 −1 0 1 2 3
Concu- Judecător
rentul A B C D
a 1 5 1 5
b 2 4 2 2
c 3 3 3 1
d 4 2 4 4
e 5 1 5 3
iar
1 pentru yjk < yij
skj = 0 pentru yik = yij
−1 pentru yik > yij
de unde se obţine
6 · 40
s̄ = 1 − = −1.
5(52 − 1)
Când comparăm judecătorii A şi C, observăm că rangurile stabilite de ei
sunt identice, deci s̄ = 1 (ı̂ntre ei există acord total). Pentru A şi D valorile
sunt
Concurent A D di d2i
a 1 5 -4 16
b 2 2 0 0
c 3 1 2 4
d 4 4 0 0
e 5 3 2 4
24
iar coeficientul de corelaţie al lui Spearman este
6 · 24
s̄ = 1 − = 0.2.
5(52 − 1)
Exemplul 12.6.2 Vrem să verificăm dacă studenţii care termină mai repede
lucrările decât restul colegilor sunt mai bine pregătiţi. Datele de mai jos
arată punctajul şi ordinea de terminare pentru 12 studenţi. La nivelul de
semnificaţie α = 0.05, vin aceste date ı̂n sprijinul ipotezei alternative că
studenţii care termină mai repede au notele cele mai bune?
O 1 2 3 4 5 6 7 8 9 10 11 12
P 90 74 76 60 68 86 92 60 78 70 78 64
Soluţie.
P1. H0 : Ordinea de terminare nu are nici o legătură cu punctajul final.
P2. H1 : Cei care termină primii tind să aibă notele cele mai mari.
P3. α = 0.05, n = 12, iar valoarea critică este 0.497 (tabela C.25).
12.6. Corelaţia rangurilor 293
6 · 235
s̄ = 1 − = 0.178.
12 · 143
P5. Se acceptă H0 . Concluzia: selecţia nu ne permite să afirmăm că
studenţii care termină mai repede au punctaj mai bun.
294 Metode neparametrice
Capitolul 13
Algoritmi probabilişti
13.1 Introducere
Dacă ı̂ntr-un algoritm permitem o acţiune aleatoare cum ar fi aruncarea
unei monede, adică generarea unui număr aleator, lărgim clasa de probleme
rezolvabile şi totodată, ı̂n anumite cazuri, putem să accelerăm algoritmii. Un
algoritm care are cel puţin un pas ce constă din generarea unui număr aleator
se va numi algoritm probabilist. Algoritmii probabilişti sunt de multe ori
mai simpli, mai rapizi şi mai uşor de analizat decât cei determinişti (pe care
totuşi nu ı̂i ı̂nlocuiesc).
Aleatorismul este o resursă utilă ı̂n proiectarea algoritmilor. El permite:
- să se realizeze lucruri care nu ştim cum s-ar putea face determinist,
cum ar fi testul de primalitate, determinarea cu cost liniar a arborelui
de acoperire minimal;
- să se realizeze lucruri care s-au demonstrat a fi imposibile ı̂n mod de-
terminist.
295
296 Algoritmi probabilişti
2. Vom considera că dacă sunt generate numerele aleatoare (xk ) ı̂ntregi
şi uniforme din [0, M ), atunci numerele (uk ) definite prin uk = xk /M
sunt uniform repartizate pe [0, 1) (urmează legea uniformă continuă pe
[0, 1), vezi subsecţiunea 4.2.1).
unde M = 2p , şi cel puţin unul din numerele x0 şi x1 este impar, atunci
perioada λ a generatorului este λ = 3 · 2p−1 .
1. Condiţiile (i) şi (iii) sunt automat satisfăcute dacă M este prim.
√
2. Dacă M ≥ 225 şi rădăcina primitivă a ≈ M , s-a constatat statistic
că se produc numere aleatoare acceptabile.
3. Dacă reprezentarea ı̂ntregilor pe calculator se face pe un cuvânt de 32
de biţi, atunci se poate alege:
Atunci ABx ̸= Cx fie pentru xj = 1 fie pentru xj = −1. Astfel, putem spune
la o ı̂ncercare, cu o probabilitate ≤ 1/2, dacă AB ̸= C. Deoarece ı̂ncercările
sunt independente, p ≤ 2−k .
Timpul de execuţie este O(n2 ). Problema existenţei unui algoritm deter-
minist pentru rezolvarea acestei probleme ı̂n timp pătratic este deschisă (ea
ar putea fi mai simplă decât problema ı̂nmulţirii ı̂n timp pătratic).
Următorul exemplu se referă la verificarea unor identităţi.
Fie f (x1 , . . . , xn ) un polinom cu coeficienţi raţionali de n variabile de grad
cel mult k ı̂n fiecare dintre variabile. Vrem să decidem dacă f ≡ 0. Ideea de
bază este să ı̂nlocuim variabilele cu numere aleatoare şi să calculăm valoarea
13.4. Algoritmi Monte Carlo 301
P (f (ξ1 , . . . , ξn ) = 0) ≤
P (f (ξ1 , . . . , ξn ) = 0|ft (ξ2 , . . . , ξn ) = 0) P (ft (ξ2 , . . . , ξn ) = 0) +
+ P (f (ξ1 , . . . , ξn ) = 0|ft (ξ2 , . . . , ξn ) ̸= 0) P (ft (ξ2 , . . . , ξn ) ̸= 0)
≤P (ft (ξ2 , . . . , ξn ) = 0) + P (f (ξ1 , . . . , ξn ) = 0|ft (ξ2 , . . . , ξn ) ̸= 0) .
Primul termen poate fi estimat folosind ipoteza inducţiei, iar al doilea este
cel mult k/N (căci ξ1 este independentă de variabilele ξ2 , . . . , ξn şi de aceea
dacă ultimele sunt fixate astfel ca ft ̸= 0 şi f ca polinom ı̂n x1 nu este identic
nul, atunci probabilitatea ca ξ1 să fie rădăcină este cel mult k/N ). Deci
k(n − 1) k kn
P (f (ξ1 , . . . , ξn ) = 0) ≤ + ≤ .
N N N
ne conduce la
Γ(r + 1) = r!, ∀r ∈ N. (A.4)
Efectuând schimbarea de variabilă 2x = y 2 obţinem
Z ∞
y2
y 2r−1 e− 2 dy = 2r−1 Γ(r) (A.5)
0
303
304 Funcţiile lui Euler
1√
r
π
= 2π = , (A.6)
2 2
rezultă
√
1
Γ = π. (A.7)
2
Cu ajutorul rezultatelor de mai sus putem calcula Γ 2r+1
2
pentru r ı̂ntreg,
deoarece
2r + 1 1 1
Γ =Γ r+ =Γ r− +1
2 2 2
şi deci
2r + 1 1 1
Γ = r− Γ r− . (A.8)
2 2 2
De exemplu, pentru r = 1 obţinem
√
3 1 1 1 1 π
Γ = 1− Γ 1− = Γ = .
2 2 2 2 2 2
Relaţia dintre funcţiile beta şi gama se obţine cu ajutorul formulelor (A.5)
şi (A.11) ı̂n modul următor:
Z ∞ Z ∞
2 +y 2 )/2
2ρ−1 ν−1
Γ(ρ) · 2 Γ(ν) = 2 ρ+ν−2
e−(x
x2ρ−1 y 2ν−1 dxdy =
0 0
Z ∞ Z π/2
ρ+ν−2 −r2 /2 ρ+ν+1
=2 e r dr sin2ρ−1 t sin2ν−1 tdt =
0 0
= 2ρ+ν−2 Γ(ρ + ν)B(ρ, ν)
şi deci
Γ(ρ)Γ(ν)
B(ρ, ν) = , (A.13)
Γ(ρ + ν)
care este tocmai relaţia căutată.
Utilizând (A.2) şi (A.13) se pot deduce relaţiile funcţionale
ρ
B(ρ + 1, ν) = B(ρ, ν), (A.14)
ρ+ν
ν
B(ρ, ν + 1) = B(ρ, ν) (A.15)
ν+ρ
şi deci
B(ρ + 1, ν) + B(ρ, ν + 1) = B(ρ, ν). (A.16)
În cazul particular când ρ şi ν sunt ı̂ntregi, din (A.4) şi (A.13) se deduce că
ρ!ν!
B(ρ + 1, ν + 1) = . (A.17)
(ρ + ν + 1)!
Y(1) = min(Y1 , Y2 , . . . , Yn ),
Y(n) = max(Y1 , Y2 , . . . , Yn ).
Vom obţine ı̂ntâi funcţia de repartiţie şi densitatea pentru Y(n) . Deoarece
Y(n) este maximul lui Y(1) , . . . , Y(n) evenimentul (Y(n) < y) va apare dacă şi
numai dacă apar evenimentele (Yi < y), i = 1, n. Adică
Deoarece Yi sunt independente şi P (Yi < y) = F (y), rezultă că funcţia de
repartiţie a lui Y(n) este dată de
307
308 Statistici ale ordinii
şi deci
(1/50)(e−y/100 − e−y/50 ), y > 0
fx (y) =
0, altfel.
Maximul a două variabile aleatoare exponenţiale nu mai este o variabilă
aleatoare exponenţială.
Deşi o deducere riguroasă a densităţii celei de-a k-a statistici de ordine
este mai dificilă, densitatea rezultată are o structură intuitivă. Odată ce
structura este ı̂nţeleasă, repartiţia şi densitatea se pot scrie uşor. Putem
gândi densitatea de probabilitate a unei variabile aleatoare continue ı̂ntr-un
punct ca fiind proporţională cu probabilitatea ca variabila să fie apropiată
de acel punct. Adică, dacă Y este variabilă aleatoare continuă cu densitatea
de probabilitate f (y), atunci
Considerăm acum a k-a statistică a ordinii, Y(k) . Dacă a k-a cea mai
apropiată valoare este apropiată de yk , atunci k − 1 variabile Y trebuie să fie
mai mici decât yk , una trebuie să fie lângă yk , iar restul de n − k trebuie să
fie mai mari decât yk . Folosim distribuţia multinomială. Avem trei clase
clasa 1: Variabilele Y au valori < yk
clasa 2: Variabilele Y au valori lângă yk
310 Statistici ale ordinii
Soluţie.
0, y < 0
F (y) = x, 0 ≤ y ≤ 1
1, y > 1
5!
f(2) (y2 ) = y 2−1 [1 − y]5−2 f (y2 )
(2 − 1)!(5 − 2)!
20y2 (1 − y2 )3 , y2 ∈ [0, 1]
=
0, altfel
5!
f(2)(4) (y2 , y4 ) = ·
(2 − 1)!(4 − 1 − 2)!(5 − 4)!
· [F (y2 )]2−1 [F (y4 ) − F (y2 )]4−1−2 [1 − F (y4 )]5−4 f (y2 )f (y4 ).
312 Statistici ale ordinii
Anexa C
În continuare se dau tabele pentru principalele distribuţii utilizate ı̂n lu-
crare:
Rx 2
• valorile funcţiei de repartiţie normale Φ(x) = 2π −∞ exp −t2 dt –
√1
tabela C.1;
313
314 Tabele pentru principalele distribuţii
% x
x 0 1 2 3 4 5 6 7 8 9
-3.5 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000
-3.4 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000
-3.3 0.000 0.001 0.001 0.001 0.001 0.001 0.001 0.001 0.001 0.001
-3.2 0.001 0.001 0.001 0.001 0.001 0.001 0.001 0.001 0.001 0.001
-3.1 0.001 0.001 0.001 0.001 0.001 0.001 0.001 0.001 0.001 0.001
-3.0 0.001 0.001 0.001 0.001 0.002 0.002 0.002 0.002 0.002 0.002
-2.9 0.002 0.002 0.002 0.002 0.002 0.002 0.002 0.002 0.002 0.002
-2.8 0.003 0.003 0.003 0.003 0.003 0.003 0.003 0.003 0.003 0.003
-2.7 0.003 0.004 0.004 0.004 0.004 0.004 0.004 0.004 0.004 0.005
-2.6 0.005 0.005 0.005 0.005 0.005 0.005 0.006 0.006 0.006 0.006
-2.5 0.006 0.006 0.007 0.007 0.007 0.007 0.007 0.008 0.008 0.008
-2.4 0.008 0.008 0.009 0.009 0.009 0.009 0.010 0.010 0.010 0.010
-2.3 0.011 0.011 0.011 0.012 0.012 0.012 0.013 0.013 0.013 0.014
-2.2 0.014 0.014 0.015 0.015 0.015 0.016 0.016 0.017 0.017 0.017
-2.1 0.018 0.018 0.019 0.019 0.020 0.020 0.021 0.021 0.022 0.022
-2.0 0.023 0.023 0.024 0.024 0.025 0.026 0.026 0.027 0.027 0.028
-1.9 0.029 0.029 0.030 0.031 0.031 0.032 0.033 0.034 0.034 0.035
-1.8 0.036 0.037 0.038 0.038 0.039 0.040 0.041 0.042 0.043 0.044
-1.7 0.045 0.046 0.046 0.047 0.048 0.049 0.051 0.052 0.053 0.054
-1.6 0.055 0.056 0.057 0.058 0.059 0.061 0.062 0.063 0.064 0.066
-1.5 0.067 0.068 0.069 0.071 0.072 0.074 0.075 0.076 0.078 0.079
-1.4 0.081 0.082 0.084 0.085 0.087 0.089 0.090 0.092 0.093 0.095
-1.3 0.097 0.099 0.100 0.102 0.104 0.106 0.107 0.109 0.111 0.113
-1.2 0.115 0.117 0.119 0.121 0.123 0.125 0.127 0.129 0.131 0.133
-1.1 0.136 0.138 0.140 0.142 0.145 0.147 0.149 0.152 0.154 0.156
-1.0 0.159 0.161 0.164 0.166 0.169 0.171 0.174 0.176 0.179 0.181
-0.9 0.184 0.187 0.189 0.192 0.195 0.198 0.200 0.203 0.206 0.209
-0.8 0.212 0.215 0.218 0.221 0.224 0.227 0.230 0.233 0.236 0.239
-0.7 0.242 0.245 0.248 0.251 0.255 0.258 0.261 0.264 0.268 0.271
-0.6 0.274 0.278 0.281 0.284 0.288 0.291 0.295 0.298 0.302 0.305
-0.5 0.309 0.312 0.316 0.319 0.323 0.326 0.330 0.334 0.337 0.341
-0.4 0.345 0.348 0.352 0.356 0.359 0.363 0.367 0.371 0.374 0.378
-0.3 0.382 0.386 0.390 0.394 0.397 0.401 0.405 0.409 0.413 0.417
-0.2 0.421 0.425 0.429 0.433 0.436 0.440 0.444 0.448 0.452 0.456
-0.1 0.460 0.464 0.468 0.472 0.476 0.480 0.484 0.488 0.492 0.496
continuare pe pagina următoare. . .
315
% x
x 0 1 2 3 4 5 6 7 8 9
0.0 0.500 0.504 0.508 0.512 0.516 0.520 0.524 0.528 0.532 0.536
0.1 0.540 0.544 0.548 0.552 0.556 0.560 0.564 0.567 0.571 0.575
0.2 0.579 0.583 0.587 0.591 0.595 0.599 0.603 0.606 0.610 0.614
0.3 0.618 0.622 0.626 0.629 0.633 0.637 0.641 0.644 0.648 0.652
0.4 0.655 0.659 0.663 0.666 0.670 0.674 0.677 0.681 0.684 0.688
0.5 0.691 0.695 0.698 0.702 0.705 0.709 0.712 0.716 0.719 0.722
0.6 0.726 0.729 0.732 0.736 0.739 0.742 0.745 0.749 0.752 0.755
0.7 0.758 0.761 0.764 0.767 0.770 0.773 0.776 0.779 0.782 0.785
0.8 0.788 0.791 0.794 0.797 0.800 0.802 0.805 0.808 0.811 0.813
0.9 0.816 0.819 0.821 0.824 0.826 0.829 0.831 0.834 0.836 0.839
1.0 0.841 0.844 0.846 0.848 0.851 0.853 0.855 0.858 0.860 0.862
1.1 0.864 0.867 0.869 0.871 0.873 0.875 0.877 0.879 0.881 0.883
1.2 0.885 0.887 0.889 0.891 0.893 0.894 0.896 0.898 0.900 0.901
1.3 0.903 0.905 0.907 0.908 0.910 0.911 0.913 0.915 0.916 0.918
1.4 0.919 0.921 0.922 0.924 0.925 0.926 0.928 0.929 0.931 0.932
1.5 0.933 0.934 0.936 0.937 0.938 0.939 0.941 0.942 0.943 0.944
1.6 0.945 0.946 0.947 0.948 0.949 0.951 0.952 0.953 0.954 0.954
1.7 0.955 0.956 0.957 0.958 0.959 0.960 0.961 0.962 0.962 0.963
1.8 0.964 0.965 0.966 0.966 0.967 0.968 0.969 0.969 0.970 0.971
1.9 0.971 0.972 0.973 0.973 0.974 0.974 0.975 0.976 0.976 0.977
2.0 0.977 0.978 0.978 0.979 0.979 0.980 0.980 0.981 0.981 0.982
2.1 0.982 0.983 0.983 0.983 0.984 0.984 0.985 0.985 0.985 0.986
2.2 0.986 0.986 0.987 0.987 0.987 0.988 0.988 0.988 0.989 0.989
2.3 0.989 0.990 0.990 0.990 0.990 0.991 0.991 0.991 0.991 0.992
2.4 0.992 0.992 0.992 0.992 0.993 0.993 0.993 0.993 0.993 0.994
2.5 0.994 0.994 0.994 0.994 0.994 0.995 0.995 0.995 0.995 0.995
2.6 0.995 0.995 0.996 0.996 0.996 0.996 0.996 0.996 0.996 0.996
2.7 0.997 0.997 0.997 0.997 0.997 0.997 0.997 0.997 0.997 0.997
2.8 0.997 0.998 0.998 0.998 0.998 0.998 0.998 0.998 0.998 0.998
2.9 0.998 0.998 0.998 0.998 0.998 0.998 0.998 0.999 0.999 0.999
3.0 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.999
3.1 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.999
3.2 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.999
3.3 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
3.4 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
3.5 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
316 Tabele pentru principalele distribuţii
x 0% 0.05% x 0% 0.05%
0.00 −∞ -2.58
0.01 -2.326352 -2.170094 0.51 0.025070 0.037610
0.02 -2.053753 -1.959968 0.52 0.050155 0.062708
0.03 -1.880797 -1.811914 0.53 0.075271 0.087846
0.04 -1.750690 -1.695401 0.54 0.100435 0.113040
0.05 -1.644857 -1.598196 0.55 0.125663 0.138306
0.06 -1.554777 -1.514105 0.56 0.150971 0.163660
0.07 -1.475794 -1.439534 0.57 0.176376 0.189120
0.08 -1.405075 -1.372207 0.58 0.201895 0.214703
0.09 -1.340758 -1.310582 0.59 0.227547 0.240428
0.10 -1.281554 -1.253568 0.60 0.253349 0.266312
0.11 -1.226531 -1.200362 0.61 0.279321 0.292377
0.12 -1.174989 -1.150352 0.62 0.305483 0.318641
0.13 -1.126394 -1.103065 0.63 0.331855 0.345127
0.14 -1.080322 -1.058124 0.64 0.358461 0.371858
0.15 -1.036436 -1.015224 0.65 0.385322 0.398857
0.16 -0.994460 -0.974116 0.66 0.412465 0.426150
0.17 -0.954168 -0.934592 0.67 0.439915 0.453764
0.18 -0.915367 -0.896476 0.68 0.467701 0.481729
0.19 -0.877899 -0.859620 0.69 0.495852 0.510075
0.20 -0.841623 -0.823896 0.70 0.524402 0.538838
0.21 -0.806423 -0.789194 0.71 0.553387 0.568053
0.22 -0.772195 -0.755417 0.72 0.582844 0.597762
0.23 -0.738849 -0.722481 0.73 0.612815 0.628008
0.24 -0.706305 -0.690311 0.74 0.643347 0.658840
0.25 -0.674492 -0.658840 0.75 0.674492 0.690311
0.26 -0.643347 -0.628008 0.76 0.706305 0.722481
0.27 -0.612815 -0.597762 0.77 0.738849 0.755417
0.28 -0.582844 -0.568053 0.78 0.772195 0.789194
0.29 -0.553387 -0.538838 0.79 0.806423 0.823896
0.30 -0.524402 -0.510075 0.80 0.841623 0.859620
0.31 -0.495852 -0.481729 0.81 0.877899 0.896476
0.32 -0.467701 -0.453764 0.82 0.915367 0.934592
0.33 -0.439915 -0.426150 0.83 0.954168 0.974116
0.34 -0.412465 -0.398857 0.84 0.994460 1.015224
0.35 -0.385322 -0.371858 0.85 1.036436 1.058124
continuare pe pagina următoare . . .
317
x 0% 0.05% x 0% 0.05%
0.36 -0.358461 -0.345127 0.86 1.080322 1.103065
0.37 -0.331855 -0.318641 0.87 1.126394 1.150352
0.38 -0.305483 -0.292377 0.88 1.174989 1.200362
0.39 -0.279321 -0.266312 0.89 1.226531 1.253568
0.40 -0.253349 -0.240428 0.90 1.281554 1.310582
0.41 -0.227547 -0.214703 0.91 1.340758 1.372207
0.42 -0.201895 -0.189120 0.92 1.405075 1.439534
0.43 -0.176376 -0.163660 0.93 1.475794 1.514105
0.44 -0.150971 -0.138306 0.94 1.554777 1.598196
0.45 -0.125663 -0.113040 0.95 1.644857 1.695401
0.46 -0.100435 -0.087846 0.96 1.750690 1.811914
0.47 -0.075271 -0.062708 0.97 1.880797 1.959968
0.48 -0.050155 -0.037610 0.98 2.053753 2.170094
0.49 -0.025070 -0.012535 0.99 2.326352 2.575834
0.50 0.000000 0.012535
318 Tabele pentru principalele distribuţii
1 2 3 4 5 6 7 8
1 161.45 199.50 215.71 224.58 230.17 233.99 236.76 238.89
2 18.51 19.00 19.16 19.25 19.30 19.33 19.35 19.37
3 10.13 9.55 9.27 9.11 9.01 8.94 8.89 8.85
4 7.71 6.95 6.59 6.39 6.25 6.16 6.09 6.04
5 6.61 5.79 5.41 5.19 5.05 4.95 4.87 4.82
6 5.99 5.15 4.76 4.54 4.38 4.28 4.21 4.15
7 5.59 4.73 4.35 4.12 3.97 3.87 3.79 3.73
8 5.31 4.46 4.06 3.83 3.69 3.58 3.50 3.44
9 5.12 4.25 3.87 3.64 3.48 3.38 3.29 3.23
10 4.96 4.10 3.70 3.48 3.32 3.22 3.13 3.07
11 4.84 3.98 3.59 3.35 3.20 3.09 3.01 2.95
12 4.75 3.89 3.49 3.26 3.10 3.00 2.91 2.85
13 4.67 3.80 3.41 3.18 3.03 2.92 2.84 2.77
14 4.60 3.74 3.35 3.11 2.96 2.85 2.77 2.70
15 4.54 3.68 3.29 3.06 2.90 2.79 2.71 2.64
16 4.49 3.64 3.24 3.01 2.85 2.74 2.66 2.59
17 4.45 3.59 3.19 2.96 2.81 2.70 2.61 2.55
18 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51
19 4.38 3.52 3.13 2.90 2.74 2.63 2.55 2.48
20 4.35 3.49 3.10 2.87 2.71 2.60 2.51 2.45
21 4.32 3.47 3.07 2.84 2.68 2.58 2.48 2.42
22 4.30 3.45 3.05 2.82 2.66 2.55 2.46 2.40
23 4.28 3.42 3.03 2.80 2.64 2.53 2.45 2.38
24 4.26 3.40 3.01 2.77 2.62 2.51 2.42 2.35
25 4.24 3.38 2.99 2.76 2.61 2.49 2.41 2.34
26 4.22 3.37 2.97 2.74 2.58 2.48 2.38 2.32
27 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31
28 4.19 3.34 2.95 2.71 2.56 2.45 2.36 2.29
29 4.19 3.33 2.93 2.70 2.55 2.43 2.35 2.28
30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.26
40 4.16 3.31 2.91 2.67 2.52 2.41 2.32 2.26
50 4.15 3.29 2.90 2.67 2.51 2.40 2.32 2.25
60 4.14 3.29 2.89 2.66 2.50 2.39 2.30 2.23
322 Tabele pentru principalele distribuţii
9 10 11 12 13 14 15 16
1 240.54 241.88 242.98 243.91 244.69 245.36 245.95 246.46
2 19.38 19.40 19.41 19.41 19.42 19.42 19.43 19.44
3 8.81 8.79 8.76 8.75 8.72 8.72 8.70 8.69
4 6.00 5.96 5.93 5.91 5.89 5.87 5.86 5.84
5 4.77 4.73 4.70 4.68 4.66 4.64 4.62 4.61
6 4.10 4.06 4.03 4.00 3.98 3.96 3.94 3.93
7 3.67 3.64 3.61 3.58 3.55 3.53 3.51 3.49
8 3.38 3.35 3.32 3.29 3.26 3.24 3.22 3.20
9 3.18 3.14 3.10 3.07 3.05 3.03 3.00 2.99
10 3.02 2.98 2.94 2.91 2.89 2.87 2.84 2.83
11 2.90 2.85 2.82 2.79 2.76 2.74 2.72 2.70
12 2.80 2.75 2.72 2.69 2.66 2.64 2.61 2.60
13 2.71 2.67 2.64 2.61 2.58 2.55 2.53 2.51
14 2.64 2.60 2.57 2.54 2.51 2.48 2.46 2.45
15 2.59 2.55 2.51 2.48 2.45 2.42 2.40 2.38
16 2.54 2.49 2.45 2.42 2.40 2.37 2.35 2.33
17 2.49 2.45 2.42 2.38 2.35 2.33 2.31 2.29
18 2.45 2.42 2.38 2.34 2.32 2.29 2.27 2.25
19 2.42 2.38 2.34 2.31 2.28 2.26 2.23 2.22
20 2.39 2.35 2.31 2.28 2.25 2.22 2.20 2.19
21 2.37 2.32 2.29 2.25 2.22 2.19 2.18 2.16
22 2.34 2.29 2.26 2.22 2.19 2.17 2.15 2.13
23 2.32 2.28 2.24 2.20 2.17 2.15 2.13 2.11
24 2.30 2.26 2.22 2.19 2.16 2.13 2.11 2.09
25 2.29 2.24 2.19 2.16 2.13 2.11 2.09 2.07
26 2.26 2.22 2.18 2.15 2.12 2.10 2.07 2.05
27 2.25 2.20 2.16 2.13 2.10 2.08 2.06 2.03
28 2.23 2.19 2.15 2.12 2.09 2.06 2.04 2.02
29 2.22 2.18 2.14 2.10 2.07 2.05 2.03 2.01
30 2.21 2.16 2.13 2.10 2.06 2.03 2.01 2.00
40 2.20 2.16 2.11 2.08 2.05 2.03 2.00 1.98
50 2.19 2.14 2.10 2.07 2.04 2.01 1.99 1.97
60 2.18 2.13 2.10 2.06 2.03 2.00 1.98 1.96
323
1 2 3 4 5 6 7 8
1 647.79 799.50 864.16 899.58 921.85 937.11 948.22 956.66
2 38.51 39.00 39.17 39.25 39.30 39.33 39.36 39.37
3 17.45 16.04 15.44 15.10 14.88 14.74 14.62 14.54
4 12.22 10.65 9.98 9.60 9.37 9.20 9.08 8.98
5 10.01 8.44 7.76 7.39 7.15 6.98 6.86 6.76
6 8.82 7.26 6.60 6.23 5.99 5.82 5.70 5.60
7 8.08 6.54 5.89 5.52 5.28 5.12 4.99 4.90
8 7.57 6.06 5.41 5.06 4.82 4.65 4.53 4.43
9 7.21 5.71 5.08 4.72 4.48 4.32 4.20 4.10
10 6.94 5.46 4.83 4.47 4.24 4.07 3.95 3.86
11 6.73 5.25 4.63 4.28 4.04 3.88 3.76 3.67
12 6.55 5.09 4.48 4.12 3.89 3.73 3.61 3.51
13 6.41 4.96 4.35 3.99 3.77 3.61 3.48 3.38
14 6.30 4.86 4.24 3.90 3.67 3.50 3.38 3.29
15 6.20 4.77 4.15 3.80 3.58 3.41 3.29 3.20
16 6.12 4.69 4.08 3.73 3.50 3.34 3.22 3.13
17 6.04 4.62 4.01 3.67 3.44 3.28 3.16 3.06
18 5.98 4.56 3.96 3.61 3.38 3.22 3.10 3.00
19 5.92 4.51 3.90 3.56 3.33 3.17 3.05 2.96
20 5.87 4.46 3.86 3.51 3.29 3.13 3.01 2.91
21 5.83 4.42 3.82 3.48 3.25 3.09 2.97 2.87
22 5.79 4.38 3.78 3.44 3.22 3.06 2.93 2.84
23 5.75 4.35 3.75 3.41 3.19 3.03 2.90 2.80
24 5.72 4.32 3.72 3.38 3.16 3.00 2.87 2.78
25 5.69 4.29 3.70 3.35 3.13 2.96 2.85 2.75
26 5.66 4.26 3.67 3.33 3.10 2.94 2.83 2.73
27 5.64 4.24 3.64 3.31 3.08 2.92 2.80 2.71
28 5.61 4.22 3.63 3.29 3.06 2.90 2.78 2.69
29 5.59 4.20 3.61 3.27 3.04 2.88 2.77 2.67
30 5.57 4.19 3.59 3.25 3.03 2.87 2.74 2.65
40 5.55 4.16 3.58 3.23 3.01 2.85 2.73 2.64
50 5.53 4.15 3.56 3.22 3.00 2.84 2.71 2.62
60 5.51 4.13 3.54 3.20 2.98 2.82 2.70 2.61
324 Tabele pentru principalele distribuţii
9 10 11 12 13 14 15 16
1 963.29 968.63 973.02 976.71 979.84 982.53 984.86 986.92
2 39.39 39.39 39.41 39.42 39.42 39.43 39.43 39.43
3 14.47 14.42 14.37 14.34 14.30 14.28 14.26 14.23
4 8.91 8.85 8.79 8.75 8.72 8.69 8.66 8.63
5 6.68 6.62 6.57 6.53 6.49 6.46 6.43 6.41
6 5.52 5.46 5.41 5.37 5.33 5.30 5.27 5.25
7 4.83 4.76 4.71 4.67 4.63 4.60 4.57 4.54
8 4.36 4.29 4.25 4.20 4.16 4.13 4.10 4.08
9 4.03 3.96 3.91 3.87 3.83 3.80 3.77 3.74
10 3.78 3.72 3.67 3.62 3.58 3.55 3.52 3.50
11 3.59 3.53 3.48 3.43 3.39 3.36 3.33 3.31
12 3.44 3.38 3.32 3.28 3.24 3.21 3.18 3.15
13 3.32 3.25 3.20 3.16 3.12 3.08 3.06 3.03
14 3.21 3.15 3.09 3.05 3.01 2.98 2.95 2.93
15 3.13 3.06 3.01 2.96 2.93 2.89 2.87 2.84
16 3.05 2.99 2.93 2.89 2.85 2.82 2.79 2.76
17 2.99 2.92 2.87 2.83 2.79 2.75 2.72 2.70
18 2.93 2.87 2.81 2.77 2.73 2.70 2.67 2.64
19 2.88 2.82 2.77 2.72 2.68 2.64 2.61 2.59
20 2.84 2.77 2.72 2.67 2.64 2.61 2.58 2.55
21 2.80 2.74 2.68 2.64 2.60 2.56 2.54 2.51
22 2.77 2.70 2.64 2.60 2.56 2.53 2.50 2.47
23 2.73 2.67 2.61 2.57 2.53 2.50 2.47 2.44
24 2.71 2.64 2.58 2.54 2.50 2.47 2.44 2.41
25 2.67 2.61 2.56 2.51 2.48 2.44 2.41 2.38
26 2.65 2.59 2.54 2.49 2.45 2.42 2.38 2.36
27 2.63 2.57 2.51 2.47 2.43 2.39 2.36 2.34
28 2.61 2.55 2.49 2.45 2.41 2.38 2.35 2.32
29 2.59 2.53 2.48 2.43 2.39 2.35 2.32 2.30
30 2.58 2.51 2.46 2.42 2.37 2.34 2.31 2.28
40 2.56 2.49 2.44 2.39 2.35 2.32 2.29 2.26
50 2.55 2.48 2.42 2.38 2.34 2.31 2.28 2.25
60 2.53 2.47 2.42 2.37 2.32 2.29 2.26 2.23
325
1 2 3 4 5 6 7 8
1 4052.18 4999.50 5403.35 5624.58 5763.65 5858.99 5928.36 5981.07
2 98.50 99.00 99.16 99.25 99.30 99.33 99.35 99.38
3 34.12 30.82 29.45 28.71 28.24 27.91 27.67 27.49
4 21.20 18.00 16.70 15.98 15.52 15.21 14.97 14.80
5 16.26 13.27 12.06 11.40 10.97 10.67 10.46 10.29
6 13.75 10.92 9.78 9.14 8.75 8.47 8.26 8.10
7 12.25 9.55 8.45 7.85 7.46 7.19 6.99 6.84
8 11.26 8.65 7.59 7.01 6.63 6.37 6.18 6.03
9 10.56 8.02 6.99 6.42 6.05 5.80 5.61 5.47
10 10.04 7.56 6.55 5.99 5.64 5.38 5.20 5.06
11 9.65 7.21 6.21 5.67 5.31 5.07 4.89 4.74
12 9.33 6.92 5.96 5.41 5.06 4.82 4.64 4.50
13 9.08 6.70 5.74 5.21 4.86 4.62 4.44 4.30
14 8.86 6.51 5.57 5.03 4.70 4.45 4.28 4.14
15 8.69 6.36 5.41 4.90 4.56 4.32 4.14 4.00
16 8.53 6.22 5.29 4.77 4.44 4.20 4.03 3.89
17 8.40 6.12 5.18 4.67 4.34 4.10 3.93 3.79
18 8.28 6.02 5.09 4.58 4.25 4.02 3.84 3.70
19 8.18 5.92 5.01 4.50 4.17 3.94 3.77 3.63
20 8.10 5.85 4.94 4.43 4.10 3.87 3.70 3.57
21 8.02 5.78 4.87 4.37 4.04 3.81 3.64 3.51
22 7.95 5.72 4.82 4.32 3.99 3.76 3.59 3.45
23 7.88 5.67 4.77 4.26 3.94 3.71 3.54 3.41
24 7.82 5.61 4.72 4.22 3.90 3.67 3.50 3.36
25 7.77 5.57 4.67 4.18 3.86 3.63 3.45 3.32
26 7.72 5.53 4.64 4.14 3.82 3.59 3.42 3.29
27 7.68 5.49 4.60 4.11 3.78 3.56 3.38 3.25
28 7.63 5.45 4.57 4.07 3.75 3.53 3.36 3.22
29 7.60 5.42 4.54 4.05 3.73 3.50 3.33 3.20
30 7.57 5.39 4.51 4.02 3.70 3.48 3.31 3.17
40 7.53 5.36 4.48 3.99 3.67 3.45 3.28 3.15
50 7.50 5.34 4.46 3.97 3.65 3.43 3.25 3.13
60 7.47 5.31 4.44 3.95 3.63 3.41 3.24 3.11
326 Tabele pentru principalele distribuţii
9 10 11 12 13 14 15 16
1 6022.47 6055.84 6083.32 6106.32 6125.87 6142.67 6157.28 6170.10
2 99.39 99.40 99.41 99.41 99.42 99.43 99.43 99.44
3 27.35 27.23 27.13 27.05 26.98 26.92 26.88 26.83
4 14.66 14.55 14.45 14.37 14.31 14.25 14.20 14.16
5 10.16 10.05 9.96 9.88 9.82 9.77 9.72 9.68
6 7.98 7.87 7.79 7.72 7.66 7.60 7.56 7.52
7 6.72 6.62 6.54 6.47 6.41 6.36 6.31 6.28
8 5.91 5.81 5.73 5.67 5.61 5.56 5.51 5.47
9 5.35 5.25 5.18 5.11 5.06 5.00 4.96 4.93
10 4.94 4.85 4.77 4.70 4.65 4.60 4.56 4.52
11 4.63 4.54 4.46 4.40 4.34 4.29 4.25 4.22
12 4.38 4.29 4.22 4.15 4.10 4.05 4.01 3.97
13 4.19 4.10 4.03 3.96 3.90 3.86 3.81 3.78
14 4.03 3.94 3.87 3.80 3.74 3.70 3.66 3.62
15 3.90 3.80 3.73 3.67 3.61 3.57 3.52 3.48
16 3.78 3.69 3.61 3.55 3.50 3.45 3.41 3.37
17 3.68 3.59 3.52 3.45 3.40 3.35 3.31 3.28
18 3.60 3.51 3.43 3.37 3.32 3.27 3.22 3.19
19 3.52 3.43 3.36 3.29 3.24 3.19 3.16 3.12
20 3.45 3.37 3.29 3.23 3.18 3.13 3.09 3.05
21 3.40 3.31 3.24 3.17 3.12 3.07 3.03 3.00
22 3.35 3.25 3.19 3.12 3.06 3.02 2.98 2.94
23 3.30 3.21 3.14 3.07 3.02 2.97 2.93 2.90
24 3.25 3.17 3.09 3.03 2.98 2.93 2.89 2.85
25 3.22 3.13 3.06 3.00 2.94 2.89 2.85 2.81
26 3.18 3.09 3.02 2.96 2.90 2.86 2.81 2.78
27 3.15 3.06 2.99 2.93 2.87 2.83 2.78 2.74
28 3.12 3.03 2.96 2.90 2.84 2.80 2.75 2.71
29 3.09 3.00 2.93 2.87 2.81 2.77 2.73 2.69
30 3.06 2.98 2.90 2.84 2.79 2.74 2.70 2.66
40 3.04 2.96 2.88 2.82 2.77 2.72 2.67 2.64
50 3.02 2.93 2.86 2.80 2.74 2.70 2.65 2.61
60 3.00 2.91 2.84 2.77 2.72 2.67 2.64 2.60
327
Tabela
P∞ C.12: Legea Kolmogorov K(x) =
k −2k2 x2
−∞ (−1) e
1/100 din x
x 0 1 2 3 4 5 6 7 8 9
0 0.000 1.000 2.000 3.000 4.000 5.000 6.000 7.000 8.000 9.000
0.3 0.000 0.000 0.000 0.000 0.000 0.000 0.001 0.001 0.001 0.002
0.4 0.003 0.004 0.005 0.007 0.010 0.013 0.016 0.020 0.025 0.030
0.5 0.036 0.043 0.050 0.059 0.067 0.077 0.088 0.099 0.110 0.123
0.6 0.136 0.149 0.163 0.178 0.193 0.208 0.224 0.240 0.256 0.272
0.7 0.289 0.305 0.322 0.339 0.356 0.373 0.390 0.406 0.423 0.440
0.8 0.456 0.472 0.488 0.504 0.519 0.535 0.550 0.565 0.579 0.593
0.9 0.607 0.621 0.634 0.647 0.660 0.673 0.685 0.696 0.708 0.719
1 0.730 0.741 0.751 0.761 0.770 0.780 0.789 0.798 0.806 0.814
1.1 0.822 0.830 0.837 0.845 0.851 0.858 0.864 0.871 0.877 0.882
1.2 0.888 0.893 0.898 0.903 0.908 0.912 0.916 0.921 0.925 0.928
1.3 0.932 0.935 0.939 0.942 0.945 0.948 0.951 0.953 0.956 0.958
1.4 0.960 0.962 0.965 0.967 0.968 0.970 0.972 0.973 0.975 0.976
1.5 0.978 0.979 0.980 0.981 0.983 0.984 0.985 0.986 0.986 0.987
1.6 0.988 0.989 0.989 0.990 0.991 0.991 0.992 0.992 0.993 0.993
1.7 0.994 0.994 0.995 0.995 0.995 0.996 0.996 0.996 0.996 0.997
1.8 0.997 0.997 0.997 0.998 0.998 0.998 0.998 0.998 0.998 0.998
1.9 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.999 0.999
2 0.999 0.999 0.999 0.999 1.000 1.000 1.000 1.000 1.000 1.000
2.1 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
2.2 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
2.3 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
2.4 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
328 Tabele pentru principalele distribuţii
na
U0 1 2 3
0 .2500 .1000 .0500
1 .5000 .2000 .1000
2 .4000 .2000
3 .6000 .3500
4 .5000
na
U0 1 2 3 4
0 .2000 .0667 .0286 .0143
1 .4000 .1333 .0571 .0286
2 .6000 .2667 .1143 .0571
3 .4000 .2000 .1000
4 .6000 .3143 .1714
5 .4286 .2429
6 .5714 .3429
7 .4429
8 .5571
330 Tabele pentru principalele distribuţii
na
U0 1 2 3 4 5
0 .1667 .0476 .0179 .0079 .0040
1 .3333 .0952 .0357 .0159 .0079
2 .5000 .1905 .0714 .0317 .0159
3 .2857 .1250 .0556 .0278
4 .4286 .1964 .0952 .0476
5 .5714 .2857 .1429 .0754
6 .3929 .2063 .1111
7 .5000 .2778 .1548
8 .3651 .2103
9 .4524 .2738
10 .5476 .3452
11 .4206
12 .5000
na
U0 1 2 3 4 5 6
0 .1429 .0357 .0119 .0048 .0022 .0011
1 .2857 .0714 .0238 .0095 .0043 .0022
2 .4286 .1429 .0476 .0190 .0087 .0043
3 .5714 .2143 .0833 .0333 .0152 .0076
4 .3214 .1310 .0571 .0260 .0130
5 .4286 .1905 .0857 .0411 .0206
6 .5714 .2738 .1286 .0628 .0325
7 .3571 .1762 .0887 .0465
8 .4524 .2381 .1234 .0660
9 .5476 .3048 .1645 .0898
10 .3810 .2143 .1201
11 .4571 .2684 .1548
12 .5429 .3312 .1970
13 .3961 .2424
14 .4654 .2944
15 .5346 .3496
16 .4091
continuare pe pagina următoare. . .
331
na
U0 1 2 3 4 5 6 7
0 .1250 .0278 .0083 .0030 .0013 .0006 .0003
1 .2500 .0556 .0167 .0061 .0025 .0012 .0006
2 .3750 .1111 .0333 .0121 .0051 .0023 .0012
3 .5000 .1667 .0583 .0212 .0088 .0041 .0020
4 .2500 .0917 .0364 .0152 .0070 .0035
5 .3333 .1333 .0545 .0240 .0111 .0055
6 .4444 .1917 .0818 .0366 .0175 .0087
7 .5556 .2583 .1152 .0530 .0256 .0131
8 .3333 .1576 .0745 .0367 .0189
9 .4167 .2061 .1010 .0507 .0265
10 .5000 .2636 .1338 .0688 .0364
11 .3242 .1717 .0903 .0487
12 .3939 .2159 .1171 .0641
13 .4636 .2652 .1474 .0825
14 .5364 .3194 .1830 .1043
15 .3775 .2226 .1297
16 .4381 .2669 .1588
17 .5000 .3141 .1914
18 .3654 .2279
19 .4178 .2675
20 .4726 .3100
21 .5274 .3552
22 .4024
23 .4508
24 .5000
332 Tabele pentru principalele distribuţii
na
U0 1 2 3 4 5 6 7 8
0 .1111 .0222 .0061 .0020 .0008 .0003 .0002 .0001
1 .2222 .0444 .0121 .0040 .0016 .0007 .0003 .0002
2 .3333 .0889 .0242 .0081 .0031 .0013 .0006 .0003
3 .4444 .1333 .0424 .0141 .0054 .0023 .0011 .0005
4 .5556 .2000 .0667 .0242 .0093 .0040 .0019 .0009
5 .2667 .0970 .0364 .0148 .0063 .0030 .0015
6 .3556 .1394 .0545 .0225 .0100 .0047 .0023
7 .4444 .1879 .0768 .0326 .0147 .0070 .0035
8 .5556 .2485 .1071 .0466 .0213 .0103 .0052
9 .3152 .1414 .0637 .0296 .0145 .0074
10 .3879 .1838 .0855 .0406 .0200 .0103
11 .4606 .2303 .1111 .0539 .0270 .0141
12 .5394 .2848 .1422 .0709 .0361 .0190
13 .3414 .1772 .0906 .0469 .0249
14 .4040 .2176 .1142 .0603 .0325
15 .4667 .2618 .1412 .0760 .0415
16 .5333 .3108 .1725 .0946 .0524
17 .3621 .2068 .1159 .0652
18 .4165 .2454 .1405 .0803
19 .4716 .2864 .1678 .0974
20 .5284 .3310 .1984 .1172
21 .3773 .2317 .1393
22 .4259 .2679 .1641
23 .4749 .3063 .1911
24 .5251 .3472 .2209
25 .3894 .2527
26 .4333 .2869
27 .4775 .3227
28 .5225 .3605
29 .3992
30 .4392
31 .4796
32 .5204
333
na
U0 1 2 3 4 5 6 7 8 9
0 .1000 .0182 .0045 .0014 .0005 .0002 .0001 .0000 .0000
1 .2000 .0364 .0091 .0028 .0010 .0004 .0002 .0001 .0000
2 .3000 .0727 .0182 .0056 .0020 .0008 .0003 .0002 .0001
3 .4000 .1091 .0318 .0098 .0035 .0014 .0006 .0003 .0001
4 .5000 .1636 .0500 .0168 .0060 .0024 .0010 .0005 .0002
5 .2182 .0727 .0252 .0095 .0038 .0017 .0008 .0004
6 .2909 .1045 .0378 .0145 .0060 .0026 .0012 .0006
7 .3636 .1409 .0531 .0210 .0088 .0039 .0019 .0009
8 .4545 .1864 .0741 .0300 .0128 .0058 .0028 .0014
9 .5455 .2409 .0993 .0415 .0180 .0082 .0039 .0020
10 .3000 .1301 .0559 .0248 .0115 .0056 .0028
11 .3636 .1650 .0734 .0332 .0156 .0076 .0039
12 .4318 .2070 .0949 .0440 .0209 .0103 .0053
13 .5000 .2517 .1199 .0567 .0274 .0137 .0071
14 .3021 .1489 .0723 .0356 .0180 .0094
15 .3552 .1818 .0905 .0454 .0232 .0122
16 .4126 .2188 .1119 .0571 .0296 .0157
17 .4699 .2592 .1361 .0708 .0372 .0200
18 .5301 .3032 .1638 .0869 .0464 .0252
19 .3497 .1942 .1052 .0570 .0313
20 .3986 .2280 .1261 .0694 .0385
21 .4491 .2643 .1496 .0836 .0470
22 .5000 .3035 .1755 .0998 .0567
23 .3445 .2039 .1179 .0680
24 .3878 .2349 .1383 .0807
25 .4320 .2680 .1606 .0951
26 .4773 .3032 .1852 .1112
27 .5227 .3403 .2117 .1290
28 .3788 .2404 .1487
29 .4185 .2707 .1701
30 .4591 .3029 .1933
31 .5000 .3365 .2181
32 .3715 .2447
33 .4074 .2729
34 .4442 .3024
continuare pe pagina următoare. . .
334 Tabele pentru principalele distribuţii
na
U0 1 2 3 4 5 6 7 8 9 10
0 .0909 .0152 .0035 .0010 .0003 .0001 .0001 .0000 .0000 .0000
1 .1818 .0303 .0070 .0020 .0007 .0002 .0001 .0000 .0000 .0000
2 .2727 .0606 .0140 .0040 .0013 .0005 .0002 .0001 .0000 .0000
3 .3636 .0909 .0245 .0070 .0023 .0009 .0004 .0002 .0001 .0000
4 .4545 .1364 .0385 .0120 .0040 .0015 .0006 .0003 .0001 .0001
5 .5455 .1818 .0559 .0180 .0063 .0024 .0010 .0004 .0002 .0001
6 .2424 .0804 .0270 .0097 .0037 .0015 .0007 .0003 .0002
7 .3030 .1084 .0380 .0140 .0055 .0023 .0010 .0005 .0002
8 .3788 .1434 .0529 .0200 .0080 .0034 .0015 .0007 .0004
9 .4545 .1853 .0709 .0276 .0112 .0048 .0022 .0011 .0005
10 .5455 .2343 .0939 .0376 .0156 .0068 .0031 .0015 .0008
11 .2867 .1199 .0496 .0210 .0093 .0043 .0021 .0010
12 .3462 .1518 .0646 .0280 .0125 .0058 .0028 .0014
13 .4056 .1868 .0823 .0363 .0165 .0078 .0038 .0019
14 .4685 .2268 .1032 .0467 .0215 .0103 .0051 .0026
15 .5315 .2697 .1272 .0589 .0277 .0133 .0066 .0034
16 .3177 .1548 .0736 .0351 .0171 .0086 .0045
17 .3666 .1855 .0903 .0439 .0217 .0110 .0057
18 .4196 .2198 .1099 .0544 .0273 .0140 .0073
19 .4725 .2567 .1317 .0665 .0338 .0175 .0093
20 .5275 .2970 .1566 .0806 .0416 .0217 .0116
21 .3393 .1838 .0966 .0506 .0267 .0144
22 .3839 .2139 .1148 .0610 .0326 .0177
23 .4296 .2461 .1349 .0729 .0394 .0216
24 .4765 .2811 .1574 .0864 .0474 .0262
continuare pe pagina următoare. . .
335
n1 n2 2 3 4 5 6 7 8 9 10
2 3 0.200 0.500 0.900 1.000
2 4 0.133 0.400 0.800 1.000
2 5 0.095 0.333 0.714 1.000
2 6 0.071 0.286 0.643 1.000
2 7 0.056 0.250 0.583 1.000
2 8 0.044 0.222 0.533 1.000
2 9 0.036 0.200 0.491 1.000
2 10 0.030 0.182 0.455 1.000
3 3 0.100 0.300 0.700 0.900 1.000
3 4 0.057 0.200 0.543 0.800 0.971 1.000
3 5 0.036 0.143 0.429 0.714 0.929 1.000
3 6 0.024 0.107 0.345 0.643 0.881 1.000
3 7 0.017 0.083 0.283 0.583 0.833 1.000
3 8 0.012 0.067 0.236 0.533 0.788 1.000
3 9 0.009 0.055 0.200 0.491 0.745 1.000
3 10 0.007 0.045 0.171 0.455 0.706 1.000
4 4 0.029 0.114 0.371 0.629 0.886 0.971 1.000
4 5 0.016 0.071 0.262 0.500 0.786 0.929 0.992 1.000
4 6 0.010 0.048 0.190 0.405 0.690 0.881 0.976 1.000
4 7 0.006 0.033 0.142 0.333 0.606 0.833 0.955 1.000
4 8 0.004 0.024 0.109 0.279 0.533 0.788 0.929 1.000
4 9 0.003 0.018 0.085 0.236 0.471 0.745 0.902 1.000
4 10 0.002 0.014 0.068 0.203 0.419 0.706 0.874 1.000
5 5 0.008 0.040 0.167 0.357 0.643 0.833 0.960 0.992 1.000
5 6 0.004 0.024 0.110 0.262 0.522 0.738 0.911 0.976 0.998
5 7 0.003 0.015 0.076 0.197 0.424 0.652 0.854 0.955 0.992
5 8 0.002 0.010 0.054 0.152 0.347 0.576 0.793 0.929 0.984
5 9 0.001 0.007 0.039 0.119 0.287 0.510 0.734 0.902 0.972
5 10 0.001 0.005 0.029 0.095 0.239 0.455 0.678 0.874 0.958
6 6 0.002 0.013 0.067 0.175 0.392 0.608 0.825 0.933 0.987
6 7 0.001 0.008 0.043 0.121 0.296 0.500 0.733 0.879 0.966
6 8 0.001 0.005 0.028 0.086 0.226 0.413 0.646 0.821 0.937
6 9 0.000 0.003 0.019 0.063 0.175 0.343 0.566 0.762 0.902
6 10 0.000 0.002 0.013 0.047 0.137 0.287 0.497 0.706 0.864
7 7 0.001 0.004 0.025 0.078 0.209 0.383 0.617 0.791 0.922
continuare pe pagina următoare. . .
337
n1 n2 11 12 13 14 15 16 17 18 19 20
5 6 1.000
5 7 1.000
5 8 1.000
5 9 1.000
5 10 1.000
6 6 0.998 1.000
6 7 0.992 0.999 1.000
6 8 0.984 0.998 1.000
6 9 0.972 0.994 1.000
6 10 0.958 0.990 1.000
7 7 0.975 0.996 0.999 1.000
7 8 0.949 0.988 0.998 1.000 1.000
7 9 0.916 0.975 0.994 0.999 1.000
7 10 0.879 0.957 0.990 0.998 1.000
8 8 0.900 0.968 0.991 0.999 1.000 1.000
8 9 0.843 0.939 0.980 0.996 0.999 1.000 1.000
8 10 0.782 0.903 0.964 0.990 0.998 1.000 1.000
9 9 0.762 0.891 0.956 0.988 0.997 1.000 1.000 1.000
9 10 0.681 0.834 0.923 0.974 0.992 0.999 1.000 1.000 1.000
10 10 0.586 0.758 0.872 0.949 0.981 0.996 0.999 1.000 1.000 1.000
338 Tabele pentru principalele distribuţii
α α
n 0.05 0.025 0.01 0.005 n 0.05 0.025 0.01 0.005
0.1 0.05 0.02 0.01 0.1 0.05 0.02 0.01
5 1 28 130 117 102 92
6 2 1 29 141 127 111 100
7 4 2 0 30 152 137 120 109
8 6 4 2 0 31 163 148 130 118
9 8 6 3 2 32 175 159 141 128
10 11 8 5 3 32 188 171 151 138
11 14 11 7 5 34 201 183 162 149
12 17 14 10 7 35 214 195 174 160
13 21 17 13 10 36 228 208 186 171
14 26 21 16 13 37 242 222 198 183
15 30 25 20 16 38 256 235 211 195
16 36 30 24 19 39 271 250 224 208
17 41 35 28 23 40 287 264 238 221
18 47 40 33 28 41 303 279 252 234
19 54 46 38 32 42 319 295 267 248
20 60 52 43 37 43 336 311 281 262
21 68 59 49 43 44 353 327 297 277
22 75 66 56 49 45 371 344 313 292
23 83 73 62 55 46 389 361 329 307
24 92 81 69 68 47 408 379 345 323
25 101 90 77 68 48 427 397 362 339
26 110 98 85 76 49 446 415 380 356
27 120 107 93 84 50 466 380 398 373
339
341
342 BIBLIOGRAFIE