Sunteți pe pagina 1din 34

2 Modelul unifactorial de regresie liniară

2.1 Ajustarea liniei de regresie.


Metoda celor mai mici pătrate (MCMMP)
Fie Xt , Yt , t = 1, n, un set de n valori (empirice, observate) ale va-
riabilelor X şi Y (asociate unui proces economic), obţinut ca rezultat al
unui sondaj sau al unei experienţe (tabelul 2.1). Perechile (Xt , Yt ) pot fi
reprezentate prin puncte ale planului XOY (figura 2.1).

Tabelul 2.1
t Xt Yt
1 X1 Y1
2 X2 Y2
··· ··· ···
t Xt Yt
··· ··· ···
n Xn Yn

Figura 2.1
Se cere să alegem (ajustăm) din familia parametrică de funcţii f (X, β)
acea funcţie Y = f (X) care ,,cel mai bine” descrie dependenţa dintre vari-
abilele Y şi X. Aceasta se reduce la determinarea celor mai ,,bune” valori
ale parametrilor (parametrului) β. Drept exemplu de familie parametrică
de funcţii poate servi familia de funcţii liniare f (X, β) = a + bX, sau
oricare dintre familiile de funcţii: f (X, β) = β0 + β1 X + β2 X 2 ; f (X, β) =
b
a+ ; f (X, β) = aX b ; f (X, β) = abX ; f (X, β) = β0 +β1 X+β2 X 2 +β3 X 3
X
etc.
Fie Yt – valoarea dată (observată) a variabilei Y corespunzătoare va-
lorii Xt a variabilei X, f (Xt , β) – valoarea calculată a variabilei Y cores-
punzătoare valorii Xt a variabilei X, iar Yt − f (Xt , β) – devierea valorii
calculate f (Xt , β) de la valoarea dată Yt a variabilei Y (figura 2.1).
În calitate de măsură a abaterii funcţiei f (X, β) de la valorile em-
pirice date Yt , t = 1, n, ale variabilei Y , este comod să considerăm suma
pătratelor devierilor:
Xn
2
F (β) = (Yt − f (Xt , β)) .
i=1

61
În acest compartiment vom analiza detaliat doar cazul familiei de
funcţii liniare f (X, β) = a + bX (β = (a, b)′ ). Pentru ı̂nceput vom deter-
mina funcţia liniară f (X) = b a + bbX, ce aproximează ,,cel mai bine” setul
de valori Xt , Yt , t = 1, n, ı̂n sensul minimizării funcţiei (ı̂n raport cu a şi
b)
Xn Xn
2 2
F (a, b) = (Yt − f (Xt , β)) = (Yt − a − bXt ) . (2.1)
t=1 t=1
Pentru aceasta scriem condiţiile necesare de extrem pentru funcţia
F (a, b):

P
n
 ∂F (a, b) = −2 (Yt − a − bXt ) = 0,



 ∂a t=1


 ∂F (a, b) Pn


 = −2 (Yt − a − bXt ) Xt = 0,
∂b t=1

sau sistemul echivalent


 Pn

 (Yt − a − bXt ) = 0,

 t=1
(2.2)

 P
n

 (Yt − a − bXt ) Xt = 0.
t=1

În sistemul (2.2) deschidem parantezele şi obţinem forma standard a


sistemului de ecuaţii liniare:
 Pn Pn

 an + b X = Yt ,

 t=1
t
t=1
(2.3)

 P
n P n P n

 a X +b X =2
XY.
t t t t
t=1 t=1 t=1
 
Determinăm soluţia ba, bb a sistemului (2.3):
P
n P
n P
n
n Xt Yt − Xt · Yt
bb = t=1 t=1 t=1 XY − X Y
 2 = 2 , (2.4)
P
n P
n
X2 − X
n Xt2 − Xt
t=1 t=1
n n
1X 1X
b
a= Yt − bb Xt = Y − bb X, (2.5)
n t=1 n t=1

62
1 P n 1 P n 1 P n 1 Pn
unde X = Xt , Y = Yt , X 2 = Xt2 , XY = Xt Yt . Se
n t=1 n t=1 n t=1 n t=1
presupune aici că printre numerele Xt , t = 1, n, există numere diferite,
 n 2
Pn
2
P
adică n Xt − Xt 6= 0 şi, deci, relaţia (2.4) are sens. De aseme-
t=1 t=1  
nea, poate fi verificat că punctul staţionar b a, bb este punct de minim
local pentru funcţia F (a, b).
Ca rezultat obţinem funcţia

a + bbX
f (X) = b

şi, respectiv, ecuaţia dreptei de regresie Y = b a + bbX.


Formulele (2.4) şi (2.5) se numesc estimatori ai parametrilor a şi b,
iar numerele concrete b a şi bb – estimaţii ale parametrilor a şi b, respectiv.
Metoda expusă mai sus, de determinare a estimatorilor (2.4) şi (2.5) (cât
a şi bb), poartă denumirea de metoda celor mai mici
şi a estimaţiilor b
pătrate.
În continuare, vom nota cu Ybt = b a + bbXt valoarea estimată a variabilei
Y corespunzătoare valorii Xt a variabilei X, iar cu et = Yt − Ybt = Yt − b a−
bbXt – abaterea (reziduul, devierea) valorii estimate Ybt de la valoarea dată
Yt a variabilei Y (figura 2.3). Deoarece estimaţiile b a şi bb reprezintă soluţia
sistemului (2.2), rezultă că reziduurile et verifică sistemul de egalităţi:
 P
n

 et = 0,
t=1
P
n (2.6)

 et Xt = 0.
t=1

Din (2.5) rezultă că

a + bb X,
Y =b

adică dreapta de ecuaţia Y = b a + bbX, obţinută ca rezultat


 al minimizării
funcţiei (2.1), conţine punctul cu coordonatele X, Y .
Adesea este comod să fie utilizate şi alte formule pentru determinarea
estimaţiei parametrului b. Notăm cu xt = Xt − X, yt = Yt − Y , t =
1, n, valorile centrate ale variabilelor X şi Y , respectiv. Observăm că
Pn P
n
xt = yt = 0. Amintim că, covarianţa de selecţie a variabilelor X
t=1 t=1
şi Y , varianţa de selecţie a variabilei X, abaterea medie pătratică de

63
selecţie a variabilei X şi coeficientul de corelaţie de selecţie al vari-
abilelor X şi Y se calculează conform formulelor:
n n
1X 1X  
Cov(X, Y ) = xt yt = Xt − X Yt − Y =
n t=1 n t=1
n
1X
Xt Yt − X Y = XY − X Y ,
n t=1
n n n
1X 2 1X 2 1X 2 2 2
V ar(X) = xt = Xt − X = X − X = X2 − X ,
n t=1 n t=1 n t=1 t
v
u n
p u1 X
sX = V ar(X) = t x2 ,
n t=1 t
P
n
xt yt
Cov(X, Y )
r(X, Y ) = = s t=1 s .
sX · sY P
n Pn
2
xt · 2
yt
t=1 t=1

Utilizând mărimile indicate mai sus şi formula (2.4), pentru determinarea
estimaţiei bb obţinem şi următoarele formule:
P
n
xt yt
bb = Cov(X, Y ) = t=1 sY
= r(X, Y ) . (2.7)
V ar(X) Pn
sX
x2t
t=1

Vom prezenta interpretarea geometrică a metodei celor mai mici pă-


trate. Fie
       
X1 Y1 1 e1
 X2   Y2  1  e2 
x=       
 · · · , y = · · ·, i = · · ·, e = · · ·
Xn Yn 1 en
vectori ı̂n spaţiul euclidian n-dimensional Rn , cu produsul scalar:
Xn
x·y = Xt Yt ,
t=1

care, adesea, considerând că vectorii sunt matrice-coloană, va fi scris ı̂n


formă matriceală x′ y, unde x′ este matricea transpusă.

64
Vom considera, de asemenea, vectorii
b = ai + bx,
y b,
e=y−y
unde a şi b sunt coeficienţi numerici nedeterminaţi, iar y b este vector ı̂n
hiperplanul π, determinat de vectorii necoliniari i şi x. Se cere să se deter-
mine valorile ba şi bb ale coeficienţilor a şi b, astfel ı̂ncât modulul vectorului
e să fie minimal. Altfel spus, se cere să se determine vectorul y b ı̂n hiper-
planul π, care aproximează cel mai bine vectorul y. Soluţie a problemei
este un aşa vector y b , pentru care vectorul e este ortogonal hiperplanului
π (figura 2.2). Vectorul e⊥π dacă şi numai dacă e⊥i şi e⊥x, adică
 Pn Pn  

 i′ e = 0 ⇔ et = 0 ⇔ Yt − b a − bbXt = 0,
t=1 t=1  
Pn Pn (2.8)

 xe=0⇔

Xt et = 0 ⇔ Xt Yt − b a − bbXt = 0.
t=1 t=1

Ca rezultat obţinem din nou relaţiile (2.6) şi, respectiv, condiţiile de ex-
trem (2.2).

Figura 2.2
În cele ce urmează vom stabili forma matriceală a estimatorilor (2.4),
(2.5). Considerăm următoarele notaţii:
    b   
1 X1 Y1 Y1 e1
 1 X2   Y2   Yb2   e2 
X=    b =  , e =  ,
· · · · · · , y = . . . , y . . .  · · · 
1 Xn Yn b
Yn en
   
β=
a
, β b= ba
b bb .

65
b = Xβ şi, deci:
Utilizând aceste notaţii, obţinem y

b = y − Xβ.
e=y−y

Condiţiile (2.8), (2.6) de ortogonalitate a vectorului e cu hiperplanul π


pot fi scrise ı̂n forma

X′ e = 0 ⇔ X′ (y − Xβ) = X′ y − X′ Xβ = 0 ⇔ X′ Xβ = X′ y.

Din presupunerea că vectorii i şi x sunt liniar independenţi rezultă că
matricea X′ X este inversabilă. Înmulţind la stânga ultima egalitate la
inversa matricei X′ X, obţinem estimaţia vectorului β:
b = (X′ X)−1 X′ y.
β (2.9)

Poate fi uşor verificat că egalitatea matriceală (2.9) este echivalentă


egalităţilor (2.4) şi (2.5).

2.2 Ipotezele fundamentale ale metodei celor mai


mici pătrate. Teorema Gauss-Marcov
2.2.1 Ipotezele fundamentale ale metodei celor mai mici
pătrate
Mai sus am examinat numai modul de determinare a estimaţiilor
coeficienţilor a şi b. Acum vom adăuga la punerea problemei unele pro-
prietăţi statistice ale datelor.
În realitate, pentru una şi aceeaşi valoare Xt a variabilei X pot fi
observate valori diferite ale variabilei Y , adică mărimea Yt are caracter
aleator.
Scriem ecuaţia dependenţei lui Yt de Xt ı̂n forma:

Yt = a + bXt + εt , t = 1, . . . , n,

unde Xt este variabilă deterministă, Yt şi εt sunt variabile aleatoare,


Yt este variabilă endogenă (dependentă), Xt este variabilă exogenă
(independentă), numită adesea regresor, iar a şi b sunt coeficienţi de
regresie. Ecuaţia de mai sus se numeşte ecuaţie de regresie.
Prezenţa variabilei aleatoare εt ı̂n ecuaţia de regresie este specifică
dependenţelor de natură statistică. Apariţia ei ı̂n model poate fi condiţi-
onată de următoarele cauze: a) modelul este o simplificare a fenomenului
studiat şi, ı̂n realitate, mai sunt şi alţi factori – variabile omise, de care

66
depinde variabila Y ; b) apar dificultăţi ı̂n măsurarea datelor, ce implică
erori ı̂n măsurări. Variabilele aleatoare εt , t = 1, n, se numesc pertur-
baţii sau erori (aleatoare).
Astfel, poate fi considerat că εt este variabilă aleatoare cu o careva
funcţie de repartiţie, căreia ı̂i corespunde funcţia de repartiţie a variabilei
aleatoare Yt , deoarece Yt se exprimă liniar prin εt (figura 2.3).

Figura 2.3
Modelul econometric unifactorial de regresie liniară se construieşte
prin metoda celor mai mici pătrate ı̂n presupunerea că se ı̂ndeplinesc
următoarele ipoteze fundamentale:
1. Modelul specifică o relaţie liniară ı̂ntre varabilele X şi Y

Yt = a + bXt + εt , t = 1, n. (2.10)

2. X este variabilă deterministă; vectorul (X1 , X2 , . . . , Xn )′ nu este



coliniar vectorului i = (1, 1, . . . , 1) .
3a. E(εt ) = 0, E(εt ) = V (εt ) = σ 2 , t = 1, n. Prima egalitate
2

ı̂nseamnă că valoarea medie (speranţa matematică)2 a oricărei perturbaţii


(variabile aleatoare) εt este nulă, iar E(Yt ) = a + bXt . Egalitatea a doua
presupune că toate perturbaţiile εt , t = 1, n, au una şi aceeaşi varianţă
2 Pentru valoarea medie (speranţa matematică) a variabilei aleatoare W sunt uti-
lizate notaţiile E(W ) sau M (W ), iar pentru varianţa (dispersia) ei – notaţiile V (W )
sau D(W ).

67
(dispersie) σ 2 , adică varianţa perturbaţiei εt nu depinde de numărul ob-
servării (de regresorul Xt ). Ultima proprietate se numeşte homosce-
dasticitate şi se spune că perturbaţiile sunt homoscedastice. În caz
contrar, se spune că perturbaţiile sunt heteroscedastice.
În figura 2.4. este prezentată repartizarea punctelor cu coordonatele
(Xt , Yt ) ı̂n planul XOY ı̂n cazul unui model cu erori homoscedastice, iar
ı̂n figura 2.5 – ı̂n cazul unui model cu erori heteroscedastice.

Figura 2.4 Figura 2.5


3b. E(εt εs ) = 0 pentru t 6= s, adică perturbaţiile (variabilele aleatoa-
re) εt sunt independente două câte două. Deoarece
Cov(εt , εs ) = E((εt − E(εt ))(εs − E(εs ))) = E(εt εs ) = 0,
rezultă că perturbaţiile εt la observări diferite sunt necorelate. Dacă ipo-
teza 3b nu este ı̂ndeplinită, atunci se spune că perturbaţiile (erorile) sunt
autocorelate, iar modelul este cu erori autocorelate.
Condiţiile (ipotezele) 3a şi 3b pot fi scrise şi ı̂n termenii variabilei
dependente:
E(Yt ) = a + bXt , V (Yt ) = σ 2 , Cov(Yt , Ys ) = 0, t 6= s. (2.11)
Din prima egalitate (2.11) rezultă că E(yt ) = bxt . Verificaţi.
3c. Perturbaţiile εt , t = 1, n, au aceeaşi repartiţie normală cu valoarea
medie 0 şi varianţa σ 2 , adică εt ∼ N (0, σ 2 ).
Dacă sunt ı̂ndeplinite toate ipotezele enunţate mai sus, atunci modelul
(2.10) se numeşte model clasic normal de regresie liniară.

2.2.2 Teorema Gauss-Marcov


Teorema Gauss-Marcov. Dacă sunt satisfăcute ipotezele:
1. Yt = a + bXt + εt , t = 1, n;
2. Xt , t = 1, n, este variabilă deterministă; ∃Xi 6= Xs , i 6= s;

68
3a. E(εt ) = 0, E(ε2t ) = V (εt ) = σ 2 , t = 1, n;
3b. E(εt εs ) = 0 pentru t 6= s,
atunci estimatorii b a, bb (2.5), (2.4), (2.7), obţinuţi prin metoda celor mai
mici pătrate, au cea mai mică varianţă ı̂n clasa tuturor estimatorilor liniari
nedeplasaţi.
Demonstraţie. Vom arăta mai ı̂ntâi că estimatorii b a, bb sunt estima-
tori nedeplasaţi ai coeficienţilor a şi b. Din (2.4), (2.7) şi (2.5) obţinem:
 n 
P Pn Pn
xt yt xt E(yt ) xt bxt
 t=1  t=1
E(bb) = E  P n
=
 P
n = t=1
Pn = b,
x2t x2t x2t
t=1 t=1 t=1
 
E(ba) = E Y − bb X = E(Y ) − XE(bb) = a + bX − Xb = a.

Deci E(b a) = a, E(bb) = b, ceea ce ı̂nseamnă că estimatorii b a, bb sunt


nedeplasaţi.
a şi bb. Mai ı̂ntâi
În continuare vom calcula varianţele estimatorilor b
b
prezentăm estimatorul b ı̂n forma:
P
n
xt yt Xn
bb = t=1 xt
Pn = wt yt , unde wt = P
n . (2.12)
x2t t=1 x2t
t=1 t=1

Se demonstrează uşor că wt verifică următoarele relaţii:


P
n
1) wt = 0,
t=1
Pn P
n
2) wt xt = wt Xt = 1,
t=1 t=1
Pn 1 (2.13)
3) wt2 = P
n ,
t=1
x2t
t=1
P
n P
n
4) wt yt = wt Yt .
t=1 t=1

a, bb pot fi prezentaţi ı̂n forma


În baza proprietăţilor (2.13), estimatorii b
n n n  
b 1X X X 1
b
a =Y − bX = Yt − X wt Yt = − Xwt Yt =
n t=1 t=1 t=1
n

69
n 
X  n
X
1
− Xwt (a + bXt + εt ) = a(1 − X wt )+
t=1
n t=1
n n
! n  
1X X X 1
b Xt − X wt Xt + − Xwt εt =
n t=1 t=1 t=1
n
Xn  
1
a+ − Xwt εt , (2.14)
t=1
n
n
X n
X n
X
bb = wt yt = wt Yt = wt (a + bXt + εt ) =
t=1 t=1 t=1
Xn Xn Xn n
X
a wt + b wt Xt + wt εt = b + wt εt , (2.15)
t=1 t=1 t=1 t=1

ceea ce ı̂nseamnă că estimatorii b a, bb sunt funcţii liniare ı̂n raport cu vari-
abilele aleatoare Yt , adică şi ı̂n raport cu variabilele aleatoare εt .
Utilizând relaţiile (2.14), (2.15) şi proprietăţile (2.13) pentru varianţele
estimatorilor b a şi bb, obţinem, respectiv

X n   ! X n  2
1 1
V (b
a) =V − Xwt Yt = − Xwt V (Yt ) =
t=1
n t=1
n
 
2
P
n
n
X 1   2 2 σ Xt2

21 X 
σ 2
− Xwt =σ  + P  t=1
n n n = Pn , (2.16)
t=1 x2t n x2t
t=1 t=1
n
! n n
X X X σ2
V (bb) =V wt Yt = wt2 V (Yt ) = σ 2 wt2 = Pn . (2.17)
t=1 t=1 t=1 x2t
t=1

De asemenea, poate fi arătat că

σ2 X
a, bb) = − P
Cov(b n . (2.18)
x2t
t=1

Vom demonstra acum că estimatorul bb obţinut prin metoda celor mai
mici pătrate are cea mai mică varianţă ı̂n clasa tuturor estimatorilor liniari
nedeplasaţi ai parametrului b.

70
P
n
Fie eb = ct Yt – un alt estimator liniar nedeplasat al parametrului b.
t=1
Reprezentăm ct ı̂n forma ct = wt + dt . Atunci

E(eb − bb) =E(eb) − E(bb) = b − b = 0,


n n
! n
!
X X X
e b
E(b − b) =E ct Yt − wt Yt = E dt Yt =
t=1 t=1 t=1
n
! n
X X
E dt (a + bXt + εt ) = dt (a + bXt + V (εt )) =
t=1 t=1
n
X n
X Xn
dt (a + bXt ) = a dt + b dt Xt .
t=1 t=1 t=1

P
n P
n
Din ultimile două relaţii rezultă că a dt + b dt Xt = 0 pentru orice
t=1 t=1
Pn P
n P
n
valori ale parametrilor a şi b, şi atunci dt = 0, dt Xt = dt xt = 0.
t=1 t=1 t=1
Ţinând cont de ultima egalitate, pentru varianţa estimatorului eb se
obţine
n
! n n n
X X X X
e
V (b) =V ct Yt = c2t V (Yt ) = c2t σ 2 = σ 2 c2t =
t=1 t=1 t=1 t=1
 
P
n
n
X n 2 xt dt n
X X 
σ2 (wt + dt )2 = σ 2 
 wt2 + t=1
P
n + d2t 
=
t=1 t=1 x2t t=1
t=1
n
X n
X n
X
σ2 wt2 + σ 2 d2t = V (bb) + σ 2 d2t .
t=1 t=1 t=1

Deci V (eb) ≥ V (bb), adică estimatorul bb are cea mai mică varianţă ı̂n
clasa tuturor estimatorilor liniari nedeplasaţi.
Analog se arată că V (e
a) ≥ V (ba).

2.2.3 Estimarea varianţei erorilor σ 2


Vom nota cu Ybt = ba + bbXt valoarea calculată (prognoza) a variabilei Y
corespunzătoare valorii Xt a variabilei X. Abaterile (reziduurile) regresiei
a + bbXt + et . Deci
et , t = 1, n, se determină din ecuaţiile Yt = Ybt + et = b

71
et = Yt − Ybt = Yt − b a − bbXt (figura 2.3). Reziduurile et , ca şi erorile
(perturbaţiile) εt , sunt variabile aleatoare. Reziduurile et pot fi observate
(calculate), spre deosebire  nde erorile
 εt .
P 2
Poate fi arătat că E et = (n − 2)σ 2 . Din această relaţie rezultă
t=1
că
P
n
e2t
2 2 t=1 Q2
b =
s =σ = (2.19)
n−2 n−2
P 2
este estimator nedeplasat al varianţei erorilor, unde Q2 = et .
Relaţiile (2.16) şi (2.17) permit să calculăm varianţele estimatorilor
a şi bb ai coeficienţilor regresiei ı̂n cazul când se cunoaşte varianţa erori-
b
lor σ 2 . În practică, varianţa erorilor σ 2 nu se cunoaşte. În acest caz, ı̂n
loc de varianţele estimatorilor b a şi bb se obţin doar estimaţiile varianţelor
estimatorilor b a şi bb, ı̂nlocuind σ 2 cu s2 ı̂n (2.16) şi (2.17), adică
 
2
1 X  2 2
Vb (b
a) = s2  + d a, bb) = − s X . (2.20)
 , Vb (bb) = s , Cov(b
n P 2
n  P 2
n P 2
n
xt xt xt
t=1 t=1 t=1

Abaterile standard ale estimaţiilor coeficienţilor regresiei se calculează


conform formulelor
q q
sba = Vb (ba); sbb = Vb (bb).
P
n
Remarcă. Din (2.17) se observă că, dacă suma x2t se măreşte,
t=1
atunci varianţa V (bb) se micşorează. Din aceste considerente, valorile Xt
P
n
ale variabilei X trebuie alese astfel ı̂ncât suma abaterilor de la medie x2t
t=1
să fie suficient de mare. Din acelaşi motiv se ia, de regulă, n ≥ 10.
Exemplul 2.1. În tabelul 2.2. sunt prezentate cheltuielile pentru
consumul agregat Y şi venitul agregat disponibil X ı̂ntr-o economie naţi-
onală pe 12 ani – din 1986 până ı̂n 1997.
a) Reprezentaţi grafic dependenţa lui Y de X şi decideţi dacă există
o dependenţă liniară (aproximativă) ı̂ntre Y şi X.
a şi bb ale coeficienţilor a şi b ai modelului
b) Determinaţi estimaţiile b
de regresie liniară:
Yt = a + bXt + εt , t = 1, 12. (2.21)

72
a), Vb (bb), cov(b
c) Calculaţi s2 , Vb (b c a, bb), sba , sbb .
Tabelul 2.2
Anul t Yt Xt Anul t Yt Xt
1986 1 152 170 1992 7 177 200
1987 2 159 179 1993 8 179 207
1988 3 162 187 1994 9 184 215
1989 4 165 189 1995 10 186 216
1990 5 170 193 1996 11 190 220
1991 6 172 199 1997 12 191 225
Rezolvare. a) Considerăm sistemul cartezian de coordonate XOY ı̂n
plan. Reprezentăm perechile ordonate de numere (Xt , Yt ), t = 1, n, prin
puncte ale planului (figura 2.6). Din figură se observă că toate punctele
s-au repartizat ı̂ntr-o vecinătate a unei drepte. Aşadar, putem considera
că dependenţa ı̂ntre variabilele Y şi X este aproximativ liniară. Deci,
forma modelului poate fi presupusă liniară.

Figura 2.6
b) Pentru a determina estimaţiile b a şi bb ale coeficienţilor a şi b ai mode-
lului de regresie liniară (2.21), completăm tabelul 2.3 (până la coloniţa Ybt ),
unde xt şi yt sunt valorile centrate (abaterile de la medie) ale variabilelor
X şi Y , adică xt = Xt − X, yt = Yt − Y .
Calculăm estimaţiile bb şi b
a ale coeficienţilor b şi a:
Pn
xt yt
bb = t=1 2382, 0
Pn = = 0, 73609,
3236, 0
x2t
t=1

73
a = Y − bbX = 173, 91667 − 0, 73609 · 200 = 26, 69788.
b

Tabelul 2.3
t Yt Xt yt xt yt2 x2t
1 152,0 170 -21,91667 -30 480,34028 900,00000
2 159,0 179 -14,91667 -21 222,50694 441,00000
3 162,0 187 -11,91667 -13 142,00694 169,00000
4 165,0 189 -8,91667 -11 79,50694 121,00000
5 170,0 193 -3,91667 -7 15,34028 49,00000
6 172,0 199 -1,91667 -1 3,67361 1,00000
7 177,0 200 3,08333 0 9,50694 0,00000
8 179,0 207 5,08333 7 25,84028 49,00000
9 184,0 215 10,08333 15 101,67361 225,00000
10 186,0 216 12,08333 16 146,00694 256,00000
11 190,0 220 16,08333 20 258,67361 400,00000
12 191,0 225 17,08333 25 291,84028 625,00000
Suma 2087,0 2400 0,00000 0 1776,91667 3236,00000
Media 173,91667 200 148,07639 269,66667

Tabelul 2.3 (continuare)


t xt yt Ybt et = Yt − Ybt e2t (Ybt − Y )2
1 657,50000 151,83385 0,16615 0,02761 487,65086
2 313,25000 158,45869 0,54131 0,29301 238,94892
3 154,91667 164,34745 -2,34745 5,51050 91,57000
4 98,08333 165,81963 -0,81963 0,67180 65,56195
5 27,41667 168,76401 1,23599 1,52767 26,54988
6 1,91667 173,18057 -1,18057 1,39375 0,54183
7 0,00000 173,91667 3,08333 9,50694 0,00000
8 35,58333 179,06932 -0,06932 0,00481 26,54988
9 151,25000 184,95808 -0,95808 0,91791 121,91272
10 193,33333 185,69417 0,30583 0,09353 138,70958
11 321,66667 188,63855 1,36145 1,85356 216,73372
12 427,08333 192,31902 -1,31902 1,73980 338,64643
Suma 2382,00000 2087,00000 0,00000 23,54089 1753,37577
Media 198,50000 173,91667 1,96174 146,11465

Ca rezultat obţinem modelul estimat

Ybt = 26, 69788 + 0, 73609Xt (2.22)

şi ecuaţia dreptei de regresie Y = 26, 69788 + 0, 73609X.

74
Deoarece bb = 0, 73609 > 0, rezultă că dependenţa dintre Y şi X este
directă. Dacă X (venitul) va creşte cu 1, atunci Y (consumul) va creşte
ı̂n medie cu 0, 73609.
c) Utilizând expresia pentru Yb , completăm coloniţele rămase ale ta-
belului 2.3. Determinăm estimaţia varianţei erorilor (perturbaţiilor)
Pn
e2t
2 2 t=1 Q2 23, 54089
s =σb = = = = 2, 35409,
n−2 n−2 12 − 2
estimaţiile varianţelor estimatorilor ba şi bb, estimaţia covarianţei estimato-
rilor b b
a şi b:  
2  
1 X  2
Vb (b
a) = sb2a = s2  +  = 2, 35409 1 + 200, 0 = 29, 29493;
n P
n  12 3236, 0
xt2
t=1
s2 2, 35409
Vb (bb) = sb2b = P
n = = 0, 00072747;
3236, 0
x2t
t=1
2
d a, bb) = − s X = − 2, 35409 · 200, 0 = −0, 14549,
Cov(b P
n
3236, 0
x2t
t=1

şi abaterile standard ale estimaţiilor coeficienţilor regresiei


q p
sba = Vb (b
a) = 29, 29493 = 5, 41248;
q p
sbb = Vb (bb) = 0, 00072747 = 0, 02697. #

2.3 Proprietăţi statistice ale estimatorilor


parametrilor regresiei
Fie că perturbaţiile εt , t = 1, n, au concomitent repartiţie normală
εt ∼ N (0, σ 2 ). Deci şi Yt au concomitent repartiţie normală şi, prin ur-
mare, şi estimatorii parametrilor regresiei b a şi bb, la fel, au concomitent
repartiţie normală, deoarece ei sunt funcţii liniare (2.14), (2.15) ı̂n raport
cu variabilele aleatoare Yt :
   
Pn
σ2 Xt2
   2 
ba∼N a, t=1  , bb ∼ N b, σ  . (2.23)
 P 2 
n  P  n
n xt x2t
t=1 t=1

75
De asemenea, poate fi arătat că, ı̂n cazul modelului normal de regresie
(n − 2)s2
liniară, variabila aleatoare are repartiţie χ2 cu (n − 2) grade de
σ2
libertate:
(n − 2)s2
∼ χ2 (n − 2). (2.24)
σ2
  σ2
Din (2.23) rezultă că bb − b ∼ N 0, σbb2 , unde σbb2 = P n . Aşadar,
x2t
t=1
bb − b
∼ N (0, 1), iar din (2.24) rezultă că
σbb
r
s 1
∼ χ2 (n − 2),
σ n−2

(bb − b)/σbb
adică, conform definiţiei statisticii Student, variabila aleatoare
s/σ
are repartiţie Student cu (n − 2) grade de libertate:

(bb − b)/σbb
tb = ∼ t(n − 2).
s/σ

Deoarece estimaţia varianţei estimatorului bb este dată de formula


s2 σb sb
Vb (bb) = sb2b = P
n , obţinem b = b , şi atunci
σ s
x2t
t=1

bb − b
tb = ∼ t(n − 2). (2.25)
sbb

Analog se demonstrează că

b
a−a
ta = ∼ t(n − 2). (2.26)
sba

2.3.1 Verificarea ipotezelor: b = b0 ; a = a0 (Testul Student)


Statistica Student (statistica t) (2.25) se utilizează pentru verificarea
ipotezei H0 : b = b0 şi a ipotezei de alternativă H1 : b 6= b0 cu pragul

76
de semnificaţie (probabilitatea riscului) α. În problemele cu caracter eco-
nomic, pragul de semnificaţie α se ia 0, 05, 0, 01 sau 0, 001. Presupunem
că este justă ipoteza H0 , atunci
bb − b0
tb = ∼ t(n − 2).
sbb
Se fixează pragul de semnificaţie α şi din tabelul repartiţiei Student se
determină valoarea critică a statisticii Student: tcrit = tα/2 (n − 2), astfel
ı̂ncât
P {−tcrit < t < tcrit } = 1 − α.
Dacă |tb | > tcrit , atunci ipoteza H0 se respinge (se acceptă ipoteza
H1 ) la pragul de semnificaţie α. În caz contrar, ipoteza H0 nu poate fi
respinsă (se acceptă ipoteza H0 ).

Figura 2.7
Astfel, la testarea ipotezei H0 : b = b0 şi a ipotezei bilaterale de
alternativă H1 : b 6= b0 cu pragul de semnificaţie α, ipoteza H0 se respinge
pentru |tb | > tcrit = tα/2 (n − 2) (figura 2.7).
La testarea ipotezei H0 : b = b0 şi a ipotezei unilaterale de alternativă
H1 : b > b0 cu pragul de semnificaţie α, ipoteza H0 se respinge pentru
tb > tcrit = tα (n − 2).
De obicei se verifică ipoteza H0 : b = 0. În acest caz, statistica t
bb
are forma tb = . Această mărime este calculată de toate pachetele de
sbb
programe econometrice. Inegalitatea |tb | > tcrit permite a concluziona
despre faptul că coeficientul b al regresiei este semnificativ diferit de ze-

77
ro la pragul de semnificaţie indicat, adică despre existenţa dependenţei
liniare ı̂ntre variabila exogenă X şi variabila endogenă Y .
În mod analog, statistica Student (2.26) se utilizează pentru verificarea
ipotezei H0 : a = a0 .

2.3.2 Intervale de ı̂ncredere ale coeficienţilor


bb − b
Rezolvând inecuaţia −tcrit < < tcrit din relaţia
sbb
( )
bb − b
P −tcrit < < tcrit = 1 − α
sbb

ı̂n raport cu coeficientul b, obţinem


n o
P bb − tcrit sbb < b < bb + tcrit sbb = 1 − α,
 
adică bb − tcrit sbb ; bb + tcrit sbb este intervalul de ı̂ncredere pentru para-
metrul b cu probabilitatea de ı̂ncredere 1 − α. Intervalul de ı̂ncredere
conţine valoarea reală a parametrului b cu probabilitatea dată 1 − α.
Analog, (b a − tcrit sba ; b a + tcrit sba ) este intervalul de ı̂ncredere pentru
parametrul a cu probabilitatea de ı̂ncredere 1 − α.

Exemplul 2.2. Se consideră regresia construită ı̂n exemplul 2.1.


a) Utilizând testul Student, verificaţi semnificaţia coeficienţilor a şi b
cu pragul se semnificaţie α = 0, 05.
b) Determinaţi intervalele de ı̂ncredere ale coeficienţilor a şi b ai re-
gresiei (2.21) cu probabilitatea de ı̂ncredere 1 − α = 0, 95.
Rezolvare. a) Calculăm valorile statisticii Student pentru coeficienţii
regresiei
bb 0, 73609 b
a 26, 69788
tb = = = 27, 29141, ta = = = 4, 93265.
sbb 0, 02697 sba 5, 41248
Din tabelul repartiţiei Student determinăm valoarea critică a statisticii
Student pentru pragul de semnificaţie α = 0, 05:

tcrit = tα/2 (n − 2) = t0,025 (12 − 2) = t0,025 (10) = 2, 228.

Verificăm ipoteza nulă H0 : b = 0 şi ipoteza bilaterală de alternativă


H1 : b 6= 0 cu pragul se semnificaţie α = 0, 05. Deoarece

78
|tb | = 27, 29141 > 2, 228 = tcrit ,
ipoteza H0 se respinge şi se acceptă ipoteza H1 . Deci coeficientul b al
regresiei (2.21) este semnificativ diferit de zero la pragul de semnificaţie
α = 0, 05 (cu probabilitatea de ı̂ncredere 1 − α = 0, 95).
Analog se verifică semnificaţia parametrului a. Verificăm ipoteza nulă
H0 : a = 0 şi ipoteza bilaterală de alternativă H1 : a 6= 0 cu pragul de
semnificaţie α = 0, 05. Deoarece
|ta | = 4, 93265 > 2, 228 = tcrit ,
ipoteza H0 se respinge şi se acceptă ipoteza H1 . Deci coeficientul a al
regresiei (2.21) este semnificativ diferit de zero la pragul de semnificaţie
α = 0, 05.
b) Determinăm intervalul de ı̂ncredere al coeficientului b:
 
b ∈ bb − tcrit sbb ; bb + tcrit sbb ,
cu probabilitatea de ı̂ncredere 1 − α.
b ∈ (0, 73609 − 2, 228 · 0, 02697; 0, 73609 + 2, 228 · 0, 02697) ⇒
b ∈ (0, 73609 − 0, 06009; 0, 73609 + 0, 06009) ⇒
b ∈ (0, 67600; 0, 79619)
cu probabilitatea de ı̂ncredere 1 − α = 0, 95.
Analog determinăm intervalul de ı̂ncredere al coeficientului a:
a − tcrit sba ; b
a ∈ (b a + tcrit sba ) ,
cu probabilitatea de ı̂ncredere 1 − α.
a ∈ (26, 69788 − 2, 228 · 5, 41248; 26, 69788 + 2, 228 · 5, 41248) ⇒
a ∈ (26, 69788 − 12, 05900; 26, 69788 + 12, 05900) ⇒
a ∈ (14, 63887; 38, 75688)
cu probabilitatea de ı̂ncredere 1 − α = 0, 95. #
Remarcă. Între intervalul de ı̂ncredere al parametrului şi ipoteza
acceptată ı̂n cadrul testului Student există o legătură strânsă, şi anume:
dacă ı̂n cadrul testului Student ipoteza H0 : a = 0 (b = 0) se respinge,
atunci intervalul de ı̂ncredere al parametrului nu include valoarea zero şi
reciproc; dacă ı̂n cadrul testului Student ipoteza H0 : a = 0 (b = 0) se
acceptă, atunci intervalul de ı̂ncredere al parametrului include valoarea
zero şi reciproc.

79
2.4 Analiza variaţiei variabilei dependente ı̂n regresie
P
n
Vom analiza variaţia (ı̂mprăştierea) (Yt −Y )2 a valorilor Yt ı̂n ra-
t=1
port cu media Y . Prezentăm această variaţie ca sumă a două variaţii:
Pn Pn
(Ybt −Y )2 – explicată de ecuaţia de regresie, şi (Yt − Ybt )2 – neexplicată
t=1 t=1
de ecuaţia de regresie (variaţia reziduală pe seama factorilor aleatori εt ).

Figura 2.8
Notăm cu Ybt = ba + bbXt valoarea prognozată (calculată) a variabilei Y
corespunzătoare valorii observate Yt . Atunci Yt − Y = (Yt − Ybt ) + (Ybt − Y )
P
n
(figura 2.8), iar pentru variaţia (Yt − Y )2 se obţine
t=1

n
X n
X n
X n
X
(Yt −Y )2 = (Yt − Ybt )2 + (Ybt −Y )2 +2 (Yt − Ybt )(Ybt −Y ). (2.27)
t=1 t=1 t=1 t=1

P
n P
n
Deoarece conform condiţiilor (2.6) (sau (2.8)), et = 0 şi et Xt = 0,
t=1 t=1
pentru termenul al treilea din (2.27) rezultă
n
X n
X n
X n
X
(Yt − Ybt )(Ybt −Y ) = a +bbXt −Y ) = (b
et (b a −Y ) et +bb et Xt = 0.
t=1 t=1 t=1 t=1

80
Deci este justă egalitatea
n
X n
X n
X
(Yt − Y )2 = (Yt − Ybt )2 + (Ybt − Y )2 , (2.28)
t=1 t=1 t=1
TSS ESS RSS
Q Q2 Q1
P
n
unde Q = TSS = (Yt − Y )2 (total sum of squares), Q2 = ESS =
t=1
P
n P
n
(Yt − Ybt )2 (error sum of squares), Q1 = RSS = (Ybt − Y )2 (regression
t=1 t=1
sum of squares). Pentru determinarea acestor mărimi pot fi utilizate
valorile centrate ale variabilelor. Astfel obţinem:
n
X n
X
Q =TSS = (Yt − Y )2 = yt2 ,
t=1 t=1
n
X n
X
Q1 =RSS = (Ybt − Y )2 = a + bbXt − b
(b a − bbX)2 =
t=1 t=1
 2
P
n
n
X xt yt
bb2 x2t = t=1
, (2.29)
P
n
t=1 x2t
t=1
n
X
Q2 =ESS = (Yt − Ybt )2 = Q − Q1 .
t=1

P
n
Remarcă. et = 0 numai atunci când modelul de regresie liniară
t=1
conţine termen liber. De aceea relaţia (2.28) este justă doar ı̂n acest caz.

2.4.1 Coeficientul de determinaţie R2


Se numeşte coeficient de determinaţie mărimea
 
2 ESS RSS 2 Q2 Q1
R =1− = R =1− = . (2.30)
TSS TSS Q Q
Egalitatea a doua ı̂n (2.30) este justă doar atunci când modelul de regresie
liniară conţine termen liber. Numai ı̂n acest caz are sens să fie utilizată
statistica R2 .

81
Din relaţia (2.30) rezultă că R2 ia valori cuprinse ı̂ntre 0 şi 1, adică
Pn
0 ≤ R2 ≤ 1. Dacă R2 = 0, atunci RSS = 0, adică (Ybt − Y )2 = 0
t=1
şi, deci, Ybt = Y , t = 1, n. Dacă ı̂nsă R2 = 1, atunci ESS = 0, adică
Pn
(Yt − Ybt )2 = 0 şi, deci, Yt = Ybt , t = 1, n. În acest caz, toate punctele
t=1
(Xt , Yt ) sunt amplasate pe dreapta de regresie (et = 0, t = 1, n).
Cu cât R2 este mai apropiat de 1, cu atât mai bine vectorul
b = (Yb1 , Yb2 , . . . , Ybn )′ aproximează vectorul y = (Y1 , Y2 , . . . , Yn )′ .
y
Vom prezenta acum interpretarea geometrică a relaţiei (2.28) şi a coefi-
cientului de determinaţie R2 . Vectorul Y i este proiecţia ortogonală a vec-
torului y pe vectorul i, iar vectorul y b este proiecţia ortogonală a vectorului
y pe planul π (figura 2.2). Conform teoremei celor trei perpendiculare,
proiecţia ortogonală a vectorului y b pe vectorul i coincide cu vectorul Y i.
Relaţia (2.28) reprezintă teorema lui Pitagora pentru triunghiul dreptun-
ghic cu laturile y − Y i, y b − Y i, e, adică ky − Y ik2 = kb y − Y ik2 + kek2 .
2
RSS y − Y ik
kb
Aşadar, R2 = = = cos2 ϕ, unde ϕ este măsura unghiului
TSS ky − Y ik2
format de vectorii y − Y i şi y b − Y i.

2.4.2 Statistica F – Fisher


Fie că sunt ı̂ndeplinite ipotezele modelului normal de regresie liniară.
Atunci din (2.23) şi (2.24) rezultă că
P
n
bb − b bb − b 2 e2t
(n − 2)s t=1
= ,s ∼ N (0, 1), = ∼ χ2 (n − 2).
σbb P
n σ2 σ2
σ x2t
t=1

Ţinând cont că variabilele aleatoare s2 şi bb sunt independente (vezi [18]),
conform definiţiei repartiţiei Fisher şi χ-pătrat, variabila aleatoare
!2
bb−b 1 P 2 n
(bb−b)2 xt 1 2
σbb 1 χ (1)
F= P = n  t=1
∼ 1 = F (1, n−2) (2.31)
n P 2 1
e2t et (n−2) χ2 (n−2)
t=1 1 t=1 n−2
σ2 n−2

82
are repartiţie Fisher cu (1, n − 2) grade de libertate. Această variabilă
aleatoare este numită statistica Fisher sau statistica F .
Statistica Fisher se utilizează pentru verificarea ipotezei nule
H0 : b = b0 şi a ipotezei de alternativă H1 : b 6= b0 . În acest caz, statistica
Fisher (2.31) obţine forma
Pn
(bb − b0 )2 x2t
t=1
F = n  ∼ F (1, n − 2). (2.32)
P 2
et (n − 2)
t=1

Pentru a accepta una din ipoteze, mai ı̂ntâi, din tabelul repartiţiei
Fisher pentru pragul de semnificaţie α şi (1, n − 2) grade de libertate, se
determină Fcrit = Fα (1, n − 2) (figura 2.9). Ipoteza H0 se respinge (se
acceptă ipoteza H1 ) la pragul de semnificaţie α dacă F > Fcrit . În caz
contrar se acceptă ipoteza H0 .

Figura 2.9
Deosebit de simplu statistica Fisher arată ı̂n cazul ipotezei H0 : b = 0
(cazul lipsei dependenţei funcţionale liniare ı̂ntre variabilele X şi Y ). În
acest caz, din (2.32) şi (2.29) rezultă

bb2 P x2
n
t
t=1 RSS · (n − 2) Q1 (n − 2)
F = n  = = . (2.33)
P 2 ESS Q2
et (n − 2)
t=1

Din (2.33) şi (2.30) se obţine următoarea relaţie ı̂ntre statistica F şi
coeficientul de determinaţie R2 :
RSS · (n − 2) R2 · TSS · (n − 2) R2 (n − 2)
F = = = . (2.34)
ESS (1 − R2 ) · TSS 1 − R2

83
Din (2.34) rezultă că valorilor mici ale statisticii F (lipsa dependenţei
funcţionale semnificative ı̂ntre X şi Y ) le corespund valori mici ale lui R2
(ajustarea nesatisfăcătoare a datelor).
Din (2.31) şi (2.25) se obţine
Pn
!2
(bb − b)2 x2t
t=1 (bb − b)2 (bb − b)2 bb − b
F = n  = n = 2 = = t2b , (2.35)
P 2 P s sb
et (n − 2) s2 x2t b
b b
t=1 t=1

adică ı̂n cazul modelului unifactorial de regresie liniară F = t2b şi la ve-
rificarea ipotezei H0 : b = 0, utilizând statistica t şi statistica F , se vor
obţine rezultate echivalente.

Exemplul 2.3. Se consideră regresia construită ı̂n exemplul 2.1.


a) Calculaţi Q, Q1 , Q2 (TSS, RSS, ESS), coeficientul de determinaţie
R2 şi valoarea statisticii Fisher.
b) Utilizând testul Fisher, verificaţi semnificaţia modelului (2.21) cu
pragul se semnificaţie α = 0, 05.
Rezolvare. a) Utilizând tabelul 2.2, determinăm Q, Q1 şi Q2 :
n
X n
X
Q = TSS = (Yt − Y )2 = yt2 = 1776, 91667;
t=1 t=1
n
X
Q1 = RSS = (Ybt − Y )2 = 1753, 37577;
t=1
n
X n
X
Q2 = ESS = (Yt − Ybt )2 = e2t = 23, 54089.
t=1 t=1

Pentru a calcula Q1 şi Q2 , pot fi utilizate formulele (2.29). În acest


caz, volumul calculelor se micşorează considerabil (dispare necesitatea de
a calcula ultimele patru coloniţe ı̂n tabelul 2.2). Astfel,
 2
P
n
xt yt
t=1 2382, 02
Q1 = RSS = P
n = = 1753, 37577;
3236, 0
x2t
t=1
Q2 = ESS = Q − Q1 = 1776, 91667 − 1753, 37577 = 23, 54089.

84
Calculăm coeficientul de determinaţie R2 :
Q1 1753, 37577
R2 = = = 0, 98675.
Q 1776, 91667
Rezultă că 98, 675% din varianţa totală a variabilei Y este lămurită de
ecuaţia de regresie.
Determinăm valoarea statisticii Fisher:
Q1 (n − 2) 1753, 37577 · (12 − 2)
F = = = 744, 82123 sau
Q2 23, 54089
R2 (n − 2) R2 (n − 2) 0, 98675 · (12 − 2)
F = = = = 744, 82123.
1 − R2 1 − R2 1 − 0, 98675
b) Din tabelul repartiţiei Fisher determinăm valoarea critică a statis-
ticii Fisher pentru pragul de semnificaţie α = 0, 05.

Fcrit = Fα (1, n − 2) = F0,05 (1, 12 − 2) = F0,05 (1, 10) = 4, 96.

Verificăm ipoteza nulă H0 : b = 0 şi ipoteza de alternativă H1 : b 6= 0


cu pragul se semnificaţie α = 0, 05. Deoarece

F = 744, 82123 > 4, 96 = Fcrit ,

ipoteza H0 se respinge şi se acceptă ipoteza H1 . Deci modelul (2.22) este


adecvat la pragul de semnificaţie α = 0, 05. #

2.5 Prognoza
În econometrie, prin prognozare se ı̂nţelege obţinerea estimaţiilor va-
lorilor variabilei endogene (dependente) pentru unele valori ale variabilei
exogene (independente).
Pot fi deosebite prognoza punctuală şi prognoza cu intervale. În primul
caz, prognoza este un număr, iar ı̂n al doilea caz – un interval căruia ı̂i
aparţine valoarea reală a variabilei endogene cu probabilitatea de ı̂ncre-
dere 1 − α indicată.
Fie modelul de regresie liniară

Yt = a + bXt + εt , t = 1, n.

Valoarea reală a variabilei dependente pentru X = Xp este

Yp = a + bXp + εp , (2.36)

85
unde se presupune că E(εp ) = 0, V (εp ) = σ 2 . În (2.36) mărimile a, b, εp
nu se cunosc şi, deci, nu se cunoaşte nici mărimea Yp .
Valoarea prognozată a variabilei dependente pentru X = Xp (prognoza
punctuală) este estimaţia
a + bbXp .
Ybp = b
Determinând prognoza punctuală, se comite următoarea eroare a prog-
nozei
a) + (b − bb)Xp + εp ,
ep = Yp − Ybp = (a − b
cu E(ep ) = 0. Deoarece
σ2
a + bbXp = Y + bb(Xp − X),
Ybp = b V (Y ) = , V (Yp ) = V (εp ) = σ 2 ,
n
pentru varianţa erorii prognozei se obţine următoarea relaţie
V (ep ) = V (Yp − Ybp ) = V (Yp − Y − bb(Xp − X)) =
 
 1 (Xp − X)2 
V (Yp ) + V (Y ) + (Xp − X)2 V (bb) = σ 2 
1 + n + Pn
.
 (2.37)
x2t
t=1

Din (2.37) rezultă că varianţa erorii prognozei este minimală pentru
Xp = X, şi odată cu majorarea devierii lui Xp de la X creşte şi varianţa
erorii prognozei.
Înlocuind σ 2 cu s2 ı̂n (2.37), se obţine estimaţia varianţei erorii prog-
nozei  
 1 (Xp − X)2 
s2ep = Vb (ep ) = s2 
1 + n + Pn

 (2.38)
x2t
t=1
q
şi eroarea standardă a prognozei sep = Vb (ep ) .
Intervalul de ı̂ncredere pentru valoarea reală Yp (prognoza cu intervale)
este determinat de inegalităţile
Ybp − tcrit · sep < Yp < Ybp + tcrit · sep , (2.39)
unde tcrit este valoarea critică a statisticii Student pentru pragul de
semnificaţie α indicat şi n − 2 grade de libertate.
În figura 2.10. este reprezentată dependenţa dintre intervalul de ı̂ncre-
dere al prognozei (prognoza cu intervale) şi valoarea variabilei exogene.

86
Figura 2.10

Exemplul 2.4. Se consideră regresia construită ı̂n exemplul 2.1.


a) Cum s-ar modifica cheltuielile pentru consum, dacă venitul agregat
disponibil s-ar majora cu 10 u.m.; s-ar micşora cu 15 u.m.?
b) Determinaţi valorile prognozate Ybp1 şi Ybp2 ale cheltuielilor pentru
consum, dacă venitul agregat disponibil ar fi: Xp1 = 195 u.m.;
Xp2 = 230 u.m.
c) Stabiliţi intervalele de ı̂ncredere pentru Yp1 şi Yp2 cu probabilitatea
riscului α = 0, 05
Rezolvare. În exemplul 2.1. a fost estimată ecuaţia de regresie:

Ybt = 26, 69788 + 0, 73609Xt ,

ce descrie dependenţa cheltuielilor pentru consumul agregat Y de veni-


tul agregat disponibil X. Estimaţia bb indică cu câte unităţi ı̂n medie
se modifică (dacă bb > 0 – se măreşte, iar dacă bb < 0 – se micşorează)
variabila Y , dacă variabila X creşte cu o unitate. Astfel, ı̂n problema ana-
lizată, la majorarea venitului agregat disponibil cu o unitate cheltuielile
pentru consumul agregat vor creşte ı̂n medie cu 0,73609 unităţi, adică
bb = 0, 73609 reprezintă cheltuielile marginale pentru consumul agregat ı̂n
raport la venitul agregat disponibil.
a) Dacă venitul agregat disponibil X s-ar majora cu 10 u.m.
(∆X = 10), atunci

∆Y = bb∆X = 0, 73609 · 10 = 7, 3609

şi, deci, cheltuielile pentru consumul agregat Y s-ar mări ı̂n medie cu

87
7,3609 u.m.; dacă ı̂nsă venitul agregat disponibil X s-ar micşora cu
15 u.m. (∆X = −15), atunci
∆Y = bb∆X = 0, 73609 · (−15) = −11, 0414
şi, prin urmare, cheltuielile pentru consumul agregat Y s-ar micşora ı̂n
medie cu 11,0414 u.m.
b) Determinăm prognozele punctuale Ybp1 şi Ybp2 :
Ybp1 = 26, 69788 + 0, 73609Xp1 = 26, 69788 + 0, 73609 · 195 = 170, 23620;
Ybp2 = 26, 69788 + 0, 73609Xp2 = 26, 69788 + 0, 73609 · 230 = 195, 99948.

Prognoza punctuală Ybp1 , cât şi Ybp2 sunt reprezentate ı̂n figura 2.6.
c) Stabilim mai ı̂ntâi estimaţia varianţei erorii prognozei şi eroarea
standardă a prognozei
 
 1 (Xp1 − X)2 
s2ep1 =Vb (ep1 ) = s2 
1 + n + Pn
=

x2t
t=1
 
1 (195 − 200)2
2, 35409 · 1 + + = 2, 56845,
12 3236
q p
sep1 = Vb (ep1 ) = 2, 56845 = 1, 60264.
Determinăm intervalul de ı̂ncredere pentru Yp1 :
 
Yp1 ∈ Ybp1 − tcrit sep1 ; Ybp1 + tcrit sep1 ,

cu probabilitatea de ı̂ncredere 1 − α.
Yp1 ∈ (170, 23620 − 2, 228 · 1, 60264; 170, 23620 + 2, 228 · 1, 60264) ⇒
Yp1 ∈ (170, 23620 − 3, 57068; 170, 23620 + 3, 57068) ⇒
Yp1 ∈ (166, 66552; 173, 80688)
cu probabilitatea de ı̂ncredere 1 − α = 0, 95.
Analog determinăm varianţa erorii prognozei, eroarea standardă a
prognozei şi intervalul de ı̂ncredere pentru Yp2 :
 
2 b 1 (230 − 200)2
sep2 =V (ep2 ) = 2, 35409 · 1 + + = 3, 20499;
12 3236
q p
sep2 = Vb (ep2 ) = 3, 20499 = 1, 79025;

88
Yp2 ∈ (195, 99948 − 2, 228 · 1, 79025; 195, 99948 + 2, 228 · 1, 79025) ⇒
Yp2 ∈ (192, 01081; 199, 98816) ,

cu probabilitatea de ı̂ncredere 1 − α = 0, 95. #

2.6 Probleme rezolvate


Exemplul 2.5. În tabelul 2.4. sunt prezentate date despre volumul
importului Y (mld.dol.) şi produsul intern brut X (mld.dol.) ı̂n SUA
ı̂ncepând cu anul 1964 până ı̂n anul 1979.
Tabelul 2.4
Anul t Y X Anul t Y X
1964 1 28,4 635,7 1972 9 75,9 1171,1
1965 2 32,0 688,1 1973 10 94,4 1306,6
1966 3 37,7 753,0 1974 11 131,9 1412,9
1967 4 40,6 796,3 1975 12 126,9 1528,8
1968 5 47,7 868,5 1976 13 155,4 1702,2
1969 6 52,9 935,5 1977 14 185,8 1899,5
1970 7 58,5 982,4 1978 15 217,5 2127,6
1971 8 64,0 1063,4 1979 16 260,9 2368,5

a şi bb ale coeficienţilor a şi b ai modelului


a) Determinaţi estimaţiile b
de regresie liniară:

Yt = a + bXt + εt , t = 1, 12. (2.40)

b) Efectuaţi analiza dispersională (calculaţi: Q, Q1 , Q2 , s2 , Vb (b a),


b b c a, bb), sba , sbb ).
V (b), cov(b
c) Utilizând testul Student, verificaţi semnificaţia coeficienţilor a şi b
cu pragul se semnificaţie α = 0, 05.
d) Determinaţi intervalele de ı̂ncredere ale coeficienţilor a şi b ai re-
gresiei cu probabilitatea de ı̂ncredere 1 − α = 0, 95.
e) Calculaţi coeficientul de determinaţie R2 . Utilizând testul Fisher,
verificaţi semnificaţia modelului cu pragul se semnificaţie α = 0, 05.
f) Cum s-ar modifica volumul importului, dacă produsul intern brut
s-ar majora cu 200 mld. dol.; s-ar micşora cu 150 mld. dol.?
g) Determinaţi valorile prognozate Ybp1 şi Ybp2 ale volumului importului,
dacă produsul intern brut ar fi: Xp1 = 2600 mld. dol.; Xp2 = 1270 mld.
dol. Determinaţi intervalele de ı̂ncredere pentru Yp1 şi Yp2 cu probabilita-
tea de ı̂ncredere 1 − α = 0, 95. Comparaţi mărimile intervalelor obţinute.

89
6. Valorile critice tα (k) ale statisticii t – Student, ı̂n funcţie de pragul de
semnificaţie α = P {t(k) > tα (k)} şi numărul gradelor de libertate k
k\α 0.05 0.025 0.01 0.005 0.001 0.0005
1 6.314 12.706 31.821 63.657 318.309 636.619
2 2.920 4.303 6.965 9.925 22.327 31.599
3 2.353 3.182 4.541 5.841 10.215 12.924
4 2.132 2.776 3.747 4.604 7.173 8.610
5 2.015 2.571 3.365 4.032 5.893 6.869
6 1.943 2.447 3.143 3.707 5.208 5.959
7 1.894 2.365 2.998 3.499 4.785 5.408
8 1.860 2.306 2.896 3.355 4.501 5.041
9 1.833 2.262 2.821 3.250 4.297 4.781
10 1.812 2.228 2.764 3.169 4.144 4.587
11 1.796 2.201 2.718 3.106 4.025 4.437
12 1.782 2.179 2.681 3.055 3.930 4.318
13 1.771 2.160 2.650 3.012 3.852 4.221
14 1.761 2.145 2.624 2.977 3.787 4.140
15 1.753 2.131 2.602 2.947 3.733 4.073
16 1.746 2.120 2.583 2.921 3.686 4.015
17 1.740 2.110 2.567 2.898 3.646 3.965
18 1.734 2.101 2.552 2.878 3.610 3.922
19 1.729 2.093 2.539 2.861 3.579 3.883
20 1.725 2.086 2.528 2.845 3.552 3.850
21 1.721 2.080 2.518 2.831 3.527 3.819
22 1.717 2.074 2.508 2.819 3.505 3.792
23 1.714 2.069 2.500 2.807 3.485 3.768
24 1.711 2.064 2.492 2.797 3.467 3.745
25 1.708 2.060 2.485 2.787 3.450 3.725
26 1.706 2.056 2.479 2.779 3.435 3.707
27 1.703 2.052 2.473 2.771 3.421 3.690
28 1.701 2.048 2.467 2.763 3.408 3.674
29 1.699 2.045 2.462 2.756 3.396 3.659
30 1.697 2.042 2.457 2.750 3.385 3.646
32 1.694 2.037 2.449 2.738 3.365 3.622
34 1.691 2.032 2.441 2.728 3.348 3.601
36 1.688 2.028 2.434 2.719 3.333 3.582
38 1.686 2.024 2.429 2.712 3.319 3.566
40 1.684 2.021 2.423 2.704 3.307 3.551
42 1.682 2.018 2.418 2.698 3.296 3.538
44 1.680 2.015 2.414 2.692 3.286 3.526
46 1.679 2.013 2.410 2.687 3.277 3.515
48 1.677 2.011 2.407 2.682 3.269 3.505
50 1.676 2.009 2.403 2.678 3.261 3.496
60 1.671 2.000 2.390 2.660 3.232 3.460
70 1.667 1.994 2.381 2.648 3.211 3.435
80 1.664 1.990 2.374 2.639 3.195 3.416
90 1.662 1.987 2.368 2.632 3.183 3.402
100 1.660 1.984 2.364 2.626 3.174 3.390
200 1.653 1.972 2.345 2.601 3.131 3.340

197
7. Valorile critice Fα (k1 ; k2 ) ale statisticii F – Fisher, ı̂n funcţie de pragul de
semnificaţie α = P {F > Fα (k1 ; k2 )} şi numărul gradelor de libertate k1 şi k2
α = 0, 05
k1
k2
1 2 3 4 5 6 7 8 9 10 12 14
1 161.4 199.5 215.7 224.6 230.2 234.0 236.8 238.9 240.5 241.9 243.9 245.4
2 18.51 19.00 19.16 19.25 19.30 19.33 19.35 19.37 19.38 19.40 19.41 19.42
3 10.13 9.55 9.28 9.12 9.01 8.94 8.89 8.85 8.81 8.79 8.74 8.71
4 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6.00 5.96 5.91 5.87
5 6.61 5.79 5.41 5.19 5.05 4.95 4.88 4.82 4.77 4.74 4.68 4.64
6 5.99 5.14 4.76 4.53 4.39 4.28 4.21 4.15 4.10 4.06 4.00 3.96
7 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68 3.64 3.57 3.53
8 5.32 4.46 4.07 3.84 3.69 3.58 3.50 3.44 3.39 3.35 3.28 3.24
9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14 3.07 3.03
10 4.96 4.10 3.71 3.48 3.33 3.22 3.14 3.07 3.02 2.98 2.91 2.86
11 4.84 3.98 3.59 3.36 3.20 3.09 3.01 2.95 2.90 2.85 2.79 2.74
12 4.75 3.89 3.49 3.26 3.11 3.00 2.91 2.85 2.80 2.75 2.69 2.64
13 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.71 2.67 2.60 2.55
14 4.60 3.74 3.34 3.11 2.96 2.85 2.76 2.70 2.65 2.60 2.53 2.48
15 4.54 3.68 3.29 3.06 2.90 2.79 2.71 2.64 2.59 2.54 2.48 2.42
16 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.54 2.49 2.42 2.37
17 4.45 3.59 3.20 2.96 2.81 2.70 2.61 2.55 2.49 2.45 2.38 2.33
18 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.46 2.41 2.34 2.29
19 4.38 3.52 3.13 2.90 2.74 2.63 2.54 2.48 2.42 2.38 2.31 2.26
20 4.35 3.49 3.10 2.87 2.71 2.60 2.51 2.45 2.39 2.35 2.28 2.22
21 4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.37 2.32 2.25 2.20
22 4.30 3.44 3.05 2.82 2.66 2.55 2.46 2.40 2.34 2.30 2.23 2.17
23 4.28 3.42 3.03 2.80 2.64 2.53 2.44 2.37 2.32 2.27 2.20 2.15
24 4.26 3.40 3.01 2.78 2.62 2.51 2.42 2.36 2.30 2.25 2.18 2.13
25 4.24 3.39 2.99 2.76 2.60 2.49 2.40 2.34 2.28 2.24 2.16 2.11
26 4.22 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.27 2.22 2.15 2.09
27 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.25 2.20 2.13 2.08
28 4.20 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.24 2.19 2.12 2.06
29 4.18 3.33 2.93 2.70 2.55 2.43 2.35 2.28 2.22 2.18 2.10 2.05
30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 2.16 2.09 2.04
35 4.12 3.27 2.87 2.64 2.49 2.37 2.29 2.22 2.16 2.11 2.04 1.99
40 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12 2.08 2.00 1.95
50 4.03 3.18 2.79 2.56 2.40 2.29 2.20 2.13 2.07 2.03 1.95 1.89
60 4.00 3.15 2.76 2.53 2.37 2.25 2.17 2.10 2.04 1.99 1.92 1.86
70 3.98 3.13 2.74 2.50 2.35 2.23 2.14 2.07 2.02 1.97 1.89 1.84
80 3.96 3.11 2.72 2.49 2.33 2.21 2.13 2.06 2.00 1.95 1.88 1.82
90 3.95 3.10 2.71 2.47 2.32 2.20 2.11 2.04 1.99 1.94 1.86 1.80
100 3.94 3.09 2.70 2.46 2.31 2.19 2.10 2.03 1.97 1.93 1.85 1.79
120 3.92 3.07 2.68 2.45 2.29 2.18 2.09 2.02 1.96 1.91 1.83 1.78
150 3.90 3.06 2.66 2.43 2.27 2.16 2.07 2.00 1.94 1.89 1.82 1.76
200 3.89 3.04 2.65 2.42 2.26 2.14 2.06 1.98 1.93 1.88 1.80 1.74
250 3.88 3.03 2.64 2.41 2.25 2.13 2.05 1.98 1.92 1.87 1.79 1.73
500 3.86 3.01 2.62 2.39 2.23 2.12 2.03 1.96 1.90 1.85 1.77 1.71
750 3.85 3.01 2.62 2.38 2.23 2.11 2.02 1.95 1.89 1.84 1.77 1.70

198
Valorile critice Fα (k1 ; k2 ) ale statisticii F – Fisher, ı̂n funcţie de pragul de
semnificaţie α = P {F > Fα (k1 ; k2 )} şi numărul gradelor de libertate k1 şi k2
α = 0, 05 (continuare)
k1
k2
16 18 20 25 30 35 40 50 75 100 150 200
1 246.5 247.3 248.0 249.3 250.1 250.7 251.1 251.8 252.6 253.0 253.5 253.7
2 19.43 19.44 19.45 19.46 19.46 19.47 19.47 19.48 19.48 19.49 19.49 19.49
3 8.69 8.67 8.66 8.63 8.62 8.60 8.59 8.58 8.56 8.55 8.54 8.54
4 5.84 5.82 5.80 5.77 5.75 5.73 5.72 5.70 5.68 5.66 5.65 5.65
5 4.60 4.58 4.56 4.52 4.50 4.48 4.46 4.44 4.42 4.41 4.39 4.39
6 3.92 3.90 3.87 3.83 3.81 3.79 3.77 3.75 3.73 3.71 3.70 3.69
7 3.49 3.47 3.44 3.40 3.38 3.36 3.34 3.32 3.29 3.27 3.26 3.25
8 3.20 3.17 3.15 3.11 3.08 3.06 3.04 3.02 2.99 2.97 2.96 2.95
9 2.99 2.96 2.94 2.89 2.86 2.84 2.83 2.80 2.77 2.76 2.74 2.73
10 2.83 2.80 2.77 2.73 2.70 2.68 2.66 2.64 2.60 2.59 2.57 2.56
11 2.70 2.67 2.65 2.60 2.57 2.55 2.53 2.51 2.47 2.46 2.44 2.43
12 2.60 2.57 2.54 2.50 2.47 2.44 2.43 2.40 2.37 2.35 2.33 2.32
13 2.51 2.48 2.46 2.41 2.38 2.36 2.34 2.31 2.28 2.26 2.24 2.23
14 2.44 2.41 2.39 2.34 2.31 2.28 2.27 2.24 2.21 2.19 2.17 2.16
15 2.38 2.35 2.33 2.28 2.25 2.22 2.20 2.18 2.14 2.12 2.10 2.10
16 2.33 2.30 2.28 2.23 2.19 2.17 2.15 2.12 2.09 2.07 2.05 2.04
17 2.29 2.26 2.23 2.18 2.15 2.12 2.10 2.08 2.04 2.02 2.00 1.99
18 2.25 2.22 2.19 2.14 2.11 2.08 2.06 2.04 2.00 1.98 1.96 1.95
19 2.21 2.18 2.16 2.11 2.07 2.05 2.03 2.00 1.96 1.94 1.92 1.91
20 2.18 2.15 2.12 2.07 2.04 2.01 1.99 1.97 1.93 1.91 1.89 1.88
21 2.16 2.12 2.10 2.05 2.01 1.98 1.96 1.94 1.90 1.88 1.86 1.84
22 2.13 2.10 2.07 2.02 1.98 1.96 1.94 1.91 1.87 1.85 1.83 1.82
23 2.11 2.08 2.05 2.00 1.96 1.93 1.91 1.88 1.84 1.82 1.80 1.79
24 2.09 2.05 2.03 1.97 1.94 1.91 1.89 1.86 1.82 1.80 1.78 1.77
25 2.07 2.04 2.01 1.96 1.92 1.89 1.87 1.84 1.80 1.78 1.76 1.75
26 2.05 2.02 1.99 1.94 1.90 1.87 1.85 1.82 1.78 1.76 1.74 1.73
27 2.04 2.00 1.97 1.92 1.88 1.86 1.84 1.81 1.76 1.74 1.72 1.71
28 2.02 1.99 1.96 1.91 1.87 1.84 1.82 1.79 1.75 1.73 1.70 1.69
29 2.01 1.97 1.94 1.89 1.85 1.83 1.81 1.77 1.73 1.71 1.69 1.67
30 1.99 1.96 1.93 1.88 1.84 1.81 1.79 1.76 1.72 1.70 1.67 1.66
35 1.94 1.91 1.88 1.82 1.79 1.76 1.74 1.70 1.66 1.63 1.61 1.60
40 1.90 1.87 1.84 1.78 1.74 1.72 1.69 1.66 1.61 1.59 1.56 1.55
50 1.85 1.81 1.78 1.73 1.69 1.66 1.63 1.60 1.55 1.52 1.50 1.48
60 1.82 1.78 1.75 1.69 1.65 1.62 1.59 1.56 1.51 1.48 1.45 1.44
70 1.79 1.75 1.72 1.66 1.62 1.59 1.57 1.53 1.48 1.45 1.42 1.40
80 1.77 1.73 1.70 1.64 1.60 1.57 1.54 1.51 1.45 1.43 1.39 1.38
90 1.76 1.72 1.69 1.63 1.59 1.55 1.53 1.49 1.44 1.41 1.38 1.36
100 1.75 1.71 1.68 1.62 1.57 1.54 1.52 1.48 1.42 1.39 1.36 1.34
120 1.73 1.69 1.66 1.60 1.55 1.52 1.50 1.46 1.40 1.37 1.33 1.32
150 1.71 1.67 1.64 1.58 1.54 1.50 1.48 1.44 1.38 1.34 1.31 1.29
200 1.69 1.66 1.62 1.56 1.52 1.48 1.46 1.41 1.35 1.32 1.28 1.26
250 1.68 1.65 1.61 1.55 1.50 1.47 1.44 1.40 1.34 1.31 1.27 1.25
500 1.66 1.62 1.59 1.53 1.48 1.45 1.42 1.38 1.31 1.28 1.23 1.21
750 1.66 1.62 1.58 1.52 1.47 1.44 1.41 1.37 1.30 1.26 1.22 1.20

199
8. Valorile critice Fα (k1 ; k2 ) ale statisticii F – Fisher, ı̂n funcţie de pragul de
semnificaţie α = P {F > Fα (k1 ; k2 )} şi numărul gradelor de libertate k1 şi k2
α = 0, 01
k1
k2
1 2 3 4 5 6 7 8 9 10 12 14
1 4052. 4999. 5403. 5625. 5764. 5859. 5928. 5981. 6022. 6056. 6106. 6143.
2 98.50 99.00 99.17 99.25 99.30 99.33 99.36 99.37 99.39 99.40 99.42 99.43
3 34.12 30.82 29.46 28.71 28.24 27.91 27.67 27.49 27.35 27.23 27.05 26.92
4 21.20 18.00 16.69 15.98 15.52 15.21 14.98 14.80 14.66 14.55 14.37 14.25
5 16.26 13.27 12.06 11.39 10.97 10.67 10.46 10.29 10.16 10.05 9.89 9.77
6 13.75 10.92 9.78 9.15 8.75 8.47 8.26 8.10 7.98 7.87 7.72 7.60
7 12.25 9.55 8.45 7.85 7.46 7.19 6.99 6.84 6.72 6.62 6.47 6.36
8 11.26 8.65 7.59 7.01 6.63 6.37 6.18 6.03 5.91 5.81 5.67 5.56
9 10.56 8.02 6.99 6.42 6.06 5.80 5.61 5.47 5.35 5.26 5.11 5.01
10 10.04 7.56 6.55 5.99 5.64 5.39 5.20 5.06 4.94 4.85 4.71 4.60
11 9.65 7.21 6.22 5.67 5.32 5.07 4.89 4.74 4.63 4.54 4.40 4.29
12 9.33 6.93 5.95 5.41 5.06 4.82 4.64 4.50 4.39 4.30 4.16 4.05
13 9.07 6.70 5.74 5.21 4.86 4.62 4.44 4.30 4.19 4.10 3.96 3.86
14 8.86 6.51 5.56 5.04 4.69 4.46 4.28 4.14 4.03 3.94 3.80 3.70
15 8.68 6.36 5.42 4.89 4.56 4.32 4.14 4.00 3.89 3.80 3.67 3.56
16 8.53 6.23 5.29 4.77 4.44 4.20 4.03 3.89 3.78 3.69 3.55 3.45
17 8.40 6.11 5.18 4.67 4.34 4.10 3.93 3.79 3.68 3.59 3.46 3.35
18 8.29 6.01 5.09 4.58 4.25 4.01 3.84 3.71 3.60 3.51 3.37 3.27
19 8.18 5.93 5.01 4.50 4.17 3.94 3.77 3.63 3.52 3.43 3.30 3.19
20 8.10 5.85 4.94 4.43 4.10 3.87 3.70 3.56 3.46 3.37 3.23 3.13
21 8.02 5.78 4.87 4.37 4.04 3.81 3.64 3.51 3.40 3.31 3.17 3.07
22 7.95 5.72 4.82 4.31 3.99 3.76 3.59 3.45 3.35 3.26 3.12 3.02
23 7.88 5.66 4.76 4.26 3.94 3.71 3.54 3.41 3.30 3.21 3.07 2.97
24 7.82 5.61 4.72 4.22 3.90 3.67 3.50 3.36 3.26 3.17 3.03 2.93
25 7.77 5.57 4.68 4.18 3.85 3.63 3.46 3.32 3.22 3.13 2.99 2.89
26 7.72 5.53 4.64 4.14 3.82 3.59 3.42 3.29 3.18 3.09 2.96 2.86
27 7.68 5.49 4.60 4.11 3.78 3.56 3.39 3.26 3.15 3.06 2.93 2.82
28 7.64 5.45 4.57 4.07 3.75 3.53 3.36 3.23 3.12 3.03 2.90 2.79
29 7.60 5.42 4.54 4.04 3.73 3.50 3.33 3.20 3.09 3.00 2.87 2.77
30 7.56 5.39 4.51 4.02 3.70 3.47 3.30 3.17 3.07 2.98 2.84 2.74
35 7.42 5.27 4.40 3.91 3.59 3.37 3.20 3.07 2.96 2.88 2.74 2.64
40 7.31 5.18 4.31 3.83 3.51 3.29 3.12 2.99 2.89 2.80 2.66 2.56
50 7.17 5.06 4.20 3.72 3.41 3.19 3.02 2.89 2.78 2.70 2.56 2.46
60 7.08 4.98 4.13 3.65 3.34 3.12 2.95 2.82 2.72 2.63 2.50 2.39
70 7.01 4.92 4.07 3.60 3.29 3.07 2.91 2.78 2.67 2.59 2.45 2.35
80 6.96 4.88 4.04 3.56 3.26 3.04 2.87 2.74 2.64 2.55 2.42 2.31
90 6.93 4.85 4.01 3.53 3.23 3.01 2.84 2.72 2.61 2.52 2.39 2.29
100 6.90 4.82 3.98 3.51 3.21 2.99 2.82 2.69 2.59 2.50 2.37 2.27
120 6.85 4.79 3.95 3.48 3.17 2.96 2.79 2.66 2.56 2.47 2.34 2.23
150 6.81 4.75 3.91 3.45 3.14 2.92 2.76 2.63 2.53 2.44 2.31 2.20
200 6.76 4.71 3.88 3.41 3.11 2.89 2.73 2.60 2.50 2.41 2.27 2.17
250 6.74 4.69 3.86 3.40 3.09 2.87 2.71 2.58 2.48 2.39 2.26 2.15
500 6.69 4.65 3.82 3.36 3.05 2.84 2.68 2.55 2.44 2.36 2.22 2.12
750 6.67 4.63 3.81 3.34 3.04 2.83 2.66 2.53 2.43 2.34 2.21 2.11

200
Valorile critice Fα (k1 ; k2 ) ale statisticii F – Fisher, ı̂n funcţie de pragul de
semnificaţie α = P {F > Fα (k1 ; k2 )} şi numărul gradelor de libertate k1 şi k2
α = 0, 01 (continuare)
k1
k2
16 18 20 25 30 35 40 50 75 100 150 200
1 6170. 6192. 6209. 6240. 6261. 6276. 6287. 6303. 6324. 6334. 6345. 6350.
2 99.44 99.44 99.45 99.46 99.47 99.47 99.47 99.48 99.49 99.49 99.49 99.49
3 26.83 26.75 26.69 26.58 26.50 26.45 26.41 26.35 26.28 26.24 26.20 26.18
4 14.15 14.08 14.02 13.91 13.84 13.79 13.75 13.69 13.61 13.58 13.54 13.52
5 9.68 9.61 9.55 9.45 9.38 9.33 9.29 9.24 9.17 9.13 9.09 9.08
6 7.52 7.45 7.40 7.30 7.23 7.18 7.14 7.09 7.02 6.99 6.95 6.93
7 6.28 6.21 6.16 6.06 5.99 5.94 5.91 5.86 5.79 5.75 5.72 5.70
8 5.48 5.41 5.36 5.26 5.20 5.15 5.12 5.07 5.00 4.96 4.93 4.91
9 4.92 4.86 4.81 4.71 4.65 4.60 4.57 4.52 4.45 4.41 4.38 4.36
10 4.52 4.46 4.41 4.31 4.25 4.20 4.17 4.12 4.05 4.01 3.98 3.96
11 4.21 4.15 4.10 4.01 3.94 3.89 3.86 3.81 3.74 3.71 3.67 3.66
12 3.97 3.91 3.86 3.76 3.70 3.65 3.62 3.57 3.50 3.47 3.43 3.41
13 3.78 3.72 3.66 3.57 3.51 3.46 3.43 3.38 3.31 3.27 3.24 3.22
14 3.62 3.56 3.51 3.41 3.35 3.30 3.27 3.22 3.15 3.11 3.08 3.06
15 3.49 3.42 3.37 3.28 3.21 3.17 3.13 3.08 3.01 2.98 2.94 2.92
16 3.37 3.31 3.26 3.16 3.10 3.05 3.02 2.97 2.90 2.86 2.83 2.81
17 3.27 3.21 3.16 3.07 3.00 2.96 2.92 2.87 2.80 2.76 2.73 2.71
18 3.19 3.13 3.08 2.98 2.92 2.87 2.84 2.78 2.71 2.68 2.64 2.62
19 3.12 3.05 3.00 2.91 2.84 2.80 2.76 2.71 2.64 2.60 2.57 2.55
20 3.05 2.99 2.94 2.84 2.78 2.73 2.69 2.64 2.57 2.54 2.50 2.48
21 2.99 2.93 2.88 2.79 2.72 2.67 2.64 2.58 2.51 2.48 2.44 2.42
22 2.94 2.88 2.83 2.73 2.67 2.62 2.58 2.53 2.46 2.42 2.38 2.36
23 2.89 2.83 2.78 2.69 2.62 2.57 2.54 2.48 2.41 2.37 2.34 2.32
24 2.85 2.79 2.74 2.64 2.58 2.53 2.49 2.44 2.37 2.33 2.29 2.27
25 2.81 2.75 2.70 2.60 2.54 2.49 2.45 2.40 2.33 2.29 2.25 2.23
26 2.78 2.72 2.66 2.57 2.50 2.45 2.42 2.36 2.29 2.25 2.21 2.19
27 2.75 2.68 2.63 2.54 2.47 2.42 2.38 2.33 2.26 2.22 2.18 2.16
28 2.72 2.65 2.60 2.51 2.44 2.39 2.35 2.30 2.23 2.19 2.15 2.13
29 2.69 2.63 2.57 2.48 2.41 2.36 2.33 2.27 2.20 2.16 2.12 2.10
30 2.66 2.60 2.55 2.45 2.39 2.34 2.30 2.25 2.17 2.13 2.09 2.07
35 2.56 2.50 2.44 2.35 2.28 2.23 2.19 2.14 2.06 2.02 1.98 1.96
40 2.48 2.42 2.37 2.27 2.20 2.15 2.11 2.06 1.98 1.94 1.90 1.87
50 2.38 2.32 2.27 2.17 2.10 2.05 2.01 1.95 1.87 1.82 1.78 1.76
60 2.31 2.25 2.20 2.10 2.03 1.98 1.94 1.88 1.79 1.75 1.70 1.68
70 2.27 2.20 2.15 2.05 1.98 1.93 1.89 1.83 1.74 1.70 1.65 1.62
80 2.23 2.17 2.12 2.01 1.94 1.89 1.85 1.79 1.70 1.65 1.61 1.58
90 2.21 2.14 2.09 1.99 1.92 1.86 1.82 1.76 1.67 1.62 1.57 1.55
100 2.19 2.12 2.07 1.97 1.89 1.84 1.80 1.74 1.65 1.60 1.55 1.52
120 2.15 2.09 2.03 1.93 1.86 1.81 1.76 1.70 1.61 1.56 1.51 1.48
150 2.12 2.06 2.00 1.90 1.83 1.77 1.73 1.66 1.57 1.52 1.46 1.43
200 2.09 2.03 1.97 1.87 1.79 1.74 1.69 1.63 1.53 1.48 1.42 1.39
250 2.07 2.01 1.95 1.85 1.77 1.72 1.67 1.61 1.51 1.46 1.40 1.36
500 2.04 1.97 1.92 1.81 1.74 1.68 1.63 1.57 1.47 1.41 1.34 1.31
750 2.02 1.96 1.90 1.80 1.72 1.66 1.62 1.55 1.45 1.39 1.33 1.29

201

S-ar putea să vă placă și