Documente Academic
Documente Profesional
Documente Cultură
β , b ∈ Θ ⊆ ℜk (3.3)
Celelalte ipoteze fundamentale sunt:
70 Curs de econometrie
Σε = Cov (ε ) = E (ε ⋅ ε ′) = σ 2 ⋅ I (3.5)
ceea ce echivalează cu satisfacerea următoarelor două proprietăţi:
(i2.b1) Homoscedasticitate (dispersia este constantă: nu depinde de i , deci
de succesiunea în timp sau spaţiu a observaţiilor):
( )
Var (εi ) = E εi2 = σ 2 = constant ∀ i (3.6)
Cum însă
(
Cor ε i , ε j = ) (
Cov ε i , ε j )
σ εi ⋅ σ ε j
ε1
E ε 12 ( )
E (ε 1 ⋅ ε 2 ) E (ε 1 ⋅ ε 3 ) L
Cov(ε ) = E (ε ⋅ ε ′) = E ε 2 [ε 1 ε 2 L] =
E (ε 2 ⋅ ε1 ) E ε 22 ( )
E (ε 2 ⋅ ε n ) L
L E (ε 3 ⋅ ε1 ) E (ε 3 ⋅ ε 2 )
E ε 32 ( ) L
L L L L
σ 2 0 0 L
0 σ 2
0 L
= = σ 2I
0 0 σ2 L
L L L L
Modelul de regresie liniară multiplă 71
În condiţiile verificării ipotezelor prezentate mai sus, metoda celor mai mici
pătrate ordinare (CMMPO) poate fi utilizată pentru determinarea unui estimator b al
vectorul necunoscut β al modelului de regresie liniară multiplă. Acest estimator
trebuie să îndeplinească câteva condiţii minimale, între care:
- să fie nedeplasat: E (b) = β , adică speranţa matematică a vectorului aleator b
să fie egală cu parametrul de estimat β ;
- să aibă dispersie minimă în clasa estimatorilor liniari nedeplasaţi.
Atunci când ipotezele prezentate în secţiunea 3.1 sunt satisfăcute, estimatorul
CMMPO îndeplineşte condiţiile precedente.
Metoda CMMPO ce permite deducerea estimatorului b constă în minimizarea
sumei pătratelor reziduurilor definite de componentele vectorului reziduurilor e .
Din relaţia y = X ⋅ b + e obţinem:
e= y− X b (3.14)
72 Curs de econometrie
b = ( X ′X ) X ′y
−1
(3.20)
Pentru a vedea că soluţia b reprezintă într-adevăr un minim, să arătăm că el
verifică în plus condiţia suficientă de ordinul doi, adică hessiana:
∂ 2 F (b )
= 2 X ′X
∂b ∂b′
q = v ′v = ∑i vi2 , unde v = Xc
Cu excepţia cazului când fiecare element al lui v este nul, q este strict pozitivă.
Dar pentru a putea avea v identic nul ar trebui să existe o combinaţie liniară nulă
formată din coloanele lui X. Aceasta ar contrazice însă ipoteza (i3.b), conform căreia
X este de rang maximal:
rang ( X ) = k ≤ n
unde k este numărul de coloane al matricei X.
Modelul de regresie liniară multiplă 73
( y - yˆ )′ yˆ = [( I - P ) y ]′ Py = y ′ ( I - P′) Py = y ′ ( P - P 2 ) y = 0
Fie acum modelul de regresie liniară Y = Xβ + ε şi să presupunem că X este de
rang maximal, adică rang(X) = k. Prin urmare, coloanele lui X reprezintă k vectori
liniari independenţi din ℜ n . Notăm cu Im(X) subspaţiul vectorial generat de
coloanele matricei X. Avem că:
X b∈ Im ( X ), ∀ b∈ℜ k (3.23)
deoarece se obţine ca o combinaţie liniară a coloanelor liniar independente ale lui X.
Pe de altă parte, fie P matricea de proiecţie ortogonală asociată proiectorului
ortogonal p: ℜ n → Im(X). Atunci, ∀y∈ ℜ n , ∃ ŷ ∈Im(X), astfel încât ŷ = Py. În
consecinţă, vectorul y − yˆ = y − Py aparţinând complementului ortogonal Im(X)⊥ al
subspaţiului Im(X), este ortogonal pe y şi implicit pe orice vector din Im(X). Cum
toţi vectorii din Im(X) au forma Xb rezultă că ∃b∈ ℜ k , astfel încât:
X b = yˆ = Py cu < X b, y − Py > = < Xb, y − Xb > = 0 ⇒
b′X ′( y − Xb ) = 0 ⇔ X ′y = X ′X b ⇔ b = ( X ′X )−1 X ′y ⇒ (3.24)
Py = Xb = X ( X ′X ) X ′y ⇒ P = X ( X ′X ) X ′
−1 −1
[
Q = (I − P ) = I − X ( X ′X )−1 X ′ ] (3.25)
Astfel:
Q ⋅ y = (I − P ) ⋅ y = ( y − yˆ ) = e ∈ Im( X )⊥ (3.26)
M 11 M 12
M =
M 21 M 22
unde: dim( M 11 )=p1×p1 ; dim( M 12 )=p1×p2 ;
dim( M 21 )=p2×p1 ; dim( M 22 )=p2×p2 .
−1
Presupunând că M 11 şi D = M 22 − M 21 M 11 M 12 sunt nesingulare, se
poate verifica relaţia:
M −1
−1
M 11
=
(
I + M 12 D −1 M 21 M 11
−1
) −1
− M 11 M 12 D −1
− D −1 M 21 M 11
−1
D −1
unde: X * este un vector coloană al mediilor celor m variabile ale căror valori
generează coloanele lui X * , iar y este media variabilei y .
Pentru simplificarea reprezentărilor, vom introduce un operator de centrare
a variabilelor iniţiale (coloanele lui X * ) în raport cu media acestora:
1 ⋅ 1′
Q1 = I − ; W = Q1 X * = X * − 1X *′
n
unde Q1 este simetrică şi idempotentă ( Q1′ = Q1 ; Q12 = Q1 ), reprezentând de fapt
matricea de proiecţie ortogonală pe subspaţiul Im(1) ⊥ , deci pe complementul
ortogonal al subspaţiului generat de vectorul 1. Cu notaţiile:
D = W ′W = X *′Q1Q1 X * = X *′Q1 X * = X *′ X * − nX * X *′
G = W ′y = X *′Q1 y = X *′ y − nyX *
se obţine:
−1
b0 1 + X *′ D −1 X *
− X *′ D −1 ny
= n =
b* − D −1 X D −1
X *′ y
* (3.29′′)
−1
y − X *′ D ( X *′ y − nyX *
=
D −1 (X *′ y − nyX * )
b = L ⋅ y = L ( Xβ + ε ) = LXβ + Lε (3.30)
unde L este o matrice care nu depinde decât de X. Mai mult, dintre estimatorii liniari
(potenţiali) ai lui β nu vom considera decât pe aceia care sunt nedeplasaţi, adică
E[b] = β. Dar, întrucât X nu este o matrice stochastică, iar E[ε]=0, avem:
E[b] = E[Ly] = E[L(Xβ+ε)] = LXβ+E[ε] = LXβ (3.31)
şi din condiţia ca b să nu fie deplasat, adică E[b] = β, deducem:
LX = I (3.32)
Din relaţia (3.3) rezultă imediat că:
XLX = X (3.33)
adică L este o inversă generalizată a lui X.
Observaţie: Această constatare este importantă, deoarece atunci când X nu este
de rang maximal (deci nu are coloanele liniar independente), nu există
invers[ ( X ′X )−1 şi nu putem utiliza pentru construcţia estimatorului liniar operatorul
L = ( X ′X )−1 X ′ , ci va trebui să apelăm la o inversă generalizată.
Propoziţie: Relaţia (3.33) este echivalentă cu:
(XL)2 = XL şi în plus Im(XL) = Im(X) (3.34)
Demonstrarea idempotenţei este imediată. Să arătăm acum că în baza lui (3.33)
are loc egalitatea Im(XL) = Im(X). Într-adevăr, să presupunem că ~y ∈ Im(XL ) .
Atunci:
y = XLv = Xw∈Im( X ), unde w = Lv
~
LX = ( X ′X )−1 X ′X = I
deci estimatorul CMMPO construit cu ajutorul său este liniar şi nedeplasat.
Eroarea de eşantion a lui b este (conform (3.36)):
b − β = Lε = ( X ′X )−1 X ′ε (3.39)
iar din (3.8) rezultă matricea de covarianţă a lui b:
Să presupunem prin absurd că ar exista (în condiţiile ipotezelor clasice din §3.1)
~
un alt estimator liniar nedeplasat b al lui β:
~ ~ ~
b = L y , cu L ≠ ( X ′X )−1 X ′ (3.41)
care să aibă dispersia mai mică decât b. Notăm:
~
L = L + Λ = ( X ′X )−1 X ′ + Λ (3.42)
unde Λ este o matrice nestochastică.
~
Pentru ca b să fie nedeplasat, este necesar ca:
~
L X = LX + ΛX = I + ΛX = I ⇒ ΛX = 0 (3.43)
şi în acest caz matricea de covarianţă va fi:
[
∑b~ = σ 2 ( X ′X )−1 X + Λ
] [(X ′X )
−1 ′
X′+ Λ
]
[
= σ 2 ( X ′X )−1 + ΛX ( X ′X )−1 + ( X ′X )−1 X ′Λ ′ + ΛΛ ′ ]
=σ2 [(X ′X )−1
]
+ ΛΛ ′ = ∑ b + σ 2 ΛΛ ′ (3.44)
Modelul de regresie liniară multiplă 79
Ţinând cont de faptul că pentru orice matrice reală arbitrară Λ, produsul Λ⋅Λ/
reprezintă o matrice simetrică şi nenegativ definită, vedem că dispersia
~
estimatorului b nu poate fi decât mai mare, sau în cel mai bun caz egală cu dispersia
lui b. Prin urmare, estimatorul CMMPO dat de b = Ly = (X′X)-1 X′y, este estimatorul
de dispersie minimă în clasa estimatorilor liniari nedeplasaţi, iar matricea sa de
covarianţă este dată de (3.40).
Dacă ţinem seama de faptul că oricare ar fi două matrici A şi B avem:
rang ( A ⋅ B ) ≤ min{rang ( A), rang ( B )}
condiţia (i3.b) ca X să aibă rang maximal este esenţială pentru existenţa
estimatorului CMMPO dat în forma de mai sus (unde matricea X′X se presupune a fi
inversabilă).
E [e′ ⋅ e] = E [ε ′Qε ]
= E [tr (ε ′Qε )], deoarece ε ′Qε este un scalar
= E [tr (Qεε ′)], deoarece tr ( AB ) = tr (BA)
(
= tr (E [Qεε ′]), deoarece trace este o functie liniara (3.47)
(
= tr (QE [εε ′]), deoarece Q este nestocastica
( )
= tr Qσ 2 I , conform ipotezelor (i 2 )
= σ tr (Q ), deoarece tr (k ⋅ A) = k ⋅ tr ( A)
2
Pe de altă parte, ţinând cont de expresia lui Q (din secţiunea anterioară), avem:
80 Curs de econometrie
[
tr (Q ) = tr I n − X ( X ′X )−1 X ′ ]
[ ]
= tr[I n ] − tr X ( X ′X )−1 X ′ , tr ( A + B ) = tr ( A) + tr (B )
= tr[I ] − tr [X ′X ( X ′X ) ],
n
−1
tr ( AB ) = tr (BA) (3.48)
= tr[I n ] − tr[I k ],
= n − k , deoarece tr[I n ] = n
E [e′e] = σ 2 ⋅ (n − k ) (3.49)
de unde putem deduce că un estimator nedeplasat s2 al dispersiei erorilor σ2 se obţine
împărţind e′ ⋅ e la n-k, adică:
n
e′e
∑e 2
i
s2 = = i =1 (3.50)
n−k n−k
Într-adevăr:
E [e′e]
[ ]
E s2 =
n−k
=σ2 (3.51)
S b = s 2 ⋅ ( X ′X )
−1
(3.53)
Într-adevăr:
[
E [Sb ] = E s 2 ⋅ ( X ′X )
−1
] = E[s ]⋅ ( X ′X )
2 −1
= σ 2 ⋅ ( X ′X ) = ∑ b
−1
(3.54)
Modelul de regresie liniară multiplă 81
y
1 ⋅ 1′
γ = Q1 ⋅ y = I − ⋅ y = y − Y = y − M (3.56)
n y
Variaţia totală a lui Y (notată convenţional SST) se calculează cu relaţia:
n
SST = ∑ ( yi − y )2 = γ ′ ⋅ γ = (Q1 y )′ (Q1 y ) = y ′Q1′Q1 y
i =1
1 ⋅ 1′
= y ′Q12 y = y ′Q1 y = y ′ I − y
n (3.57)
1 ⋅ 1′ y ′ ⋅ 1 y ⋅ 1′
= y ′y − y ′ y = y ′y − n ⋅ ⋅
n n n
= y ′y − n ⋅ y 2
X ′y = X ′Xb = X ′( y − Xb ) = X ′e = 0 (3.60)
La rândul său, vectorul reziduurilor se descompune astfel:
(
SST = γ ′γ = y′y − ny 2 = b′X ′Xb − ny 2 + e′e ) (3.63)
( )
= b′X ′Xb − ny + ( y′y − b′X ′y ) = SSR + SSE
2
unde:
SST = γ ′γ = y′y − ny 2 = ∑ in=1 ( yi − y )
2
= variaţia totală a lui Y;
∑ ( y − yˆ )
n
SSE = y′y − b′X ′y = i =1 i i = variaţia reziduală a lui Y.
Reziduală y ′y − b ′X ′y n-k ( y ′y − b ′X ′y ) / (n − k )
Totală y ′y − ny 2 n-1 (y ′y − ny )/(n − 1)
2
R 2
=
∑ ( yˆi i − y)
2
=
b ′X ′Xb − ny 2
(3.64′)
∑ (y i i − y)
2
y ′y − ny 2
R 2
=1−
∑ ( y − yˆ ) i i i
2
=1−
y ′y − b ′X ′y
(3.64′′)
∑ (y − y) i i
2
y ′y − ny 2
R 2 =1−
∑ ( y − yˆ )
i i i
2
/( n − k )
=1 −
( y ′y − b′X ′y ) ⋅ (n − 1)
∑ (y − y) i i
2
/( n − 1) (y ′y − ny )⋅ (n − k )
2 (3.65)
R 2 =1− 1− R2 ⋅ ( ) n −1
n−k
(3.66)
R= 1−
∑ ( y − yˆ )
i i i
2
= 1−
y ′y − b ′X ′y
(3.67)
∑ (y − y) i i
2
y ′y − ny 2
SY , X1 , X 2KX m =
∑ (y
i i − yˆ i )
2
=
e ′e
=
y ′y − b ′X ′y
(3.68)
n−k n−k n−k
bi − β i
~ t n −k (3.70)
sbi
(
ε ~ N 0, σ 2 I ) ⇒ y = Iε + Xβ ~ N ( Xβ , σ 2 I ) (3.72)
(ii) Cum b=Ly=L(Xβ+ε)=Lε+LXβ, este suficient să luăm µ = 0, Σ = σ2I, A = L,
( )
q = LXβ şi din ε ~ N 0, σ 2 I rezultă:
( ) (
b = Lε + LXβ ~ N LXβ , Lσ 2 IL ′ = N β , σ 2 ( X ′X )−1 ) (3.73)
bi − β i
=
(
bi − sbi σ bi )
=
(bi − β i ) σ bi
(3.77)
sbi sbi σ bi s2
(n − k ) (n − k )
σ2
unde am ţinut cont că sbi /σbi =s/σ. Construim variabilele:
bi − β i s2
zi = ~ N (0, 1) ; x= (n − k ) ~ χ n2−k (3.78)
sbi σ2
despre care am arătat că sunt independente (bi−βi sunt componente ale vectorului
b−β, ia σ bi este un parametru, deci este nestochastic, câtă vreme matricea X este
nestochastică; prin urmare, zi şi x sunt independente). Rezultă atunci (potrivit
teoremei 1.5) că:
bi − β i zi
= ~ t n −k (3.79)
sbi x (n − k )
Acest rezultat poate sta la baza unei probleme de decizie statistică. El ne permite
să formulăm şi să testăm o ipoteză cu privire la un coeficient oarecare βj, respectiv:
H 0 : β j = β *j (3.80)
şi să facem apel, în acest sens, la distribuţia Student (ale cărei valori sunt tabelate,
pentru diverse niveluri de semnificaţie şi grade de libertate).
În condiţiile ipotezei H0, putem să substituim β j cu β *j în raportul precedent,
deci să calculăm statistica:
b j − β *j
tj = (3.81)
sb j
H0 : β j = 0 (3.82)
Modelul de regresie liniară multiplă 87
bj
tj = (3.83)
sb j
β j = b j m tα ; (n − k ) ⋅ s b j (3.84′)
sau, echivalent,
[
β j ∈ b j − tα ; (n − k ) ⋅ s b j , b j + tα ; (n − k ) ⋅ s b j ] (3.84′′)
β 1 + β 2 = 1 1 1 0 0 0 1
H 0 : β 3 + β 4 = 0 ⇔ R = 0 0 1 1 0 ; q = 0
β + β = 1 0 1 0 0 1 1
2 5
(
În plus, din faptul că d este o funcţie liniară de b , iar b ~ N β , σ 2 ( X ′X ) −1 , )
rezultă:
(
d ~ N 0, σ 2 ⋅ R ⋅ ( X ′X ) ⋅ R′
−1
) (3.87′′′)
Cu aceste observaţii, putem să ne fundamentăm testul ipotezei nule H 0 : Rβ = q
pe criteriul lui Wald. La baza construcţiei sale stă următorul rezultat: dându-se un
vector normal x, putem construi o formă pătratică de rang maximal în x, care să aibă
o distribuţie χ2, adică:
x ~ N (µ , Σ ) ⇒ (x − µ )′ Σ −1 (x − µ ) ~ χ 2j ; j = rang (Σ ) (3.88)
Dacă restricţiile sunt valide, atunci ele ar trebui să fie satisfăcute (cel puţin cu
aproximaţie) şi de estimaţia θˆ . Dimpotrivă, dacă ipotezele sunt eronate, atunci
Rθˆ = q ar trebui să se abată de la 0 mai mult decât ar putea să o explice doar
variabilitatea datorată eşantionului selectat. Cu precizările de mai sus, putem
construi statistica testului lui Wald:
( ′
)( [
W = Rθˆ − q Cov Rθˆ − q ]) (Rθˆ − q)
−1
(3.89)
F= 2
W j
=
( ′
( −1
)
Rb − q ) σ 2 R ( X ′X ) R′ (Rb − q ) j
−1
(3.92)
s s2
2 (n − k ) (n − k ) 2 (n − k ) (n − k )
σ σ
Ţinând cont şi de proprietatea enunţată în teorema 3.3(iv), statistica F este
raportul a doi vectori aleatori, distribuiţi χ 2 şi împărţiţi la gradele de libertate
corespunzătoare ( j , respectiv (n − k ) ). În plus, conform enunţului din teorema
3.3(v), cei doi vectori sunt independenţi, caz în care raportul F urmează, prin
definiţie1, o distribuţie Fisher :
F ~ F( j ; n−k ) (3.93)
F= (3.94′′)
j
1
Fie W1 ~ χ n21 şi W2 ~ χ n22 , cu W1 şi W2 vectori aleatori independenţi. Atunci:
W1 / n1
~ Fn1 , n2
W2 / n2
Modelul de regresie liniară multiplă 91
0 1 L 0 0 β 0 β1 0
0 0 L 0 0 β1 β 2 0
H0 : R β = q ⇔ H0 : = =
L L L L L L L L
0 0 L 0 1 β β 0
m m
În acest caz particular, statistica testului este definită de raportul dintre dispersia
explicată şi cea reziduală, raport ce urmează o distribuţie Fisher cu m , respectiv
n − k grade de libertate:
SSR / m
F= ~ F(m , n − k ) (3.96)
SSE / (n − k )
unde:
m + 1 dacă β0 ≠ 0
k =
m dacă β0 = 0
F=
(b′X ′Xb − ny ) m
2
(3.97′)
( y′y − b′X ′y ) (n − k )
sau, echivalent,
R2 m
F=
(1 − R ) (n − k )
2
(3.97′′)
Dacă valoarea calculată este mai mare decât valoarea tabelată, ipoteza nulă este
respinsă, deci modelul se consideră semnificativ.
Relaţia precedentă poate fi interpretată şi ca un test de semnificaţie pentru R 2 .
supusă la restricţia:
92 Curs de econometrie
Rβ = q
Pentru a simplifica expresia soluţiei, vom considera vectorul multiplicatorilor
Lagrange dat sub forma: λ0 = 2 λ . Lagrangeanul asociat problemei se scrie atunci:
′
L (β ) = ( y − Xβ ) ⋅ ( y − Xβ ) + 2λ ′ (R β − q )
br = b + ( X ′X ) R′λ
−1
[
λ = − R( X ′X )−1 R ]
−1
(Rb − q )
care, reinserată apoi în expresia lui br , ne permite să obţinem estimatorul CMMPO
cu restricţii sub forma:
−1
[
br = b − ( X ′X ) R ′ R ( X ′X ) R ′
−1
]
−1
(Rb − q ) (3.98)
Testul lui Chow permite să se verifice dacă două seturi de coeficienţi de regresie
sunt egale, în cazul în care primul set a fost obţinut prin estimarea modelului fără
restricţii, iar cel de al doilea set prin estimarea modelului cu restricţii. O variantă a
testului Chow permite de asemenea partiţionarea eşantionului în două subeşantioane
şi testarea egalităţii celor două seturi de estimaţii obţinute.
Fie sistemul de restricţii liniare asupra coeficienţilor Rβ = q . Mai întâi ne
propunem să exprimăm statistica testului lui Wald în funcţie de:
• reziduurile modelului cu restricţii şi ale celui fără restricţii;
Modelul de regresie liniară multiplă 93
[
br − b = −( X ′X ) R′ R ( X ′X ) R′
−1 −1
]−1
(Rb − q )
Rezultă:
′
[ −1
e ′r e r − e ′e = (Rb − q ) R( X ′X ) R ′ (Rb − q )
−1
]
Conform criteriului lui Wald, statistica testului ce permite verificarea ipotezei
liniare generale Rb − q este:
∑ (y − y)
2
Pe de altă parte, împărţind numărătorul şi numitorul lui F prin ,
obţinem o altă formă a statisticii acestui test:
F=
(R − Rr2 j
2
) (3.100)
e′e ( n − k )
[
br − b = −( X ′X ) R′ R ( X ′X ) R′
−1 −1
]−1
(Rb − q )
O cale mai uşoară de a proceda este să se încorporeze restricţia direct în model.
Astfel, în ipoteza unei restricţii de forma β1 = β 2 = β , modelul se poate scrie:
y1 = X 1β + ε 1 y X ε
⇔ 1 = 1 ⋅ β + 1
y2 = X 2 β + ε 2 y2 X 2 ε 2
Suma pătratelor reziduurilor corespunzătoare regresiei cu restricţii, er′ ⋅ er , se
utilizează apoi pentru construirea testului, împreună cu suma pătratelor reziduurilor
din modelul fără restricţii, adică e′e = e1′e1 + e′2 e2 . Gradele de libertate se specifică
astfel: la numărător, j este numărul de restricţii (în cazul nostru k ), iar la numitor
avem un număr de (n1 + n2 − 2 ⋅ k ) grade de libertate, unde n1 şi n2 reprezintă
numărul de observaţii cuprinse în cele două eşantioane. Statistica testului se scrie
aşadar:
F( k , n1 + n 2 − 2 k ) =
(er′ er − e′e) k = (er′ er − (e1′e1 + e2′ e2 )) k
(3.101)
e′e (n1 + n2 − 2 ⋅ k ) e′e (n1 + n2 − 2 ⋅ k )
unde:
~y = β + β ~ ~ ~ ~ ~
0 1 x1 + K + β m x m + ε = x ′ β + ε
[ ] x ′ E [(b − β ) ε~ ] + ~
σ y2ˆ = E ( ~y − yˆ )2 = E[ε~ 2 ] − 2 ~ x ′ Σb ~
x
x ′ ( X ′ X ) X ′ E[ε ε~ ] + σ 2 ~
= E[ε~ 2 ] − 2 ~ x ′ ( X ′ X ) −1 ~
−1
x
2
(
= σ 1 + x ′ (X ′ X ) x
~ −1 ~
)
unde s-a luat E[ε ~ε ] = 0 şi E[~ε 2 ] = σ 2 din ipoteza de homoscedasticitate (eroarea ~ε
nu este corelată cu ε şi are dispersia constantă σ 2 ).
Un estimator nedeplasat al parametrului (necunoscut) σ 2ŷ este:
( x ′ (X ′ X ) ~
s y2ˆ = s 2 1 + ~
−1
x ) (3.103)
yˆ − ~
y s2
~ N (0, 1); (n − k ) ~ χ n2− k
σ yˆ σ2
putem construi o variabilă, notată t, care urmează o distribuţie Student cu n − k
grade de libertate:
96 Curs de econometrie
yˆ − ~y ( yˆ − ~y ) σ yˆ
t=
s yˆ
= ~ t n − k , unde s yˆ = s 2 1 + ~ (
x ′ (X ′ X ) ~
−1
x )
s 2yˆ
(n − k ) (n − k )
σ 2
yˆ
1 2 3 4 5 6 7 8 9 10 11 12 13
X1 70 35 55 25 28 43 15 33 23 4 45 20 56
X2 21 26 14 10 12 20 5 28 9 6 10 8 36
Y 198 209 197 156 85 187 43 211 120 62 176 117 273
Calitatea ajustării:
Coeficient de determinatie: R 2 = 0.85580
Coeficient de determinatie corectat: R 2 = 0.82696
Coeficient de corelaţie liniară multiplă: R = 0.9251
Eroarea standard a regresiei: SE = 27.84998
Testarea ipotezei nule H0 : βj =0 cu privire la coeficienţii de regresie:
βj bj sbj tj
β0 37.5023 17.64612 2.12524
β1 1.49629 0.55339 2.70388
β2 4.24462 1.06500 3.98556
( x ′( X ′ X ) ~
s y2ˆ = s 2 1 + ~
−1
)
x = 996.16 ; s 2 = 775.62142 ; s yˆ = 31.562
~ [
y ∈ yˆ − 2.228 ⋅ s yˆ , yˆ + 2.228 ⋅ s yˆ ] = [160.57, 301.21]
3.16. Aplicaţii
A1 Se consideră o firmă pentru care nivelul activităţii trebuie să se ajusteze
lunar in funcţie de cererea pieţei. În tabelul următor se prezintă datele cu privire
la outputul Y şi factorii de producţie L , respectiv K , înregistrate pe o
perioadă de 39 luni:
98 Curs de econometrie
Tabelul 1
Luna Y L K Luna Y L K
1 554.399 88 173 21 789.900 135 239
2 535.356 88 165 22 718.904 115 229
3 518.004 84 158 23 763.144 122 238
4 467.675 78 142 24 810.071 140 242
5 457.282 77 142 25 823.969 147 245
6 481.065 76 148 26 816.948 149 237
7 494.610 78 154 27 838.109 159 246
8 513.430 79 164 28 882.637 167 252
9 529.936 80 172 29 888.391 172 252
10 520.322 78 162 30 879.613 173 245
11 516.831 80 169 31 911.521 183 255
12 554.663 87 177 32 930.414 189 260
13 622.890 96 192 33 943.239 194 258
14 644.383 104 205 34 968.823 202 265
15 668.783 110 210 35 987.436 205 269
16 672.975 108 209 36 1010.960 216 275
17 654.045 102 202 37 1060.090 225 285
18 656.954 97 213 38 1098.900 236 297
19 712.060 106 224 39 1146.630 248 305
20 721.234 113 228
j. Definiţi atât sub formă analitică, precum şi sub formă matriceală, variabilitatea
totală a lui y . Precizaţi care sunt componentele în care aceasta se descompune
şi furnizaţi relaţiile lor de calcul, în ambele forme (analitică şi matriceală).
k. Determinaţi numeric variabilităţile definite la punctul precedent, apoi specificaţi
pentru fiecare în parte numărul gradelor de libertate asociate şi calculaţi pătratul
mediu (dispersia) corespunzătoare. Prezentaţi rezultatele sub forma unui tabel.
l. Analizaţi calitatea ajustării liniare a modelului prin intermediul următorilor
indicatori: coeficientul de determinaţie; coeficientul de corelaţie liniară multiplă,
coeficientul de determinaţie corectat şi eroarea standard a regresiei (estimaţiei).
Ce concluzii desprindeţi?
m. Definiţi matricea de covarianţă a vectorului b al estimaţiilor coeficienţilor
modelului de regresie. Cum se poate determina estimaţia nedeplasată a acesteia?
Efectuaţi calculul numeric.
n. Definiţi ipoteza nulă cu privire la coeficienţii modelului de regresie. Descrieţi
cum se aplică testul t al lui Student pentru testarea semnificaţiei coeficienţilor.
o. Plecând de la estimaţia S b a matricei de covarianţă a vectorului b, determinaţi
erorile standard ale coeficienţilor şi calculaţi valorile statisticii t pentru fiecare
coeficient. Prezentaţi rezultatele sub formă tabelară.
p. Precizaţi numărul de grade de libertate şi valoarea critică a testului t la pragul
de semnificatie 5%.
q. Definiţi intervalele de încredere asociate parametrilor modelului de regresie,
pentru un prag de semnificaţie dat.
r. Pe baza rezultatelor de la punctele anterioare, calculaţi limitele inferioară şi
superioară ale intervalelor de încredere pentru fiecare coeficient estimat şi luaţi
o decizie cu privire la testul ipotezei nule.
s. Definiţi ipoteza cu privire la anularea simultană a tuturor coeficienţilor
unghiulari (coeficienţilor pantă) ai modelului şi particularizaţi ipoteza pentru
cazul analizat. Descrieţi cum se aplică testul F , datorat lui Fisher şi Snedecor,
pentru testarea adecvării modelului de regresie.
t. Precizaţi numărul de grade de libertate şi valoarea critică a testului F la pragul
de semnificatie 5%. Pe baza acestui test, luaţi o decizie cu privire la adecvarea
modelului de regresie.
u. Se consideră combinaţia de factori (L, K ) = (250 , 310 ) . Să se definească şi să se
calculeze predicţia punctuală pentru outputul (producţia) ce se estimează a fi
realizată cu această combinaţie de factori.
v. Definiţi şi calculaţi intervalul de încredere asociat acestei predicţii punctuale, la
pragul de semnificaţie 5%.
SOLUŢIE:
x1 L x n n
∑
1 x n x t ∑ x t2
t =1 t =1
f. Avem:
n n
n = 39; ∑x
t =1
t = -21.1996; ∑x
t =1
2
t = 12.8426
n
n
∑ x t
39 − 21.1996
X′X = n t =1
n = − 21.1996 12.8425
xt
∑ ∑ xt2
t =1 t =1
Modelul de regresie liniară multiplă 101
0.249694 0.412181
X ′ X −1 =
0.412181 0.758272
h. Matricea X ′ y se scrie:
n
1
y1
L 1 t =1
yt ∑
47.0594
X ′ y = ⋅ L = n = − 25.143
x1 xn
∑
y n xt ⋅ y t
t =1
i. Vectorul b al estimaţiilor coeficienţilor modelului de regresie se calculează
astfel:
b 1.387
b = 0 = ( X ′ X ) ⋅ X ′ y =
−1
b1 0.332
Înlocuind valorile estimate ale parametrilor, funcţia Cobb Douglas se specifică
prin:
ln Yˆt − ln K t = 1.387 + 0.332 ⋅ (ln Lt − ln K t )
unde cu Ŷt s-au notat valorile estimate ale outputului, pentru a le deosebi de
valorile observate Yt . Ţinând cont că b0 = ln A = 1.387 , deci A = e1.387 = 4.0028 ,
putem să specificăm modelul şi sub forma
Yˆt = A ⋅ Lαt ⋅ K t1−α = 4.0028 ⋅ L0t .332 ⋅ K t0.668
Matriceal : ( )
y ′y − n y 2 = b ′X ′Xb − ny 2 + ( y ′y − b ′X ′y )
k. Următorul tabel sintetizează principalele rezultate referitoare la analiza variaţiei:
(b′X ′Xb − ny )/ m
Explicată de
regresie b ′X ′Xb − ny 2 m = k− 1 2
Reziduală y ′y − b ′X ′y n−k ( y ′y − b ′X ′y ) / (n − k )
Totală y ′y − ny 2 n−1 (y ′y − ny )/(n − 1)
2
102 Curs de econometrie
R 2
=
∑ ( yˆ
t t − y)
2
=
b ′X ′Xb − ny 2
sau R 2 = 1 −
∑ ( y − yˆ )
t t t
2
=1−
y ′y − b ′X ′y
∑ (y t t − y)
2
′
y y − ny 2
∑ (y − y)
t t
2
y ′y − ny 2
R 2 = 0.97461
• Coeficientul de corelaţie multiplă:
R= 1−
∑ ( y − yˆ )
i i i
2
= 1−
y ′y − b ′X ′y
= 0.98722
∑ (y − y) i i
2
y ′y − ny 2
2
=1−
∑ ( y − yˆ )
t t t
2
/( n − k )
=1−
( y ′y − b ′X ′y ) ⋅ (n − 1) = 1 − (1 − R 2 ) ⋅ n − 1
R
∑ (y − y) t t
2
/( n − 1) (y ′y − ny )⋅ (n − k )
2
n−k
R 2 = 0.97392
• Eroarea standard a estimaţiei:
SY , X1 , X 2KX m =
∑ (y t t − yˆ t )
2
=
e ′e
=
y ′y − b ′X ′y
= 0.01011
n−k n−k n−k
′
ee
∑ et2
0.00378
s2 = = t =1 = = 0.0001
n−k n−k 37
Prin urmare, un estimator nedeplasat al matricei de covarianţă a lui b se poate
obţine utilizând s 2 în locul lui σ 2 , adică:
0.0000255 0.0000421
S b = s 2 ⋅ ( X ′X ) =
−1
0.0000241 0.00007749
104 Curs de econometrie
[
β j ∈ b j − tα ; (n − k ) ⋅ s b j , b j + t α ; (n − k ) ⋅ s b j ]
Între testul ipotezei nule H0 şi abordarea pe baza intervalelor de încredere există
similaritate. Astfel, ipoteza H 0 : β j = 0 este respinsă dacă 0 nu aparţine
intervalului de încredere corespunzător şi este admisă în caz contrar.
e ′e
x ′ = (1
~ ln 250 − ln 310) = (1 − 0.22 ) ; s2 = = 0.0001
n−k
Se obţine: ~y ∈ [ 1.29402, 1.33722]
În final:
~ ~
[ ~
Y ∈ Yinf , Ysup ] = [1130.7, 1180.61]
~ ~
y + ln 310
unde Yˆinf = e yinf + ln 310 , Yˆsup = e sup
SOLUŢIE:
a. Modelul liniarizat: y t = ln Yt = ln A + α ⋅ ln Lt + β ⋅ ln K t .
Modelul de regresie liniară multiplă 107
b 0.65795
2
unde:
X'X =
39 187.908 209.108
187.908 910.883 1010.53
209.108 1010.53 1123.02
X'y =
256.167
1238.09
1375.73
(X'X)-1 =
43.4513 7.00002 -14.3895
7.00002 1.76286 -2.88969
-14.3895 -2.88969 5.28047
Intervale de incredere
Coeficienti Limita Limita H0: b(j)=0
inferioara superioara
b0 1.28222 1.55539 H0 respinsa
b1 0.30910 0.36412 H0 respinsa
b2 0.61034 0.70557 H0 respinsa
X'X =
39 780 187.908 209.108
780 20540 3920.8 4275.49
187.908 3920.8 910.883 1010.53
209.108 4275.49 1010.53 1123.02
X'y =
256.167
5239.6
1238.09
1375.73
(X'X)-1 =
886.677 4.57008 -70.7388 -118.846
4.57008 0.0247688 -0.421326 -0.56613
-70.7388 -0.421326 8.92976 6.74039
-118.846 -0.56613 6.74039 18.2203
Sb =
0.087842 0.000452752 -0.007008 -0.0117739
0.000452752 2.45381e-006 -4.17402e-005 -5.60858e-005
-0.007008 -4.17402e-005 0.000884661 0.000667762
-0.0117739 -5.60858e-005 0.000667762 0.00180506
Intervale de incredere
Coeficienti Limita Limita H0: b(j)=0
inferioara superioara
b0 1.31226 2.51557 H0 respinsa
b1 -0.00050 0.00586 H0 respinsa
b2 0.23058 0.35134 H0 respinsa
b3 0.51037 0.68286 H0 respinsa
t yt x1t x2t
1 100 100 100
2 106 104 99
3 107 106 110
4 120 111 126
5 111 111 113
6 116 115 103
7 123 120 102
8 133 124 103
9 137 126 98
SOLUŢIE:
t Y = Y −Y X1 = X 1 − X 1 X2 = X 2 − X 2
1 -17 -13 -6
2 -11 -9 -7
3 -10 -7 4
4 3 -2 20
5 -6 -2 7
6 -1 2 -3
7 6 7 -4
8 16 11 -3
9 20 13 -8
112 Curs de econometrie
σˆ 2 =
εˆ'⋅εˆ
=
(Y − Xaˆ )′ (Y − Xaˆ ) = Y ′Y − aˆ ′ Y ′Y
T − k −1 T − k −1 T − k −1
872
Dar: aˆ '⋅X ′Y = (1.362985 0.12446665) ⋅ = 1179.5614
− 72
şi se găseşte: Y ′Y = ∑ 2
Yt = 1248
68.4386
Obţinem deci: σˆ 2 = = 11.406433
6
aˆ1
5) Prin definiţie, matricea de covarianţă a vectorului este:
aˆ
2
Ω aˆ = σ (X ′ X ) .
2 −1
Ω aˆ = σˆ (X ′ X )
2 −1
∑ ε$ t ≈ 68.439
2
n−k = 6 ∑ε t2 = 11.406
Reziduală n−k
∑Yˆt 2
Fˆ = k − 12
∑ε t
n−k
114 Curs de econometrie
Număr de observaţii 27
Eroarea standard a regresiei 0.18840
Suma pătratelor reziduurilor 0.85163
Coeficient de determinaţie R2 0.94346
2
Coeficient de determinaţie corectat R 0.93875
SOLUŢIE:
[ ]
−1
matricei ( X ′ X )−1 şi deci s 2 R ( X ′X )−1 R′ = Var (b2 ) . Totodată, Rb − q = b2 − 1 ,
deci (Rb − q )′ (Rb − q ) = (b − 1)2 . În plus, numărul de restricţii este j = 1 .
2
Statistica testului F devine în acest caz:
Rb − q ) (s 2 R( X ′X ) R ′) (Rb − q ) (b2 − 1)
( ′ −1
F1,24 =
−1
=
2
=
(0.6030 − 1)2 = 9.937
j Var (b2 ) 0.01586
Rb − q ) (s 2 R( X ′X ) R ′) (Rb − q )
′ −1
F1, 24 =
( −1
=
j
(b2 + b3 − 1)2
= =
Var (b2 ) + Var (b3 ) + 2 ⋅ Cov (b2 ,b3 )
=
(0.6030 + 0.3757 − 1)2 = 0.1157
0.01586 + 0.00728 + 2(−0.00961)
Se admite deci ipoteza β 2 + β 3 = 1 .
0.36 − 1.47
Ωˆ (aˆ1 , aˆ 2 ) = 10− 4 ⋅
− 1.47 121.9
iar din tabelul distribuţiei Fisher-Snedecor se obţine valoarea critică:
F 5% ( 2, 14 ) = 3.74
d. Dacă între momentele T şi θ este prevăzută o variaţie de 25 unităţi pentru x1 ,
de 3 unităţi pentru x2 şi de o unitate pentru x3 , care este variaţia prevăzută
pentru variabila endogenă y?
e. Introducerea unei variabile suplimentare x4 conduce la următorul model
estimat:
SOLUŢIE:
aˆ − a
P i i
≤ t (α ) = 1 − α
σˆ aˆi
Această valoare a lui t este mai mare de 2.145, reprezentând valoarea critică
preluată din tabelul repartiţiei Student. Se respinge deci ipoteza nulă şi se poate
accepta ipoteza H1: a1 este statistic semnificativ. Vom spune în acest caz că
variabila exogenă x1 joacă un rol determinant în evoluţia variabilei endogene
considerate.
118 Curs de econometrie
1 0 aˆ 0.133 0.13
R = ; aˆ = 1 = ; q =
0 1 aˆ 2 0.550 0.30
aˆ − q 0.133 − 0.13
Raˆ − q = 1 1 = ; s 2 R( X ′X )R′ = Ω
ˆ −1 (aˆ , aˆ )
1 2
a2 − q2 0.550 − 0.30
ˆ
F2, 14 =
(Raˆ − q )′ Ωˆ −1 (aˆ1 , aˆ2 )(Raˆ − q ) =
j
−1
1 0.133 − 0.13 4 0.36 − 1.47 0.133 − 0.13
= 10 ≈ 3.05
2 0.550 − 0.30 − 1.47 121.9 0.550 − 0.30
Vom compara valoarea calculată a lui F cu valoarea critică F (α ; ν 1 , ν 2 ) luată
din tabelul repartiţiei Fisher-Snedecor, cu ν 1 = q = 2 şi ν 2 = T − k = 18 − 4 = 14 .
În cazul nostru, F (α ; ν 1 , ν 2 ) = F (0.05; 2, 14 ) = 3.74 . Cum 3.05 < 3.74 , acceptăm
ipoteza nulă H 0 : Ra = q , adică a1 = 0.13 şi a2 = 0.30 .
0.021 0.559
= 0.41 ; = 6 .4
0.051 0.087
5%
Pentru n − k = 18 − 5 = 13 grade de libertate, valoarea critică este t13 = 2.160 .
Chiar fără a cunoaşte cu precizie această valoare, se poate spune că a1 nu mai
poate fi considerat semnificativ şi că putem accepta ipoteza a1 = 0.
Concluzia cu privire la a2 nu diferă de cea de la modelul cu numai trei variabile
exogene; putem deci admite că parametrul a2 este statistic nenul la pragul de
5%.
Modelul de regresie liniară multiplă 119
5%
Construcţia intervalelor de încredere pentru t13 = 2.160 conduce la:
− 0.123 ≤ a1 ≤ 0.081; 0.385 ≤ a2 ≤ 0.733
Deci: - nu se poate spune dacă a1 este pozitiv sau negativ la nivelul α =5%;
- intervalul referitor la a2 este aproximativ acelaşi cu cel obţinut la
primul model.
Concluzie: Introducerea unei variabile exogene suplimentare nu este deci
întotdeauna dezirabilă; în particular, ea este complet inoportună atunci când
provoacă apariţia unei cvasi-coliniarităţi între variabilele exogene, deci când
valorile sale rezultă aproximativ ca o combinaţie liniară de valorile altor
variabile exogene. Această situaţie se verifică aici cu valorile lui x1 şi x4 .
Abaterile standard ale lui â1 şi â 2 devin atunci foarte mari. De altfel, am putea
regăsi o precizie analoagă celei de la primul model înlocuind pe x1 şi x4 cu o
combinaţie liniară a acestor variabile, adică: α ⋅ x1 + β ⋅ x4 .
Wi Xi Di
20 10 0
30 14 0
40 23 0
30 12 0
20 2 0
30 14 1
40 18 1
50 24 1
40 13 1
30 2 1
120 Curs de econometrie
SOLUŢIE:
a. E (ε i ) = 0 pentru toţi i ;
E (ε ⋅ ε ′) = σ 2 ⋅ I , deci nu există autocorelaţie şi nici heteroscedasticitate;
X şi D nu sunt stochastice.
β$ = (X′X) ⋅X′Y
-1
b.
10 132 5 34.574915
unde X′X = 132 2242 71 , X′Y = 471.88712
5 71 5 18.092177
0.5040033 − 0.024918 − 0.150163
(X′X) = − 0.024918 0.0020425 − 0.004085
-1
( )
E X i Wˆi =
∂ Wˆi / ∂ X i ˆ
Wˆ / X
= β1 X i
i i
Am optat pentru evaluarea acestei elasticităţi la o valoare a lui X apropiată de
medie, să spunem X = 13. În acest caz, elasticitatea este de aproximativ 0.37.
Astfel, o creştere a vechimei cu un procent va duce la o creştere a salariului orar
cu aproximativ 0.37%.
Pentru a evalua efectul sexului persoanelor, se observă că derivatele nu pot fi
folosite, deoarece această variabilă este discretă. De aceea, vom evalua diferenţa
dintre speranţele matematice ale lui Ŵ , condiţionate de faptul că D = 1 ,
( ) (
respectiv D = 0 , adică E D Wˆ | D = 1 − E D Wˆ | D = 0 , unde:)
E D (Wˆ | D = 1) = e β 0 + β1 ⋅13+ β 2 = 36.03 ; E D (Wˆ | D = 0) = e β 0 + β1 ⋅13 = 27.64
ˆ ˆ ˆ ˆ ˆ
( ˆ ˆ
) ( ˆ
)
diferenţa e β 2 ⋅1 − e β 2 ⋅0 ⋅ 100 = e β 2 − 1 ⋅ 100 % reprezintă un mod mai simplu de a
obţine acelaşi răspuns.
( )
d. Trebuie să determinăm statistica t = βˆ2 std βˆ2 , ceea ce înseamnă că trebuie
să calculăm eroarea standard a lui β̂ 2 . Începem prin a calcula matricea de
covarianţă V = σˆ 2 ⋅ ( X ′ X )−1 , unde:
σˆ 2 = εˆ′ εˆ (n − k ) = 0.1533178/7 = 0.0219
Observaţi că: εˆ′ εˆ = Y ′ Y − βˆ ′ X ′ Y
Efectuând calculele, obţinem:
0 . 011039 − 0 . 000546 − 0 . 003289
V= − 0 . 000546 0 . 0000447 − 0 . 000089
,
− 0 . 003289 − 0 . 000089 0 . 00894
( )
iar std β̂ 2 = (0.00894)1/2 = 0.09455. Astfel, t = 0.2651 / 0.09455. Care este
valoarea critică pentru un nivel de semnificaţie de 5% şi 7 grade de libertate?
Dacă a fost dificil să o memorăm, să ne reamintim totuşi că valoarea critică
pentru un eşantion mare este 1.96 ≈ 2 . Deoarece 2.8 este mai mare decât 2, vom
concluziona că este semnificativ efectul sexului persoanelor.
e. ln Ŵ = 2.9504 + 0.0283·10 + 0.2651 = 3.4985 ⇒ Ŵ = e3.4985 = 33.06
βˆi
t=
eroarea standard a lui βˆi
122 Curs de econometrie
(18.48 − 13.28) / 3
F3, 69 = = 9.01
13.28 /(76 − 7)
Deoarece valoarea critică F 5% (3, 69) = 2.737 < 9.01, respingem ipoteza H 0 a
inexistenţei efectelor sezoniere.
dorim să testăm ipoteza că toţi β j sunt egali cu zero. Aceasta poate fi scrisă:
Modelul de regresie liniară multiplă 123
R β̂ = r , unde R = I m , r = 0 m
Pentru a construi statistica testului, trebuie să observăm că, deoarece
rang ( X ′ X ) = m (şi nu k = m + 1 , ca în cazul modelului cu intercepţie),
estimatorul nedeplasat pentru σ 2 este dat de relaţia:
εˆ′ εˆ εˆ′ εˆ
σˆ 2 = , iar nu de σˆ 2 = .
n−m n − (m + 1)
εˆ′ ⋅ εˆ
Din acest motiv, ~ χ n2− m , adică urmează o distribuţie χ 2 cu n − m grade
σ2
de libertate, iar statistica testului F este:
βˆ 'X ' X βˆ / m ( y′y − εˆ′ ⋅ εˆ ) / m
= ∼ Fm, n − m
uˆ' uˆ /( n − m) εˆ′ ⋅ εˆ /( n − m)
(iii) pentru întreaga perioadă 1-31 s-a obţinut SSEr = (εˆ ( r ) )′ ⋅ εˆ ( r ) = 9.26;
Se cere să se testeze omogenitatea rezultatelor obţinute pentru cele două
subperioade considerate, aplicând în acest sens testul Chow construit la punctul
precedent. Ce concluzie se obţine la pragul de semnificaţie α = 5% ?
124 Curs de econometrie
SOLUŢIE:
( )′ ( )′
εˆ′ ⋅ εˆ = εˆ (1) ⋅ εˆ (1) + εˆ ( 2) ⋅ εˆ (2 )
Pe de altă parte, pentru a obţine estimatorul α̂ (r ) al modelului cu restricţii,
respectiv vectorul εˆ (r ) al reziduurilor generate în cadrul acestuia, se poate
proceda în două moduri, astfel:
- Se definesc restricţiile prin relaţii matriceale de forma Rα = q . Spre exemplu,
restricţia α (1) = α (2 ) echivalează cu a lua R = (I − I ) şi q = 0 . Se aplică apoi
tehnica de estimare specifică metodei celor mai mici pătrate cu restricţii.
- O cale mai simplă este aceea de a încorpora restricţia direct în model. Vom
explicita cazurile când testarea ipotezei omogenităţii contra celei a schimbărilor
structurale priveşte:
1°) toţi coeficienţii, adică: α (1) = α ( 2 ) = α ( r ) . Modelul cu restricţii se scrie:
Y(1) = X(1) ⋅ α ( r ) + ε (r1) ; Y ( 2 ) = X( 2 ) ⋅ α ( r ) + ε (r2 )
sau matriceal:
Modelul de regresie liniară multiplă 125
b. Modelul este:
yt = α1wt + α 2 zt + α 3 + ε t ; t ∈ {1,...,31}; T = 31
Dat fiind că s-a efectuat regresia atât pentru întreaga perioadă de 31 ani, cât şi
pentru cele două sub-perioade, se poate testa cu uşurinţă omogenitatea
coeficienţilor.
126 Curs de econometrie
(1) ( 2 )
Y21 Y10
deoarece dispunem de T1 = 21 observaţii pentru prima sub-perioadă şi de
T2 = 10 observaţii pentru a doua; U reprezintă aici variabila unitate. Punând:
α1(1) α1(2 )
α1 = α 2(1) , α 2 = α 2(2 )
(1) (2 )
α1 α 3
(
X (1) = W (1) Z (1) U (1) ) (matrice (T1 × 3))
X ( 2)
= (W ( 2)
Z (2)
U (2)
) (matrice (T2 × 3))
modelul se mai poate scrie:
Y (1) X (1) 0 α (1) ε (1)
= +
Y (2 ) 0 X (2 ) α (2 ) ε (2 )
El furnizează estimaţiile fără restricţii şi reziduurile corespunzătoare, pe baza
cărora se poate calcula suma reziduurilor: εˆ ′ ⋅ εˆ . Dacă cele două ecuaţii sunt
estimate separat, atunci acelaşi rezultat se va obţine prin cumularea sumelor
reziduurilor relative la sub-eşantioanele respective:
εˆ ′ ⋅ εˆ = (εˆ (1) )′ ⋅ εˆ (1) + (εˆ (2 ) )′ ⋅ εˆ (2 ) .
εˆ′ ⋅ εˆ
De remarcat că avem: ~ χ N2 -q , unde N = 31 este numărul total de
σ 2
β̂ j σˆ 2j Tj
R 2 = 0.9937 ; σˆ ε = 0.03755
Matricea de covarianţă a estimatorilor este:
( ) 5.5461 − 3.0032
Cov βˆ1 , βˆ2 = σˆ ε2
− 3.0032 1.8079
Pentru perioada 1− 20 :
ln Yt = −4.0576 + 1.6167 ⋅ ln Lt + 0.2197 ⋅ ln K t
(−11.36) (7.74) (0.96)
R 2 = 0.9759 ; σˆ ε = 0.04573
Pentru perioada 21 − 39 :
ln Yt = −1.9564 + 0.8336 ⋅ ln Lt + 0.6631 ⋅ ln K t
(−2.19) (3.35) (7.86)
R 2 = 0.9904 ; σˆ ε = 0.02185
SOLUŢIE:
Se aplică o variantă a testului lui Fisher şi anume testul Chow, vizând ipoteza de
omogenitate, sau stabilitate a modelului (contra ipotezei unor schimbări
structurale).
Suma pătratelor reziduurilor pentru prima sub-perioadă (1-20) este:
εˆ1′ ⋅ εˆ1′ = σˆ ε(1) ⋅ (T1 − k ) = (0.04573) 2 ⋅ 17 , deoarece numărul observaţiilor este
T1 = 20 şi există k = 3 parametri.
Suma pătratelor reziduurilor pentru a doua sub-perioadă (21-39) este:
εˆ2′ ⋅ εˆ2′ = σˆ ε( 2 ) ⋅ (T2 − k ) = (0.02185) 2 ⋅ 16 , deoarece numărul observaţiilor este
T2 = 19 şi există tot k = 3 parametri.
Suma pătratelor reziduurilor pentru modelul fără restricţii se obţine atunci prin
însumarea sumelor pătratelor reziduurilor corespunzătoare celor două sub-
perioade:
′ ⋅ εˆFR
εˆFR ′ = εˆ1′ ⋅ εˆ1′ + εˆ2′ ⋅ εˆ2′ = 0.04319
şi corespunde unui număr de T − 2 k = 33 grade de libertate.
Suma pătratelor reziduurilor pentru modelul cu restricţii, definit şi estimat sub
forma prezentată la cazul a), ce corespunde situaţiei de stabilitate (omogenitate),
se determină astfel:
εˆR′ ⋅ εˆR′ = σˆ ε( R ) ⋅ (T − k ) = (0.03755) 2 ⋅ 36 = 0.05076
Modelul de regresie liniară multiplă 131
unde T = 39 , iar k = 3 .
Statistica testului este definită de:
(εˆ′R ⋅ εˆR − εˆ′FR ⋅ εˆFR ) / k ( 0.05076 − 0.04319) 3
F3, 33 = = = 1.93
′ ⋅ εˆFR /(T − 2k )
εˆFR 0.04319 33
Valoarea critică la pragul α = 0.05, obţinută din tabelul distribuţiei Fisher este
F 5% (3, 33) = 2.90. Cum 1.93 < 2.90, trebuie să respingem ipoteza de stabilitate
a coeficienţilor pentru cele două sub-perioade considerate.
132 Curs de econometrie
function [b_stat,bint,anova_stat,valid_model,t_infer,F_infer,ye,e] =
reg_lin_mult(X,y,is1,alpha)
if nargin < 2
error(message('Prea putine intrari!'));
elseif nargin < 3
is1 = 1;
elseif nargin == 3
alpha = 0.05;
end
[n,ncolX] = size(X);
if ~isvector(y) || numel(y) ~= n
error(message('Numarul de elemente ale vectorului y si numarul de
linii ale matricei X sunt diferite!'));
end
[Q,R,perm] = qr(X,0);
% qr produce o matrice triunghiular superioara R de dimensiune
% (n, ncolX), si o matrice ortogonala Q (cu proprietatea Q'*Q=I);
% perm este un vector permutare, astfel incat X(:,perm) = Q*R
if isempty(R)
k = 0;
elseif isvector(R)
k = double(abs(R(1))>0);
else
k = sum(abs(diag(R)) > max(n,ncolX)*eps(R(1)));
end
if k < ncolX
warning(message('X nu este de rang maximal'));
R = R(1:k,1:k);
Q = Q(:,1:k);
perm = perm(1:k);
end
b = zeros(ncolX,1);
b(perm) = R \ (Q'*y);
t = NaN;
tval = 0;
bint = NaN;
end
% Statistica F a testului lui Fisher
if k > 1
F = (SSR/(k-1))/s2;
else
F = NaN;
end
% Probabilitatea pvalue asociata semnificatiei modelului
% de regresie
prob = fpvalue(F,k-1,n_k);
end
%
% FuncŃie pentru predicŃie liniara
%
function [yp,sy] = predictie(X,is1,b,s2,x)
n=size(X,1);
one=ones(n,1);
if is1 > 0
X=[one, X];
x=[1 x];
end;
yp=X*b;
sy=sqrt(s2*(1+x*inv(X'*X)*x'));
%
% FuncŃie pentru testul lui Wald
%
function F = Wald(X,is1,R,b,q,s2)
n=size(X,1);
j=size(R,1);
if is1 > 0
X=[ ones(n,1), X];
end;
F=(R*b-q)'*inv(s2*R*inv(X'*X)*R')*(R*b-q)/j;