Sunteți pe pagina 1din 18

Capitolul 2.

MODELUL LINIAR MULTIPLU

2.1. Forma modelului


În general fenomenele economice pe care dorim să le modelăm prin
econometrie sunt complexe şi nu pot fi reprezentate printr-un model liniar simplu.
Modelul liniar multiplu corespunde mai bine acestei necesităţi, introducând mai
multe variabile explicative.
yt  a0  a1 x1t  a2 x2t  ...  ak xkt   t t  1,..., T (2.1)
 t indexează observaţiile
 T numărul de observaţii
 yt variabila endogenă la momentul t (sau observaţia cu rangul t )
 x1t este realizarea variabilei explicative 1 la momentul t (sau observaţia cu
rangul t)
 x2t este realizarea variabilei explicative 2 la momentul t (sau observaţia cu
rangul t)
.......
 xkt este realizarea variabilei explicative k la momentul t (sau observaţia cu
rangul t)
  t este realizarea în t a variabilei reziduale
 a0 , a1 , a2 ,..., ak parametrii de estimat ai modelului.
Sub forma din ecuaţia 1.1 modelul este greu de utilizatat, fapt pentru care
vom prefera o formă mai condensată, matricială. Dacă rescriem modelul observaţie
cu observaţie, obţinem:
y1  a0  a1 x11  a2 x21  ...  ak xk1   1
y 2  a0  a1 x12  a2 x22  ...  ak xk 2   2
.......
yt  a0  a1 x1t  a2 x2t  ...  ak xkt   t
.......
yT  a0  a1 x1T  a2 x2T  ...  ak xkT   T
ceea ce sub formă matricială (între paranteze numărul de linii şi respectiv de
coloane) devine:

-1-
Y  X  a  
(2.2)
(T ,1) (T , k  1) (k  1,1) (T ,1)
unde:
 y1   1 x11 ... xk1  x21  1 
     a0   
 y2   1 x12 ... xk 2  x21   2 
 ... ...  a   ... 
 ...  ... ... 
1
...
Y   X   a   a2    
 yt   1 x1t ... xkt  x2 t    t 
 ... ...    ... 
 ...  ... ... 
...
   ... a   
y  1 x   k   
 T  ... xkT 
1T x 2T  T
Prima coloană a matricei X conţine doar valoarea 1, care corespunde coeficientului
a 0 . Astfel matricea X are T linii şi k+1 coloane (k variabile explicative plus
constanta).

2.2. Estimarea parametrilor


Considerăm modelul sub formă matricială, cu k variabile explicative şi T
observaţii:
Y  X a 
Pentru estimarea componentelor vectorului a , având ca şi componente coeficienţii
a0 , a1 , a2 ,..., ak aplicăm ca şi la modelul liniar simplu metoda patratelor minime
(MPM), minimizând suma patratelor erorilor.
T
Notăm: S    t2
t 1
T
min  t 1
t
2
 min(  '  )

 min( Y  Xa)' (Y  Xa) (2.3)


 min( Y ' Y  Y ' Xa  a ' X ' Y  a ' X ' Xa)
 min( Y ' Y  2a ' X ' Y  a ' X ' Xa)
unde :
 ' este vectorul transpus al lui  ;
a' este vectorul transpus al lui a ;
Y ' este vectorul transpus al lui Y ;
X ' este transpusa matricii X .
Pentru a minimiza expresia, derivăm în raport cu a :
S
 2 X ' Y  2 X ' X aˆ  0 (2.4)
a
-2-
 aˆ  ( X ' X ) 1 X ' Y (2.5)
Această soluţie este realizabilă dacă matricea patratică X ' X este inversabilă.
Matricea este este neinversabilă doar în caz de coliniaritate perfectă între oricare
două variabile explicative.

1.3. Ipoteze fundamentale asupra modelului


 H1 : E ( t )  0 ; variabila reziduală este de medie nulă ;
 H2 : yt şi xt reprezintă valori numerice observate fără erori
 H3 : Modelul este liniar în raport cu xt sau o transformare a lui xt (logaritm,
inversiune, etc.) ;
 H4 : E ( t2 )   2 t (varianţa perturbaţiilor este constantă, indiferent de t)
 H5 : cov( t ,  t ' )  0 (erorile nu sunt corelate) ;
 H6 : cov( xit ,  t )  0 i  1,2,..., k
perturbaţiile sunt independente în raport cu variabilaele explicative ;
 H7 :  t  N (0,  2 ) t
Pe lângă aceste ipoteze întâlnite şi la modelul liniar simplu, mai avem şi ipoteze
structurale, care ţin de forma modelului:
 H8 : variabilele explicative nu sunt coliniare. Aceasta implică existenţa matricei
inverse a lui ( X ' X ) , respectiv ( X ' X ) 1 ;
(X ' X )
 H9 : tinde spre o matrice finită nesingulară ;
T
 H10 : T  k  1, adică numărul de observaţii este mai mare decât numărul de
variabile explicative plus constanta. În cazul T  k  1 s-ar obţine un
sistem de ecuaţii nedeterminat. În cazul T  k  1 s-ar obţine un sistem de
T ecuaţii cu T necunoscute perfect determinat.

1.4. Proprietăţile estimatorilor


Sub formă matricială, modelul poate fi scris sub diferite forme:
Y  X a 
Yˆ  X  aˆ
Yˆ  X  aˆ  e (unde e  Y  Yˆ )
Obţinem:

-3-
aˆ  ( X ' X ) 1 X ' Y
 ( X ' X ) 1 X ' ( Xa   )
(2.6)
 ( X ' X ) 1 X ' ( Xa)  ( X ' X ) 1 X ' 
 a  ( X ' X ) 1 X ' 
Dar cunoaştem că E ( )  0 ,
 E (aˆ )  a  ( X ' X ) 1 X ' E ( )  a (2.7)
deci estimatorul este nedeplasat:
E (aˆ )  a (2.8)
Calculăm matricea varianţelor şi covarianţelor coeficienţilor modelului  â :
 aˆ  E[( aˆ  a)( aˆ  a) 1 ] (2.9)
Din 2.6 avem :
aˆ  a  ( X ' X ) 1 X ' 
şi deci:
(aˆ  a)'   ' X ( X ' X ) 1
deoarece ( X ' X ) 1 este o matrice simetrică.
(aˆ  a)(aˆ  a)'  ( X ' X ) 1 X '  ' X ( X ' X ) 1
de unde obţinem:
 aˆ  (aˆ  a)( aˆ  a)'  ( X ' X ) 1 X ' E ( ' ) X ( X ' X ) 1 (2.10)
Notând cu: E ( ' )   matricea varianţelor şi covarianţelor lui  şi ţinând cont
de ipotezele de homoscedasticitate (varianţa erorilor constantă) şi de independenţa
a erorilor, avem:
 E ( 1  1 ) E ( 1  2 ) ... E ( 1  T )    2 0 ... 0 
   
 E ( 2  1 ) E ( 2  2 ) ... E ( 2  T )   0  2 ... 0 
  E ( ' )   
... ... ... ...   ... ... ... ... 
   
 E (  ) E (  ) ... E ( T  T )   0 0 0  2 
 T 1 T 2

de unde:
 aˆ   2 ( X ' X ) 1 X ' X ( X ' X ) 1
 aˆ   2 ( X ' X ) 1 (2.11)
Fără a prezenta aici calculele, se poate demonstra (vezi Dormont, 1999) că un
estimator nedeplasat al lui  2 este:
e' e
ˆ 2  (2.12)
T  k 1

-4-
Înlocuind varianţa erorilor prin estimatorul său în expresia matricei de varianţe şi
covarianţe a coeficienţilor (2.11), obţinem:
ˆ ˆ  ˆ 2 ( X ' X ) 1 (2.13)
a 

Tot fără a demonstra aici, menţionăm că estimatorul obţinut prin aˆ  ( X ' X ) 1 X ' Y
este BLUE (Best Linear Unbiased Estimator), adică este nedeplasat şi are varianţe
minime ale estimatorilor.

2.5. Teste şi intervale de încredere


Din ipoteza de normalitate a erorilor  t  N (0,  2 ) rezultă :
aˆi  ai
 N (0,1)
 aˆ
i

ˆ a2ˆ
(T  k  1) 2   (2T k 1) ca fiind suma patratelor unei variabile aleatoare normale.
i

 aˆ i

aˆi  ai
Ca urmare, este raportul dintre o variabilă normală şi rădăcina patrată a
ˆ aˆi
unei variabile care urmează o distribuţie  2 , deci:
aˆi  ai
 Student(T k 1) (2.14)
ˆ aˆi
(aˆ  a)' aˆ 1 (aˆ  a)   (2k 1)
1 ˆ ˆ1 (aˆ  a)  Fisher
(aˆ  a)'  ( k 1;T  k 1)
k 1
a

Teste referitoare la un coeficient


Testăm egalitatea unui coeficient cu o valoare dată a * (utilizăm această notaţie,
deoarece am notat cu a vectorul parametrilor.
H 0 : ai  a *
H 1 : ai  a *
aˆi  ai
Ştim din 2.14 că  Student(T k 1) . Sub ipoteza H 0 , rezultă:
ˆ aˆi
aˆi  ai
 t a*ˆi  Student(T k 1) (2.15)
ˆ aˆi
- dacă t a*ˆi  tT/k21 respingem H 0 , deci ai este semnificativ diferit de a * (cu un
risc de  % )
-5-
- dacă ta*ˆi  tT/k21 acceptăm H 0 , deci ai nu este semnificativ diferit de a * (cu
un risc de  % )
În cele mai multe situaţii dorim să testăm nulitatea coeficienţilor pentru a şti dacă o
variabilă explicativă este într-adevăr semnificativă, ceea ce devine un caz particular
al ipotezei de mai sus, pentru care a*  0 . Relaţia 2.15 devine:
aˆi
 t a*ˆi  Student(T k 1) (2.16)
ˆ aˆi
Se poate construi astfel un interval de încredere pentru coeficientul ai :
Prob(aˆi  tT/k21ˆ aˆi  ai  aˆi  tT/k21ˆ aˆi )  1   (2.17)

Test referitor la un ansamblu de coeficienţi


Testăm simultan egalitatea unui ansamblu de coeficienţi din modelul de regresie cu
un ansamblu de valori fixate.
H 0 : am  am*
H1 : am  am*
Efectuăm testul cu privire la m coeficienţi, deci am şi respectiv a m* sunt vectori de
dimensiune m :
1 ˆ ˆ1 (aˆ  a )  Fˆ*  Fisher
(aˆ m  am )'  am m m am ( m ;T  k 1) (2.18)
m
- dacă Faˆ*m  F(m;T k 1) acceptăm H 0 , deci am nu este semnificativ diferit de a m*
(cu un risc de  % )
- dacă Faˆ*m  F(m;T k 1) respingem H 0 , deci am este semnificativ diferit de a m* (cu
un risc de  % ).
Desigur şi pentru testul cu privire la un ansamblu de coeficienţi, dorim să testăm
cel mai adesea nulitatea lor. Testul devine:
H 0 : am  0 m
H 1 : am  0 m
unde 0 m este vectorul nul de dimensiune m :
1 ˆ ˆ1 aˆ  Fˆ*  Fisher
aˆ m '  am m am ( m ;T  k 1) (2.19)
m

2.6. Analiza varianţei


Ca şi în cazul modelului liniar simplu, avem următoarele relaţii:
1) Suma reziduurilor este nulă:
-6-
T


t 1
t  0.

2) Media (suma) seriei variabilei endogene este egală cu media (suma) seriei
ajustate:
T T

 y   yˆ
t 1
t
t 1
t

yt  yˆ t
Din aceste două relaţii putem deduce ecuaţia de analiză a varianţei:
T T T

 ( yt  y ) 2   ( yˆt  yˆ ) 2   et2
t 1 t 1 t 1
(2.20)
SPT  SPE  SPR
Suma patratelor totală (SPT) = Suma patratelor explicată (SPE) +
+ Suma patratelor reziduală (SPR)
Ecuaţia ne permite să apreciem global calitatea ajustării modelului. Aceasta
este cu atât mai bună cu cât varianţa (suma patratelor) reziduală este mai mică.
Pentru că valoarea ei depinde de unitatea de măsură a variabilei, preferăm un
parametru adimensionat:
T T

 ( yˆ t  y ) 2 e 2
t
R2  t 1
T
1 T
t 1
(2.21)
(y
t 1
t  y) 2
(y
t 1
t  y) 2

care este de fapt raportul dintre varianţa explicată şi cea totală. R 2 se numeşte
coeficient de determinaţie, iar R coeficient de corelaţie liniară multiplă.
Ştim că dacă numărul de observaţii T este egal cu numărul de variabile
explicative plus constanta (k+1) funcţia trece prin toate punctele de coordonate
reprezentate de observaţii. Abaterile fiind nule, coeficientul de determinaţie va fi
egal cu 1, dar puterea explicativă a modelului este nulă. Atunci când numărul de
observaţii este relativ mic în raport cu numărul de variabile explicative calculăm un
R 2 corectat, pe care îl notăm cu R 2 :
T 1
R 2  1 (1  R 2 ) (2.22)
T  k 1
Analiza varianţei permite estimarea semnificativităţii globale a modelului
de regresie. Testul se formulează astfel:
H 0 : a1  a2  ...  ak  0
H1 : exista cel putin un coeficient nenul

-7-
Nulitatea termenului constant a 0 nu ne interesează, ci doar variabilele explicative.
Oricum, un model în care numai termenul constant este semnificativ nu are sens
economic. Dacă ipoteza H 0 este acceptată înseamnă că nu există nici o relaţie
liniară semnificativă între variabila endogenă şi cele explicative, adică SPE nu este
semnificativ diferită de 0. Pe baza ecuaţiei de analiză a varianţei:
T T T

(y
t 1
t  y ) 2   ( yˆ t  yˆ ) 2   et2
t 1 t 1

construim tabloul de analiză a varianţei:

Tabelul 2.1 : Analiza varianţei


Sursa variaţiei Suma patratelor Numărul gradelor
de libertate
Variabilele explicative ( T
SPE   ( yˆ t  y ) 2
x1 , x2 ,..., xk ) t 1
k
T

Variabila reziduală SPR   et2


t 1
T  k 1
T
SPT   ( yt  y ) 2
Total
t 1
T 1

Se construieşte raportul:
T 2
 ( yˆ t  y )  / k R2 / k
F*  T t 1   (2.23)
 2 (1  R 2 ) /(T  k  1)
 et  /(T  k  1)
 t 1 
Din ipoteza de normalitate e erorilor şi sub ipoteza H 0 rezultă că F * urmează o
distribuţie Fisher (fiind un raport între două variabile  2 ) cu k, respectiv T-k-1
grade de libertate.
F *  Fisher( k ,T k 1) (2.24)
- dacă F*  F(k ,T k 1) respingem ipoteza H 0 , modelul este global explicativ ;
- dacă F*  F(k ,T k 1) acceptăm ipoteza H 0 , modelul nu este global explicativ.

2.7. Variabile indicatoare în modelul liniar multiplu


În anumite situaţii dorim să integrăm într-un model un factor explicativ
binar de tipul « un fenomen are loc sau nu » sau un factor cu două valori posibile

-8-
« bărbat / femeie » sau « a mai avut / nu a mai avut accident ». Pentru a modela
astfel de fenomene apelăm la variabile indicatoare, care pot lua doar două valori: 0
sau 1. Modelul de regresie diferă după apariţia / neapariţia fenomenului doar prin
valoarea unui coeficient, iar ceilalţi coeficienţi rămân identici.
- în cazul existenţei fenomenului:
yt  a0  a1 x1t  a2 x2t  ...  ak xkt   t t  1,..., T (2.25)
- în cazul inexistenţei fenomenului:
yt  b0  a1 x1t  a2 x2t  ...  ak xkt   t t  1,..., T (2.26)
Putem scrie aceste două ecuaţii sub forma unei ecuaţii unice:
yt  (b0  a0 ) Dt  a1 x1t  a2 x2t  ...  ak xkt   t (2.27)
unde: Dt  1 atunci când fenomenul există ;
Dt  0 atunci când fenomenul nu există.
Se încorporează deci o variabilă explicativă suplimentară faţă de modelul iniţial şi
se aplică metodele clasice de estimare.

2.8. Previziunea variabilei endogene prin regresia liniară multiplă


Problema se pune ca şi la modelul liniar simplu de a estima valoarea
variabilei endogene pentru un ansamblu cunoscut de valori ale variabilelor
explicative. Presupunem modelul estimat sub forma:
yt  aˆ0  aˆ1 x1t  aˆ 2 x2t  ...  aˆ k xkt  et (2.28)
Valoarea punctuală previzionată pentru observaţia t  1 este:
yˆ t 1  aˆ0  aˆ1 x1t 1  aˆ 2 x2t 1  ...  aˆ k xkt 1 (2.29)
Eroarea de previziune este:
et 1  yt 1  yˆ t 1 (2.30)
Valoarea estimată yˆ t 1 este nedeplasată dacă ipotezele modelului liniar multiplu
sunt respectate.
Previziunea se poate realiza astfel doar dacă valorile variabilelor explicative
sunt cunoscute cu exactitate. În cazul în care acestea sunt probabiliste este necesară
o altă abordare. Este cazul seriilor de timp de exemplu pentru care s-a dezvoltat o
teorie diferită.
Varianţa erorii de previziune este egală cu:
 e2   2 [1  X 't 1 ( X ' X ) 1 X t 1 ]
t 1
(2.31)

-9-
 1 
 
 x1t 1 
unde X t 1   x2t 1  este matricea (vectorul) valorilor variabilelor explicative
 
 ... 
x 
 kt 1 
pentru observaţia t  1 .
Expresia varianţei erorii de previziune a fost dată fără demonstraţie. Pentru
detalii privind deducerea ei vezi Dormont (1998).
Eroarea de previziune este distribuită normal de medie nulă şi varianţă  e2t 1 :
et 1  N (0,  e2t 1 )
Dacă înlocuim  2 cu estimatorul său:
T
1
ˆ 2  
T  k  1 t 1
et2

atunci:
yˆ t 1  yt 1
 Student(T k 1) (2.32)
ˆ  [1  X 't 1 ( X ' X ) 1 X t 1 ]
2

Ca şi la modelul liniar simplu, varianţa erorii de previziune este cu atât mai mică cu
cât varianţa reziduală este mai mică şi valorile variabilelor explicative se apropie
de mediile lor. Putem construi şi un interval de încredere pentru valoarea
previzionată a variabilei endogene:
 
Prob yˆt 1  tT/k21ˆ et 1  yt 1  yˆt 1  tT/k21ˆ et 1  1   (2.33)
unde:

 
T
1
ˆ e 
t 1 
T  k  1 t 1
et2  1  X 't 1 ( X ' X ) 1 X t 1 (2.34)

Exerciţiul 2.1
Presupunem că o variabilă yt este influenţată de factorii x1t , x2t , x3t . Dispunem de
23 de observaţii cu privire la realizările acestor variabile.

Tabelul 2.2
Nr. yt x1t x2 t x3t Nr. yt x1t x2 t x3t
crt. crt.
1 163 669 17,4 69 13 295 869 10,3 67
2 381 872 10,5 75 14 256 824 17,5 88

- 10 -
3 455 1191 14,3 64 15 309 676 13,0 64
4 451 933 12,5 85 16 286 885 13,2 67
5 373 668 15,3 90 17 379 1179 11,8 60
6 321 733 13,8 61 18 425 1161 13,9 86
7 316 933 15,0 85 19 404 1074 11,5 64
8 410 1165 10,7 74 20 330 775 16,0 89
9 348 932 8,2 70 21 354 752 8,9 76
10 383 840 8,1 66 22 384 740 15,1 85
11 386 901 12,0 87 23 233 590 9,3 62
12 163 669 17,4 64

Se cere:
1) În ipoteza unei legături liniare multiple dintre yt şi factorii x1t , x2t , x3t să se
calculeze estimatorii parametrilor.
2) Să se testeze nulitatea fiecărui parametru.
3) Să se stabilească intervale de încredere la un prag de 95% pentru parametrii
modelului.
4) Să se testeze simultan nulitatea tuturor coeficienţilor din modelul de regresie.
5) Să se calculeze R 2 şi R 2 .
6) Să se construiască tabloul de analiză a varianţei şi testul Fisher adecvat.
7) Să se facă o previziune a lui yt 1 , dacă x1t 1  880 , x2t 1  12,5 , x3t 1  75 .
8) Să se compare precizia estimării prin regresia multiplă în raport cu regresia
simplă.

1) Conform relaţiei 2.5 estimatorii parametrilor se obţin prin:


aˆ  ( X ' X ) 1 X ' Y
În cazul aplicaţiei noastre avem:
 1 x11 x21 x31   1 669 17,4 69 
   
 1 x12 x22 x32   1 872 10,5 75 
X  
... ... ... ...   ... ... ... ... 
   
1 x
 1T x2T x3T   1 590 9,3 62 
 y1   163 
   
 y2   381
Y  
... ... 
   
 y   233 
 T  
unde T  23 .
- 11 -
aˆ  ( X ' X ) 1 X ' Y
1
 1 1 ... 1   1 669 17,4 69   1 1 ... 1   163 
       
  669 872 ... 590   1 872 10,5 75   669 872 ... 590   381
aˆ     
 17,4 10,5 ... 9,3   ... ... ... ...  17,4 10,5 ... 9,3   ... 
  
 
    
 69 75 ... 62   1 590 9,3 62   69 75 ... 62   233 
 20,530 
 
 0,2643 
â  
- 11,065 
 
 3,1281 
 
Estimatorii parametrilor sunt deci:
aˆ0  20,530
aˆ1  0,2643
aˆ2  11,065
aˆ3  3,1281

2) Pentru testarea ipotezelor de nulitate a parametrilor avem nevoie de varianţa


fiecărui estimator. Acestea se pot deduce din matricea de varianţe şi covarianţe a
parametrilor (vezi relaţia 2.13):
ˆ  ˆ 2 ( X ' X ) 1
 aˆ 

unde estimatorul varianţei variabilei reziduale este dat de:


e' e
ˆ 2 
T  k 1
Tabelul 2.3 : Calculul reziduurilor din estimare
Nr. crt. yt yˆ t  20,530  0,2643  x1t  et
 11,065  x2t  3,1281 x3t
1 163 220.65 -57.65
2 381 369.42 11.58
3 455 377.28 77.72
4 451 394.7 56.3
5 373 309.32 63.68
6 321 252.38 68.62
7 316 367.04 -51.04
8 410 441.52 -31.52
9 348 395.09 -47.09

- 12 -
10 383 359.37 23.63
11 386 398.03 -12.03
12 163 205.01 -42.01
13 295 345.82 -50.82
14 256 319.95 -63.95
15 309 255.55 53.45
16 286 317.96 -31.96
17 379 389.26 -10.26
18 425 442.6 -17.6
19 404 377.34 26.66
20 330 326.72 3.28
21 354 358.54 -4.54
22 384 314.92 69.08
23 233 267.5 -34.5

23
e' e 1 1 23 2
ˆ 2    t 20 
T  k  1 T  k  1 t 1
e 2

t 1
et

ˆ 2  2369,28
1
 1 1 ... 1   1 669 17,4 69 
   
ˆ ˆ  ˆ ( X ' X )  2494,055 
   669 872 ... 590   1 872 10 ,5 75 
 2 1

a 
17,4 10,5 ... 9,3   ... ... ... ... 
   
 69 75 ... 62   1 590 9,3 62 

 9656,855 - 3,557957 - 137,9706 - 63,33703 


 
ˆ  - 3,557957 0,0035984 0,049006 - 0,002791
 â  
- 137,9706 0,049006 15,91290 - 1,480421 
 
 - 63,33703 - 0,002791 - 1.480421 1,148658 
 
Pentru toate testele cu privire la câte un parametru, vom avea :
tT/k21  t 23
0 , 025
 2,093
 Pentru parametrul a 0 :
aˆ0 20,53
  0,21  2,093
ˆ aˆ0 9656,855
Acceptăm că a 0 nu este semnificativ diferit de 0.
Intervalul de încredere (95%) pentru a 0 este :

- 13 -
Prob(aˆi  tT/k21ˆ aˆi  ai  aˆi  tT/k21ˆ aˆi )  1  
Prob(aˆ0  t190,025ˆ aˆ0  a0  aˆ0  t190,025ˆ aˆ0 )  0,95
Prob(20,53  2,093  98,2693  a0  20,53  2,093  98,2693)  0,95
Prob( - 185,15  a0  226,21)  0,95
 Pentru parametrul a1 :
aˆ1 0,2643
  4,41  2,093
ˆ aˆ1 0,0035984
Acceptăm că a1 este semnificativ diferit de 0.
Intervalul de încredere (95%) pentru a1 este :
Prob( 0,1387  a1  0,3898)  0,95
 Pentru parametrul a 2 :
aˆ 2 11,065
  2,77  2,093
ˆ aˆ2 15,9129
Acceptăm că a 2 este semnificativ diferit de 0.
Intervalul de încredere (95%) pentru a 2 este :
Prob( - 19,414  a2  -2,715)  0,95
 Pentru parametrul a3 :
aˆ3 3,1281
  2,92  2,093
ˆ aˆ3 1,1486
Acceptăm că a3 este semnificativ diferit de 0.
Intervalul de încredere (95%) pentru a3 este :
Prob( 0,884  a3  5,371)  0,95

4) La latitudinea cititorului.

5) Pentru calculul lui R 2 folosim formula:


T T

 ( yˆ t  y ) 2 e 2
t
R2  t 1
T
1 T
t 1

(y
t 1
t  y)2 (y
t 1
t  y)2

- 14 -
T

e 2
t
47387,05
R2  1  T
t 1
1  0,6623
(y
140311,2
t  339,35) 2
t 1

Pentru calculul lui R 2 corectat, notat cu R 2 , folosim:


T 1
R 2  1 (1  R 2 )
T  k 1
23  1
R 2 1 (1  0,6623)  0,6089
23  3  1

6) Pentru tabloul de analiză a varianţei, calculăm:


23
SPE   ( yˆ i  y ) 2  92924,15
t 1

23
SPR    t2  47387,05
t 1
20
SPT   ( yi  y ) 2  140311,2
t 1

Tabelul 2.4 : Analiza varianţei


Sursa variaţiei Suma patratelor Numărul gradelor
de libertate
Variabilele explicative (
x1 , x2 ,..., xk ) SPE  92924,15 3

Variabila reziduală SPR  47387,05 19

Total SPT  140311,2 22

T 2
 ( yˆ t  y )  / k R2 / k
F *  Tt 1  
 2 (1  R 2 ) /(T  k  1)
 t e /(T  k  1)
 t 1 
SPE / 3
F*   4,194
SPR / 19
Din tabelele cu distribuţia Fisher-Snedecor avem:

- 15 -
F(k ,T k 1)  F(03,;05
19)  3,13

F*  F(k ,T k 1)  respingem ipoteza H 0 , modelul este global explicativ.

7) Previziunea punctuală a lui yt 1 , dacă x1t 1  880 , x2t 1  12,5 , x3t 1  75 este:
yˆ t 1  aˆ0  aˆ1 x1t 1  aˆ2 x2t 1  aˆ3 x3t 1
yˆ t 1  20,530  0,2643  880  11,065  12,5  3,1281  75
yˆ t 1  349,4
Sub formă generală, intervalul de încredere se scrie:
 
Prob yˆt 1  tT/k21ˆ et 1  yt 1  yˆt 1  tT/k21ˆ et 1  1  

 
T
1
unde: ˆ et 1  
T  k  1 t 1
et2  1  X 't 1 ( X ' X ) 1 X t 1

X 't 1 ( X ' X ) 1 X t 1 
1
 1 1 ... 1   1 669 17,4 69   1 
     
  669 872 ... 590   1 872 10,5 75   880 
 1 880 12,5 75     
 17,4 10,5 ... 9,3   ... ... ... ...  12,5 
     
 69 75 ... 62   1 590 9,3 62   75 
 0,0453887
1 T 2 1
ˆ et 1  
19 t 1
et  (1  0,0453887) 
19
 47387,05  1,0453887  51,061

Din valorile tabelate ale distribuţiei Student, deducem:


tT/k21  t190,025  2,09
Intervalul de încredere va fi deci:
Prob349,4  2,09  51,061  yt 1  349,4  2,09  51,061  95%
Prob242,7  yt 1  456,1  95%
Constatăm o abatere de  106,8 (sau  30,6% ) faţă de limitele intervalului de
încredere.

Aceleaşi rezultate cu privire la model, obţinute prin software-ul STATA sunt


următoarele:

. regress Y X1 X2 X3

- 16 -
Source | SS df MS Number of obs = 23
---------+----------------------- F( 3, 19) = 12.42
Model | 92924.1 3 30974.7 Prob > F = 0.0001
Residual | 47387.0 19 2494.05 R-squared = 0.6623
-------------+------------------- Adj R-squared = 0.6089
Total | 140311.1 22 6377.78 Root MSE = 49.941

----------------------------------------------------------------
Y | Coef. Std.Er. t P>|t| [95% Conf.Interv]
---------+------------------------------------------------------
X1 | .264256 .059987 4.41 0.000 .13870 .38981
X2 | -11.0651 3.98909 -2.77 0.012 -19.414 -2.715
X3 | 3.12806 1.07175 2.92 0.009 .88485 5.3712
_cons | 20.5296 98.2693 0.21 0.837 -185.15 226.20
----------------------------------------------------------------

Pentru a compara intervalul de încredere obţinut pentru regresia multiplă cu


intervalele de încredere obţinute prin regresiile simple, estimăm parametrii celor
trei modele simple tot cu STATA:

. regress Y X1

Source | SS df MS Number of obs = 23


---------+------------------------ F( 1, 21) = 17.05
Model | 62868.5 1 62868.5 Prob > F = 0.0005
Residual | 77442.6 21 3687.74 R-squared = 0.4481
---------+------------------------ Adj R-squared = 0.4218
Total | 140311.2 22 6377.78 Root MSE = 60.727

----------------------------------------------------------------
Y | Coef. Std.Er. t P>|t| [95% Conf.Interv]
---------+------------------------------------------------------
X1 | .294662 .071365 4.13 0.000 -49.187 .44307
_cons | 82.7220 63.4299 1.30 0.206 -185.15 214.63
----------------------------------------------------------------

. regress Y X2

Source | SS df MS Number of obs = 23


---------+------------------------ F( 1, 21) = 3.56
Model | 20358.5 1 20358.5 Prob > F = 0.0729
Residual | 119952.7 21 5712.03 R-squared = 0.1451
---------+------------------------ Adj R-squared = 0.1044
Total | 140311.2 22 6377.78 Root MSE = 75.578

- 17 -
----------------------------------------------------------------
Y | Coef. Std.Er. t P>|t| [95% Conf.Interv]
---------+------------------------------------------------------
X2 | -10.470 5.54617 -1.89 0.073 -22.004 1.0633
_cons | 473.963 73.0252 6.49 0.000 322.098 625.82
----------------------------------------------------------------

. regress Y X3

Source | SS df MS Number of obs = 23


---------+------------------------ F( 1, 21) = 1.50
Model | 9347.64 1 9347.64 Prob > F = 0.2344
Residual | 130963.5 21 6236.36 R-squared = 0.0666
---------+------------------------ Adj R-squared = 0.0222
Total | 140311.2 22 6377.78 Root MSE = 78.971

----------------------------------------------------------------
Y | Coef. Std.Er. t P>|t| [95% Conf.Interv]
---------+------------------------------------------------------
X3 | 1.94564 1.58919 1.22 0.234 -1.3592 5.2505
_cons | 195.708 118.474 1.65 0.113 -50.672 442.08
----------------------------------------------------------------

Fără a detalia calculele, prezentăm comparativ pentru cele trei modele simple şi
pentru modelul multiplu intervalele de încredere (95%) pentru estimarea variabilei
endogene.

Variabila Variabile R2 Interval de Eroare limită Eroare limită


endogenă exogene încredere absolută relativă (%)
Y X1 0,4481 (212,4 ; 471,7) 129,7 37,9

Y X2 0,1451 (181,7 ; 504,5) 161,4 47,0

Y X3 0,0666 (173,0 ; 510,3) 168,6 49,4

Y X1 , X 2 , X 3 0,6623 (242,7 ; 456,1) 106,8 30,6

Se observă o eroare limită mai mică la modelul multiplu şi deci o estimare mai
precisă a variabilei endogene. La modelele simple se observă o precizie cu atât mai
bună cu cât R 2 este mai mare. Acest fapt este perfect coerent, deoarece atât R 2 cât
şi eroare de estimare depind în bună măsură de varianţa reziduală.
- 18 -

S-ar putea să vă placă și