Sunteți pe pagina 1din 45

10/2/2023

Modelul de regresie liniar


multifactorial
Y = 1 + 2 X2 + 3 X3 +…+ k Xk + u

Testul de semnificaţie parţial sau pe ansamblu


Gujarati(2003): Chapter 7

02.10.2023 Prof.univ.dr.Ion Partachi 1

Când folosim regresia multiplă


• Când estimăm relaţia dintre o variabilă dependentă
(Y ) şi mai multe variabile independente (X1, X2, …)
• Exemplu
– Explicarea preţului unui apartament prin suprafaţă,
prestări, amplasare,…
– Explicarea vânzărilor dintr-un magazin, prin piaţa totală,
preţ, investiţii, publicitate,…
– Explicarea consumului vehiculelor prin preţ, deplasare,
putere şi greutate.

02.10.2023 Prof.univ.dr.Ion Partachi 2

1
10/2/2023

Modelul linear de regresie multiplă


• Ecuaţia regresiei multiple
Această ecuaţie precizează modul în care
variabila dependentă este legată de variabilele
explicative :
Y   0  1 X 1   2 X 2  ... p X p  e
unde 0, 1, 2, . . . , p sunt parametri şi
e reprezintă termenul de eroare.

02.10.2023 Prof.univ.dr.Ion Partachi 3

Specificarea, definirea şi identificarea modelului


liniar multifactorial

În medie ne-am aştepta ca la un nivel mai ridicat de educaţie, nivelul


venitului să crească:
venit =  1 +  2educaţie + e

Dar în acest caz nu se tine seama de faptul că venitul depinde şi de


experiență:
venit =  1 +  2educaţie + 3experiență+ e
care este un model liniar multifactorial.

Funcţia Cobb Douglas: Producţia = f(capital, forţă de muncă) + e

02.10.2023 Prof.univ.dr.Ion Partachi 4

2
10/2/2023

Specificarea, definirea şi identificarea modelului liniar multifactorial


În analiza raportului dintre cererea şi oferta unui produs vom putea
studia cantitatea cerută pentru un anumit produs numai în funcţie de
preţ, stabilind astfel un model simplu de regresie:
qt =  +  ·pt + et,
unde qt reprezintă cantitatea cerută, pt este preţul unitar, iar este o
variabilă reziduală ce cuantifică influenţa altor variabile asupra cererii.

Cererea dintr-un anumit produs este influenţată într-o mare măsură şi


de alţi factori, precum calitatea produselor, veniturile disponibile etc.

Vom reprezenta, de exemplu, în acest caz modelul de regresie prin


următoarea relaţie: qt =  +  ·pt + t+ et,
unde în plus faţă de modelul anterior t cuantificã venitul disponibil al
populatiei.
02.10.2023 Prof.univ.dr.Ion Partachi 5

Specificarea, definirea şi identificarea modelului liniar


multifactorial

Variaţia explicată
Variaţia explicată de X2
de X1 şi X2

X2
X1

Variaţia explicată Y Variaţia neexplicată


de X1
de X1 sau X2

3
10/2/2023

Modelul liniar de regresie multiplă


• yi   0  1 x1i   2 x2i  ... p x pi  e i

Observaţia i
Termen constant Influenţa
de Y
variabilei Xp
Influenţa
variabilei X1
Reziduu al
observaţiei i

02.10.2023 Prof.univ.dr.Ion Partachi 7

Modelul linear de regresie multiplă


• Scrierea matricială a modelului

0 
 y1  1 x1,1  x1, p   e1 
      1   
         

yn  1 x1,n  xn, p   en 
p 
y  X e
02.10.2023 Prof.univ.dr.Ion Partachi 8

4
10/2/2023

Forma generală a modelului


Modelul regresiei multiple se prezintă sub forma
ecuaţiei:
yi = 1x1i + 2 x2i + … + kxki + eI
În cazul acestei ecuaţii de regresie se identifică
urmãtoarele variabilele:
• grupul de variabile exogene sau independente, ce se
reprezintă sub forma variabilei vectoriale
X = (X1, X2, …, Xk ).

Pentru fiecare moment, ce va fi simbolizat prin


indicele t, vom avea seria de valori x1t, x2t, …, xkt; pentru
fiecare variabilă ansamblul datele înregistrate pentru n
momente vor fi reprezentate prin vectorul coloană xi cu
i=1,…k.
02.10.2023 Prof.univ.dr.Ion Partachi 9

Modelul linear de regresie multiplă


• Ipotezele modelului
Ipotezele probabilistice
– Forma funcţională: Y = X + e
– Media zero a erorilor: E(e)=0  E(Y) = X
– Necorelarea între regresor şi erori: E(e/X)=0
– Matricea X este de rang k cu coloane independente două câte
două
– Normalitatea erorilor: ei N(0,^2)
Ipotezele structurale
• Det(XTX)≠0
(lipsa colinearităţii între variabilele explicative).
• n>p+1

02.10.2023 Prof.univ.dr.Ion Partachi 10

10

5
10/2/2023

Etapele realizării unui model de regresie multiplă

I.Identificarea variabilelor modelului de regresie şi scrierea


acestuia reprezintă una din etapele importante ale analizei economice
prin intermediul modelelor de regresie.
Pentru rezolvarea acestei probleme vom avea în vedere, pe de o parte,
modelele folosite în teoria economică, iar pe de altă parte, datele
disponibile pentru determinarea caracteristicilor modelului de regresie.
În cazul în care modelul de regresie este neliniar, atunci va trebui să
stabilim strategia de estimare a parametrilor;

II.Definirea ipotezelor modelului clasic de regresie.


Pentru testarea valabilităţii ipotezelor pe care se fundamentează
modelul clasic se vor folosi diverse teste statistice. În funcţie de
ipotezele ce sunt satisfăcute de modelul de regresie vom aplica anumite
metode pentru estimarea parametrilor;

02.10.2023 Prof.univ.dr.Ion Partachi 11

11

Etapele realizării unui model de regresie multiplă


III.Estimarea parametrilor şi validarea modelului de regresie.
Pentru modelul clasic de regresie, care va fi prezentat în acest capitol,
vom estima parametrii folosind metoda celor mai mici pătrate
(MCMMP), precum şi metoda verosimilităţii maxime.

IV.Pentru variabilele exogene ale modelului vom determina matricea


de corelaţie. Prin intermediul acestui instrument vom primi un prim
semnal în legătură cu prezenţa fenomenului de corelaţie în rândul
variabilelor exogene;

V.Pe baza modelului estimat se vor efectua diverse previziuni pentru


variabila endogenă. Vom recurge prin intermediul modelului de
regresie la estimări punctuale sau la cele prin intervale de încredere,
stabilind în acest sens valorile variabilelor exogene şi un prag de
încredere în garantarea rezultatelor.

02.10.2023 Prof.univ.dr.Ion Partachi 12

12

6
10/2/2023

Modelul linear de regresie multiplă


• Interpretarea geometrică
Modelul general defineşte un hiperplan de dimensiunea p. Vom
ilustra cazul p=2.

E(Yi|X1i, X2i) =  0+1X1i+2X2i


Yi : observaţia
Y
0

e
i

X2
(X1i, X2i)
X1
02.10.2023 Prof.univ.dr.Ion Partachi 13

13

Procesul de estimare
Modelul de regresie multiplă
Y = 0 + 1X1 + 2X2 +. . .+ pXp + e Datele:
Hiperplanul de regressiei multiple x1 x2 . . . xp y
E(Y|X1,…,Xp) = 0 + 1X1 + 2X2 +. . .+ pXp . . . .
Parametrii necunoscuţi . . . .
 0,  1,  2, . . . ,  p

Ecuatia estimată
ˆ0 , ˆ1 , ˆ2 ,..., ˆ p
Yˆ  ˆ0  ˆ1 X 1  ˆ2 X 2  ...  ˆ p X p
Estimatorii de
Estimatori
 0,  1,  2, . . . ,  p
ˆ0 , ˆ1 , ˆ2 ,..., ˆ p
02.10.2023 Prof.univ.dr.Ion Partachi 14

14

7
10/2/2023

Procesul de estimare
• Interpretarea geometrică
Ilustrarea cazului p=2.

Y yi : observaţia
yˆ i  ˆ0  ˆ1 X 1i  ˆ2 X 2 i
̂ 0
eˆi  yi  yˆ i

X2
(X1i, X2i)
X1
02.10.2023 Prof.univ.dr.Ion Partachi 15

15

Procesul de estimare
• Estimarea coeficienţilor regresiei
– Metoda : celor mai mici pătrate ordinare
• Principiul estimării coeficienţilor de regresie :
 0 , 1 ,  2 ,...,  p
consistă în minimizarea sumei pătratelor reziduale :
n n

 e i2   ( yi  yˆ i ) 2
i 1 i 1

– Calculul numeric (calcul matricial) se poate efectua


folosind un soft statistic (EXCEL, SAS, SPSS, S+, R,
EVIEWS…).

02.10.2023 Prof.univ.dr.Ion Partachi 16

16

8
10/2/2023

Procesul de estimare
• Estimarea coeficienţilor modelului ˆ
• Metoda celor mai mici pătrate ne dă rezultatul
ˆ  X 
T 1
X X TY
̂ urmează o lege 
N 0,  e2 X T X   1

̂ este imparţială : E ( ˆ )  

Printre estimatorii  lineari în raport cu X, imparţial, elementele au


cea mai mică varianţă.

02.10.2023 Prof.univ.dr.Ion Partachi 17

17

1. Forma funcţională: Y = X + e

Q  P P11 ...Pk k  ln Q  ln   ln P  1 ln P1 ...  k ln Pk

02.10.2023 Prof.univ.dr.Ion Partachi 18

18

9
10/2/2023

2.Media zero a erorilor: E(e)=0

• Valoarea reală a lui Y, înregistrată pe baza


datelor statistice, este de regulă mai mare sau
mai mică decât cea estimată.

• Dacă în cadrul modelului au fost incluse acele


variabile ce influenţează în mod real valoarea
lui Y, atunci ecartul dintre cele două valori,
reale şi estimate, tinde spre zero, iar în medie
acesta este zero.

02.10.2023 Prof.univ.dr.Ion Partachi 19

19

3. Homoscedasticitatea: E(ee’)=^2
Daca modelul de regresie satisface proprietatea de
homoscedasticitate atunci matricea de covarianţă a variabilelor
reziduale se scrie:

 ( e , e )  E (ee ' )
 cov(e1, e1 ) cov(e1 , e 2 ) ... cov(e1 , e n )   e2 0 ... 0
   
cov(e 2 , e1 ) cov(e 2 , e 2 ) ... cov(e 2 , e n )   0  e2 ... 0 
  .
 ............... ............... ... ...............   ... ... ... ... 
   
 cov( e ,
n 1 e ) cov( en , e2 ) ... cov(e n , e n )   0 0 ...  e2 

Aceasta va fi scrisă sub forma matriceală:

E (ee ' )   e2I n ,


02.10.2023 Prof.univ.dr.Ion Partachi 20

20

10
10/2/2023

5.Matricea X este de rang k

• Coloanele matricei nestochastice X=(x1, x2, …, xk), sunt liniar


independente, deci nu există numerele reale i, i = , astfel încât să aibă loc
relaţia:
• 1x1 + 2x2 + … + kxk = 0.

• Dacă coloanele matricei X sunt liniar independente atunci matricea
X’X  M(k,k) este nesingulară, deci există (X’X)-1 .
• În situaţia în care coloanele matricei X sunt liniar dependente, atunci
modelul de regresie este afectat de coliniaritatea variabilelor exogene.

• Din faptul că matricea X este nestochastică vom avea că singura sursă
de variaţie în cadrul modelului pentru variabila endogenă este reprezentată
de variabila reziduală.

02.10.2023 Prof.univ.dr.Ion Partachi 21

21

Estimarea parametrilor prin MCMMP

Minimizăm suma pătratelor erorilor de ajustare:


S ( ˆ )   ei2   ( yi  ˆ1 x1i  ˆ2 x2i  ...  ˆk xki ) 2 
i i
 (y
i
i  ˆ ' x i ) 2 .

Vom folosi scrierea matriceală:


 e1 
 
n e
S ( ˆ )   e i2  ( e1 e 2 ... e n )   2   e 'e
i1
  .
 
 en 
Minimizarea S se realizează în raport cu parametrii modelului de regresie ̂ . Astfel,
vom avea:
[min] S (ˆ )  e ' e  (Y  X ˆ )'(Y  X ˆ )  Y ' Y  2ˆ ' X 'Y  ˆ ' X ' X ˆ.
ˆ

02.10.2023 Prof.univ.dr.Ion Partachi 22

22

11
10/2/2023

5.23
Estimatorii CMMP derivaţi ai regresiei multiple
^ ^ ^ ^
Y = 1 + 2X2 + 3X3 + u
^ ^ ^
u^ = Y - 1 - 2X2 - 3X3
CMMP va minimiza SSR( u2)^
^ -
^ 2 = min. (Y - 
min. RSS = min.  u ^ X - ^ X )2
1 2 2 3 3

RSS
^ =2  ( Y - ^1- ^ 2X2 - ^3X3)(-1) = 0
1
RSS ^ - ^ X - ^ X )(-X ) = 0
^ =2  ( Y - 
 2
1 2 2 3 3 2

RSS ^ ^ ^
^ =2  ( Y - 1- 2X2 - 3X3)(-X3) = 0
3
All rights reserved by Dr.Bill Wan Sing Hung - HKBU

23

5.24
rearanjînd aceste 3 ecuaţii:
^ ^ ^
n1 + 2 X2 + 3  X3 = Y
^ X + ^ X 2 + ^  X X = X Y
 2 2 2 3 3 2 3 2

^ X + ^ X X + ^  X 2 = X Y
 1 3 2 2 3 3 3 3

le scriem sub formă matricială:


n X2 X3 ^ Y Cazul cu 2 variabile
1
X2 X22 X2X3 ^ =  X2Y
2
Cazul cu 3 variabile
X3 X2X3 X32 ^
 X3Y
3

^
(X’X)  = X’Y Sub formă matricială

All rights reserved by Dr.Bill Wan Sing Hung - HKBU

24

12
10/2/2023

Regula Cramer: 5.25

n Y X3
X2 X2Y X2X3
X3 X3Y X32 (yx2)(x32) - (yx3)(x2x3)
^
2 = =
n X2 X3 (x22)(x32) - (x2x3)2
X2 X22 X2X3
X3 X2X3 X32

n X2 Y
X2 X22 X2Y
X3 X2X3 X3Y (yx3)(x22) - (yx2)(x2x3)
^
3 = =
n X2 X3 (x22)(x32) - (x2x3)2
X2 X22 X2X3
X3 X2X3 X32
_ _ _
^ = Y - ^ X - ^ X
 1 2 2 3 3
All rights reserved by Dr.Bill Wan Sing Hung - HKBU

25

5.26
sau sub formă de matrici:
(X’X) ^ = X’Y
3x3 3x1 3x1
^
==>  = (X’X)-1 (X’Y)
3x1 3x3 3x1
^ ^ ^ ^u2
Var-cov() = u2 (X’X)-1 and u2 =
n-3
Matricea Varianţă-Covarianţă
^ ^ ^ ^ ^
Var(1) Cov(1 2) Cov(1 3)
^= ^ ^
Var-cov() Cov (2 1) Var(^2) Cov(^2 ^3)
Cov (^3 ^1) Cov(
^ ^ )
3 2 Var(^ )
3

^ 2(X’X)-1
=u

All rights reserved by Dr.Bill Wan Sing Hung - HKBU

26

13
10/2/2023

5.27
-1
n X2 X3
=^
u2 X2 X22 X2X3
X3 X3X2 X32

şi ^ 2= u^2 u^2
 =
u n-3 n- k

k=3
numărul variabilelor independente
( inclusiv termenul constant)

All rights reserved by Dr.Bill Wan Sing Hung - HKBU

27

5.28
Însemnătatea coeficienţilor parţiali de regresie
Y = 1 + 2X2 + 3X3 + u (presupunem că este un model adevărat)

Y măsoară schimbarea în medie a


= 2 : 2
X2 valorilor lui Y, pentru unitatea de
schimbare a lui X2, X3 fiind constant.
sau Efectul ‘direct’ sau ‘net’ a unei unităţi de
schimbare a lui X2 în valoare medie a lui Y
Y păstrînd X2 constant, efectul direct a
= 3
X3 unei unităţi de schimbare în X3 în
valoarea medie a lui Y.
Păstrînd constant:
Pentru a înţelege contribuţia adevărată a lui X2 în
modificarea lui Y, noi controlăm influenţa lui X3.
All rights reserved by Dr.Bill Wan Sing Hung - HKBU

28

14
10/2/2023

5.29

Proprietăţile estimatorilor CMMP


_ _ _
1. Linia(suprafaţa) de regresie trece media lui Y1, X2 X3
_ _ _
i.e., ^ = Y - ^ X - ^ X
 1 2 2 3 3 Lineari prin parametri
_ _ _ Regresia prin medii
==> Y = ^1 + ^2X2 + 
^X
3 3
_
^
2. Y = Y + ^2x2 + ^3x3 ^ )=
Nedeplasati: E( i i
or y =^ x +^
2 2 x 3 3

Media zero a erorilor


3. ^
u=0

4. ^ = uX
uX2
^ =0
3
^ k=0 )
(uX Var(ui) constantă = 2

5. ^^
uY=0 eşantion aleator
All rights reserved by Dr.Bill Wan Sing Hung - HKBU

29

5.30
Propertăţile estimatorilor CMMP
6. Dacă X2 şi X3 sunt strîns corelate ==> var( ^ ) şi var(^)
2 3
devin mari şi infinite. În aşa caz este dificil de cunoscut
valorile lui 2 şi 3.
Toate ipotezele de normalitate din modelul regresiei cu două
variabile pot fi aplicate şi în modelul regresiei multiple.
Dar este adăugată o condiţie suplimentară:
Nu există o dependenţă lineară între variabilele independente.
(Nu există colinearitate perfectă, i.e., Xk  Xj )
7. Cu cît este mai mare variaţia estimatorilor lui X2 sau X3,
^ lui  ^şi  , şi estimatorii
cu atât mai mică este variaţia 2 3
sunt mai exacţi.

8. BLUE (Gauss-Markov Theorem)

All rights reserved by Dr.Bill Wan Sing Hung - HKBU

30

15
10/2/2023

5.31
R2 Ajustat (R2) ca un indicator de bază
ESS RSS ^2
u
R2 = =1- =1-
TSS TSS y2
_ ^2 / (n-k)
u
R2 = 1 - k : numărul de
y2 / (n-1) parametri
_ ^2
R2 = 1 -
SY2
_ ^2 n : numărul de
u (n-1)
R2 = 1 - observaţii
y2 (n-k)
_
R2 = 1 - (1-R2) n-1
n-k
_
R2  R2 0 < R2 < 1
R2 ajustat poate fi negativ: R2  0
Notă: Nu abuzaţi de utilizarea R2, Gujarati(2003) pp. 222
All rights reserved by Dr.Bill Wan Sing Hung - HKBU

31

5.32

Y = 1 + 2 X2 + 3 X3 + u

Y TSS
Y n-1
^u

All rights reserved by Dr.Bill Wan Sing Hung - HKBU

32

16
10/2/2023

5.33

Presupunem că X4 nu este o variabilă


explicativă, dar inclusă în regresie.

C
X2
X3
X4

All rights reserved by Dr.Bill Wan Sing Hung - HKBU

33

5.34

Testarea Ipotezelor în Regresia Multiplă:


1. Testarea individuală a coeficienţilor parţiali
2. Testarea semnificaţiei colective a coeficienţilor
3. Testarea restricţiilor asupra variabilelor (adăugare sau
renunţare): Xk = 0 ?
4. Testarea coeficienţilor parţiali în privinţa la unele restricţii
Aşa ca 2+ 3 = 1;
sau 2 = 3 (or 2+ 3 = 0); etc.
5. Testarea funcţionalităţii modelului de regresie multiplă.
6. Testarea stabilităţii modelului de regresie estimat
-- în timp
-- pe diferite porţiuni

All rights reserved by Dr.Bill Wan Sing Hung - HKBU

34

17
10/2/2023

5.35
1. Testarea individuală a coeficienţilor parţiali
1 păstrînd X3 constant: Are X2 efect asupra lui Y ?

H0 : 2 = 0 Y
= 2 = 0?
X2
H1 : 2  0
^
2 - 0 0.726
t= = = 14.906
Se (^ )2 0.048

Se compară cu valoarea critică tc0.025, 12 = 2.179

Dacă t > tc ==> se respinge Ho

^
Răspuns : Da, 2 este statistic semnificativ şi este
semnificativ diferit de zero.

All rights reserved by Dr.Bill Wan Sing Hung - HKBU

35

5.36
1. Testarea individuală a coeficienţilor parţiali (cont.)
2 păstrînd X2 constant: Are X3 efect asupra lui Y?
Y
H0 : 3 = 0 = 3 = 0?
X3
H1 : 3  0
^
3 - 0 2.736-0
t= = = 3.226
Se (^ ) 0.848
3

Valoarea critică: tc0.025, 12 = 2.179

Deoarece | t | > | tc | ==> se respinge Ho

^
Răspuns: Da, 3 este statistic semnificativ şi
semnificativ diferit de zero.
All rights reserved by Dr.Bill Wan Sing Hung - HKBU

36

18
10/2/2023

5.37
2. Testarea în ansamblu a estimatorilor regresiei

cazul cu 3
Y = 1 + 2X2 + 3X3 + u
variabile:
H0 : 2 = 0, 3 = 0, (toate variabilele au efect nul)
H1 : 2  0 or 3  0 (Cel puţin o variabilă nu e nulă,
Cel puţin o variabilă are efect)

1. Calcularea şi obţinere lui F-statistic


2. Verificarea pentru valoarea critică Fc (Fc, k-1, n-k)

3. Compararea F şi Fc , şi
dacă F > Fc ==> respingerea H0

All rights reserved by Dr.Bill Wan Sing Hung - HKBU

37

Analiza variaţiei: Deoarece y = ^y + ^u 5.38

==> y2 = y ^2
^2 + u
TSS = ESS + RSS
Tabelul ANOVA
(SS) (MSS)
Sursa variaţiei Suma pătratelor G.L. Media sumei păt.
Explicativă (ESS)  y^2 k-1 y^2
k-1
Reziduală(RSS)  u^2 n-k ^2
u ^2
n-k = u
Variaţia totală(TSS)  y2 n-1
Notă: k reprezintă numărul total de paramentr din model, inclusiv termenul liber.

MSS a ESS ESS / k-1 ^y2/(k-1)


F= = =
MSS a RSS RSS / n-k  u^ 2 /(n-k)
H0 : 2 = … = k = 0
dacă F > Fcα,k-1,n-k => respinge Ho
H1 : 2  …  k  0
All rights reserved by Dr.Bill Wan Sing Hung - HKBU

38

19
10/2/2023

5.39

^
Cazul a y = ^2x2 + 3x3 + u^
trei ^ ^
variabile  y2 = 2  x2 y + 3  x3 y +  u^2

TSS = ESS + RSS

Tabelul ANOVA
Sursa variaţiei SP GL(k=3) MSS
ESS ^ x y + ^ x y
 3-1 ESS/3-1
2 2 3 3

RSS ^2
u n-3 RSS/n-3
(n-k)
TSS y2 n-1

ESS / k-1 (^2 x2y + ^3 x3y) / 3-1


F-Statistic = = ^2 / n-3
RSS / n-k u
All rights reserved by Dr.Bill Wan Sing Hung - HKBU

39

5.40

O relaţie importantă între R2 şi F


ESS / k-1 ESS (n-k)
F= =
RSS / n-k RSS (k-1)
ESS n-k
=
TSS-ESS k-1 Pentru cazul cu trei variabile :
ESS/TSS n-k
= R2 / 2
ESS F=
1 - TSS k-1 (1-R2) / n-3
R2 n-k
=
1 - R2 k-1

R2 / (k-1) (k-1) F
F = Inversa : R2 =
(1-R2) / (n-k) (k-1)F + (n-k)

All rights reserved by Dr.Bill Wan Sing Hung - HKBU

40

20
10/2/2023

5.41
R2 şi R2 ajustat (R2)
ESS RSS ^2
u
R2 = =1- =1-
TSS TSS y2
_ ^2 / (n-k)
u
R2 = 1 - k : numărul de
y2 / (n-1) parametri în
_ ^2 model
R2 = 1 -
SY2
n : nr. de observări
_ ^2
u (n-1)
2
R =1-
y2 (n-k)
_
R2 = 1 - (1-R2) n-1
n-k
_
R2  R2 0 < R2 < 1
R2 ajustat poate fi negativ: R2  0
All rights reserved by Dr.Bill Wan Sing Hung - HKBU

41

5.42
Testul de ansamblu:
H0 : 2 = 3 = 4 = 0
H1 : cel puţin un coeficient e
diferit de zero.
 2  0 , or  3  0 , or  4  0

R2 / k-1
F* = =
(1-R2) / n- k
0.9710 / 3
=
(1-0.9710) /16
= 179.13
Fc(0.05, 4-1, 20-4) = 3.24
 k-1 n-k
Since F* > Fc ==> reject H0.
All rights reserved by Dr.Bill Wan Sing Hung - HKBU

42

21
10/2/2023

5.43
Construirea tabelului ANOVA Table (8.4) .(Information from EViews)
Sursa
variaţiei
SP GL MSS
2 2 2 2
Due to R (y ) k-1 R (y )/(k-1)
regression =(0.971088)(28.97771)2x19
(SSE) =15493.171 =3 =5164.3903
2 2 2 2 2
Due to (1- R )(y ) or ( u ) n-k (1- R )(y )/(n-k)
Residuals =(0.0289112)(28.97771) )2x19
(RSS) =461.2621 =16 =28.8288
2
Total (y ) n-1
(TSS) =(28.97771) 2x19
=15954.446 =19

Deoarece (y)2 = Var(Y) = y2/(n-1) => (n-1)(y)2 = y2

MSS a regresiei 5164.3903


F* = = = 179.1339
MSS a reziduurilor 28.8288
All rights reserved by Dr.Bill Wan Sing Hung - HKBU

43

Example:Gujarati(2003)-Table6.4, pp.185) 5.44

H0 :  1 =  2 =  3 = 0
ESS / k-1 R2 / k-1 0.707665 / 2
F* = = =
RSS/(n- k) (1-R2) / n- k (1-0.707665)/ 61

F* = 73.832

Fc(0.05, 3-1, 64-3) = 3.15


 k-1 n-k

Deoarece F* > Fc
==> se respinge H0.

All rights reserved by Dr.Bill Wan Sing Hung - HKBU

44

22
10/2/2023

5.45
Se construieşte tabelul ANOVA
Sursa
variaţiei
SP GL MSS
2 2 2 2
Due to R (y ) k-1 R (y )/(k-1)
regression =(0.707665)(75.97807)2x64
(SSE) =261447.33 =2 =130723.67
2 2 2 2 2
Due to (1- R )(y ) or ( u ) n-k (1- R )(y )/(n-k)
Residuals =(0.292335)(75397807)2x64
(RSS) =108003.37 =61 =1770.547
2
Total (y ) n-1
(TSS) =(75.97807)2x64
=369450.7 =63

Deoarece (y)2 = Var(Y) = y2/(n-1) => (n-1)(y)2 = y2

MSS a regresiei 130723.67


F* = = = 73.832
MSS a reziduurilor 1770.547
All rights reserved by Dr.Bill Wan Sing Hung - HKBU

45

5.46

Y = 1 + 2 X2 + 3 X3 + u

H0 : 2 = 0, 3= 0,
H1 : 2  0 ; 3  0
c
Se compară F* şi Fc, se verifică tabelul F: F 0.01, 2, 61 = 4.98
Fc0.05, 2, 61 = 3.15
Regula de decizie:
Dacă F*= .73.832 > Fc = 4.98 (3.15) ==> se respinge Ho

Răspuns : Per ansamblu, estimatorii modelului sunt semnficativ


diferiţi de zero.

All rights reserved by Dr.Bill Wan Sing Hung - HKBU

46

23
10/2/2023

Estimarea parametrilor prin MCMMP

Derivînd în raport cu ˆ avem:


S (ˆ ) [Y 'Y  2ˆ ' X 'Y  ˆ ' X ' X ˆ ] [ˆ ' X ' X ˆ ]
  2 X 'Y   2 X 'Y  2 X ' X ˆ  0 .
 ˆ  ˆ ˆ
Din ipoteza V matricea X’X este nesingulară, deci estimatorul vectorului parametrilor
modelului de regresie multiplă este:

ˆ  ( X ' X )1 X 'Y .


Cum
 S ( ˆ )  2 S (ˆ )
  2 X ' Y  2 X ' X ˆ atunci ˆ ˆ  2 X ' X .
 ˆ   '

Ultima expresie este pozitiv definită, deci soluţia ̂ este optimă.

*Pentru mai multe detalii vezi Green, Econometric Analysis, Cap.2 şi 6.

02.10.2023 Prof.univ.dr.Ion Partachi 47

47

Interpretarea parametrilor
Pentru a interpreta semnificaţia parametrilor modelului de regresie considerăm
modelul:
yi  ˆ1x1i  ˆ2x2i ... ˆk xki.
Atunci, dacă x2, … xk sunt constante se obţine următoarea egalitate:
yi  ˆ1x1i ,
Rezolvând ecuaţia de mai sus se obţine că estimatorul parametrului 1 este rata
marginală de substituţie a variabilei endogene în raport cu variabila exogenă X1:
y i
ˆ1  .
x1i

Coeficientul ̂ 1 arată cu câte unităţi creşte sau se micşorează


caracteristica Y, dacă caracteristica X1 se modifică cu x1i unităţi,
în condiţiile în care celelalte caracteristici
X2, …, Xp rămân constante.

În cazul în care variabilele endogene sunt necorelate, atunci


semnul coeficientului fiecărei variabile din modelul multiplu de
regresie coincide cu semnul coeficientului din modelul simplu de
regresie de analiză al variabilei endogene funcţie de fiecare
02.10.2023 variabilă exogenă în parte.
Prof.univ.dr.Ion Partachi 48

48

24
10/2/2023

Procesul de estimare

• Interpretarea coeficienţilor de regresie


estimaţi ̂ k
– Panta ̂ k (k≠0)
Y estimat variază de la un factor egal cu atâta timp cât
Xk creşte cu o unitate, alte variabile fiind menţinute constante.
– Ordonata la origine ̂ 0
Aceasta este valoarea medie a lui Y atâta timp cât
toate Xi sunt nule.

02.10.2023 Prof.univ.dr.Ion Partachi 49

49

Procesul de estimare
• Estimarea varianţei reziduurilor
n

 i
e 2

ˆ 2  i 1

n  p 1

02.10.2023 Prof.univ.dr.Ion Partachi 50

50

25
10/2/2023

Procesul de estimare
• Intervalele de încredere
Putem calcula pentru fiecare coeficient al modelului un interval de
încredere de nivelul(1-) dat de :

P ( ˆi  t / 2 sˆ   i  ˆi  t / 2 sˆ )  1  


i i

sau t/2 se calculează prin :


P (T  t / 2 )  1   / 2
T urmând testul Stdent n-p-1 d.d.l.

02.10.2023 Prof.univ.dr.Ion Partachi 51

51

Procesul de estimare
• Datele
– Mărimea eşantionului
Datele trebuie să fie suficient de numeroase: de la
15 la 20 prin variabile cel puţin..

– Natura variabilelor
În practică, Y este o variabilă cantitativă şi Xi pot fi
cantitativi sau binari.

02.10.2023 Prof.univ.dr.Ion Partachi 52

52

26
10/2/2023

Calitatea regresiei
• Descompunerea sumei pătratelor totale SCT :
suma pătratelor totale
SCR : suma pătratelor reziduale
SCE : suma pătratelor explicate prin model

SCT = SSE + SCR

 y     yˆ    (y
n n n

i Y 2
i Y 2
i  yˆ i ) 2
i 1 i 1 i 1
02.10.2023 Prof.univ.dr.Ion Partachi 53

53

Calitatea regresiei
• Interpretarea geometrică a descompunerii în
sume pătrate

Teorema Pitagora
y
2 2 2
y  y  y  yˆ  yˆ  y

 y1  Y   yˆ1 
     
y   y    ˆy    
y ŷ y  Y   yˆ 
 n    n

02.10.2023 Prof.univ.dr.Ion Partachi 54

54

27
10/2/2023

Calitatea regresiei
• Coeficienţii de determinare
– Coeficientul de determinare R2
R2 = SCE/SCT
Exprimă procentajul variantei Y explicată de model.
Acesta prezintă o idee globală a ajustării modelului.
– R2 ajustat se calculează în funcţie de R2 :
n 1
Ra2  1  (1  R 2 )
n  p 1
Aceasta presupune în acelaşi timp calitatea
ajustării (legătura dintre Y şi Xi) şi complexitatea
modelului (numărul de variabile explicative).
02.10.2023 Prof.univ.dr.Ion Partachi 55

55

Calitatea regresiei
• Remarcă asupra R2
– 0≤R2 ≤1
– Atâta timp cât R2 este apropiat de 1, aceasta
semnifică că variabila dependentă Y este explicată
prin variabilele Xi.
– Rădăcina pătrată a R2, R, se numeşte coeficient de
corelaţie multiplă între Y şi Xi.
– Când, adăugăm variabile explicative noi în model, R2
creşte (chiar în cazul în care noile variabile explicative
sunt legate cu variabila dependentă).
– Acesta este motivul pentru care introducem R2
ajustat.
02.10.2023 Prof.univ.dr.Ion Partachi 56

56

28
10/2/2023

Calitatea regresiei
• Testul global Fisher
Permite să răspundem la întrebarea : legătura
globală dintre Y şi Xi este semnificativă?
– Ipoteze
H0: 1 = 2 = ... = p = 0
Y nu depinde de variabilele Xi .

H1: Cel puţin un coeficient este nenul


Y depinde cel puţin de o variabilă Xi .

02.10.2023 Prof.univ.dr.Ion Partachi 57

57

Calitatea regresiei
– Statistica folosită
SCE
MSE p
F 
MSR SCR
n  p 1
– Regula deciziei
La riscul , respingem H0 dacă :  ≥ p-valoare
(calculată cu o lege Fisher la p şi n-p-1 grade de
libertate)

02.10.2023 Prof.univ.dr.Ion Partachi 58

58

29
10/2/2023

Calitatea regresiei

• R2 şi testul Fisher

F bun, R² nu prea bun F bun, R² bun

02.10.2023 Prof.univ.dr.Ion Partachi 59

59

Calitatea regresiei
• Testul Student asupra unui coeficient de
regresie
Permite să răspunzi la întrebarea următoare :
contribuţia marginală a unei variabile Xj este semnificativă?
• Ipoteze
H0 : j = 0 (j≠0)
Putem scoate variabila Xj
H1 : j  0
Trebuie sa păstrăm variabila Xj

02.10.2023 Prof.univ.dr.Ion Partachi 60

60

30
10/2/2023

Calitatea regresiei
– Statistica folosită asupra ipotezei H0
ˆi
ti  , s ˆ : écart - type estimé de ˆi
s ˆ i
i

– Regula de decizie
La riscul , respingem H0 dacă :  ≥ p-valoare
(calculată cu ajutorul unei legi Student la n-p-1
grade de libertate).

02.10.2023 Prof.univ.dr.Ion Partachi 61

61

Analiza reziduurilor
• Normalitatea
– QQ plot
– Teste de normalitate
• Homoscedasticitatea
– Varianţa rezsiduurilor nu este stabilă.
– Transformarea datelor
• Independenţa reziduurilor
– Testul Durbin-Watson
• Detectarea valorilor atipice
02.10.2023 Prof.univ.dr.Ion Partachi 62

62

31
10/2/2023

Variabilele dummy
• Variabilele dummy
• Variabila ia valorile 0 sau 1 pentru a indica o anumită
caracteristică, de exemplu, periodicitatea (trimestru, lună,…).
• Exemplu : consumul de combustibili trimestrial

di = 1 pentru i trimestru
di = 0 in caz contrar

X t   0  1t   2 d1   3 d 2   4 d 4  e t

02.10.2023 Prof.univ.dr.Ion Partachi 63

63

Multicoliniaritatea
• Definiţie
Aceasta reprezintă corelaţiile ridicate (mai
mare de 0.70) între variabilele independente
(variabile explicative).
Multicoliniaritatea are ca consecinţe :
- să distorsioneze precizia estimării
coeficienţilor de regresie
- să facă sensibilă estimarea coeficienţilor cu
mici variaţii de date.

02.10.2023 Prof.univ.dr.Ion Partachi 64

64

32
10/2/2023

Multicoliniaritatea

Variabile coliniare X1

X2

Variabile independente
X2

02.10.2023 Prof.univ.dr.Ion Partachi X3 65

65

Multicoliniaritatea
• Detectarea
– Examenul matricii varianţei, covarianţei sau
corelării.
– R2 ridicat dar puţine variabile semnificative.
– Corelări puternice între Xi
– Corelări puternice parţiale între variabilele
independente.

02.10.2023 Prof.univ.dr.Ion Partachi 66

66

33
10/2/2023

Selecţia variabilelor
• Problematica
Cum să alegem modelul ce conţine cea mai bună combinaţie a
variabilelor independente care explică variabila dependentă ?
• Strategii
– Examinarea tuturor modelelor posibile
– Selecţie progresivă
– Regresia pas cu pas descendentă
– Regresia pas cu pas ascendentă

02.10.2023 Prof.univ.dr.Ion Partachi 67

67

Selecţia variabilelor
• Examinarea tuturor modelelor
Aceasta strategie constă în contemplarea tuturor modelelor şi
memorarea celui mai bun.
Inconveniente
• Ritmul lent (2p modele dacă p este numărul variabilelor
explicative) şi costul acestei abordări
• Ce reprezintă cel mai bun model?

02.10.2023 Prof.univ.dr.Ion Partachi 68

68

34
10/2/2023

Selecţia variabilelor
• Tesul Fisher
Permite testarea dacă adăugăm o variabilă independentă la
un model care deţine deja o variabilă (sau suprimarea unei
variabile a unui model ce deţine două variabile) este din punct
de vedere statistic semnificativ.

SCE ( X 1 )  SCE ( X 1 , X 2 )
F
SCE ( X 1 , X 2 ) /( n  p  1)
Valoarea p correspondentă este folosită ca un criteriu de
decizie pentru a adăuga sau înlătura o variabilă.

02.10.2023 Prof.univ.dr.Ion Partachi 69

69

Regresia pas cu pas


CalcularealuiF şi a valorii Variabila Xi având
p pentru fiecare Xi Valoarea mai mică p este
almodelului Intrările din model

Variabila Xi având
Valoarea p > pragul Da cea mai mare p-valoare
este supprimat de model
? du modèle
Nu Da

Calcularea lui F şi Valoarea p < prag


a valorÎnceput pentru Xi
nu ne găsim în model ?
Nu
02.10.2023
Început Prof.univ.dr.Ion Partachi Oprire 70

70

35
10/2/2023

Regresia pas cu pas descendentă

La început toate
variabilele Xi sunt din model

Calcularea lui F şi
a valorii
p pentru fiecare Xi

Da Variabila Xi având
Valoarea p >prag cea mai mare valoare p
? este
supprimată din model
Nu
02.10.2023 Oprire Prof.univ.dr.Ion Partachi 71

71

Forma echivalentă de estimare a parametrilor


S ( ˆ )   e   ( y  ˆ x
i
2
i
i
i 1 1i  ˆ 2 x2 i  ...  ˆ k xki ) 2   (y
i
i  ˆ ' x i ) 2 .

Din condiţia de minim vom obţine sistemul normal de ecuaţii:


 ˆ1  x12i  ˆ2  x2i x1i  ...  ˆk  xki x1i   yi x1i
 i i i i
ˆ
 1  1i 2i 2  2i k  ki 2 i i yi x2i
 x x  ˆ x 2
 ...  ˆ x x 
 i i i

.......................................................................

 ˆ1  x1i x pi  ˆ2  x2i x pi  ...  ˆk  xki   yi xki
2

 i i i i

Sistemul normal de ecuaţii admite urmatoarea formă echivalentă de


scriere:
ex
i
i 1i  0,  e i x 2 i  0,...,  e i x ki  0.
i i

02.10.2023 Prof.univ.dr.Ion Partachi 72

72

36
10/2/2023

Modele particulare

Cazul 1. Modelul liniar de regresie centrat în medie este


reprezentat prin următoarea ecuaţie:
zi = *1u1t+ *2uzt+ …+ *kukt+ t,
unde E(Z) = 0 şi E(Uj) = 0, j = 1, p .
În cazul acestui model, planul de regresie trece prin originea
reperului.
Cazul 2. Modelul liniar centrat redus va avea ecuaţia de
regresie
zi = **1u1t+ **2 uzt+ …+ **kukt+ t,
unde E(Z) = 0 , Var (Z) = 1,E (Ut) = 0 şi Var (Ut ) = 1.

02.10.2023 Prof.univ.dr.Ion Partachi 73

73

Între parametrii modelului iniţial de regresie şi cele doua modele


obţinute prin transformări de date există următoarele relaţii mai
importante:
 j  * j;
 y
 j   ** j .
 xi
– pentru a obţine modelul centrat vom utiliza următoarele
transformările de date:
zt  yt  y şi u jt  x jt  x j ;
– pentru transformarea modelului iniţial de regresie într-un model
centrat redus folosim transformările următoare:
yt  y x jt  x j
Zt  si u jt  .
y j
unde  j reprezintă abaterea medie standard a variabilei Xj.

02.10.2023 Prof.univ.dr.Ion Partachi 74

74

37
10/2/2023

Coeficienţii de corelaţie parţială


Prin modul de definire modelul centrat redus permite estimarea
parametrilor şi pe baza altor date decât cele necesare în cazul modelului
normal.
Definim coeficienţii de corelaţie ai variabilelor luate doua câte două
după cum urmează:
cov( y, xi ) cov(xi , x j )
ry / xi 
σ y σ xi şi rxi / x j  σ σ .
xi xj

Pentru modelul centrat, luând în considerare proprietaţile matricilor


se obţin următoarele:
 y t x it x x
t
it jt

cov( y , x i )  t
şi cov(xi , x j ) 
n
.
n
Se obţin atunci următoarele egalităţi:
 yt x jt  n cov( y, xi )
t

 xit x jt  n cov( xi , x j ).
t

02.10.2023 Prof.univ.dr.Ion Partachi 75

75

Luând în considerare relaţiile de mai sus vom scrie pentru modelul centrat matricile X´X şi X´y după cum urmează:
 n x21 n cov( x1 , x2 ) ... n cov( x1, xk ) 
 
n cov( x2 , x1 ) n x22 ... n cov( x2 , xk ) 
X'X     nC  x1 ,x 2 ,...,x k  ,
 ................... ................... ... ....................
 n cov( xk , x1 ) n cov( xk , x2 ) ... n  xk2 
unde prin C[x1, x2, …, xk], s-a notat matricea de covarianţă a variabilelor exogene.
În mod asemănător, vom scrie:
 cov( y , x1 ) 
X' y  n    nCy, X ,
 cov( y , x p ) 
unde C(y,X) reprezintă vectorul coloană al covarianţelor variabilei Y în funcţie de fiecare variabilă exogenă.
Vom scrie acum sistemul normal de ecuaţii pentru modelul centrat:
C(x1, x2 ,...,xk )ˆ *  C(y, X)
Rezolvând sistemul de ecuaţii se obţine soluţia:

ˆ *  C-1(x1, x2 ,..., xk )C(y, X) .

02.10.2023 Prof.univ.dr.Ion Partachi 76

76

38
10/2/2023

Eroarea pentru modelul de regresie multiplă


Vectorul valorilor ajustate prin modelul liniar de regresie este reprezentat prin:
ˆ ˆ -1
y  X  X(X' X) X' y.
Vectorul reziduurilor se calculează după relaţia:
ˆ e  y y  y X(X' X) X' y  (I X(X' X)1X' )y  Gy.
1

Matricea G  Mnxn joacă un rol fundamental în analiza modelului de regresie.


Proprietatea 1. Matricea G este simetrică, deci este valabilă egalitatea următoare G = G’;
Proprietatea 2. Matricea G este idempotentă, adică
G 2  G  G  [I  X(X' X) 1 X' ][I  X(X' X) 1 X' ]  I  X(X' X) 1 X'  G;
Proprietatea 3. Urma1 matricei G este:
 
Tr( G )  Tr I  X( X' X)1X'  Tr( I )  Tr X( X' X)1X'  n  k;  
Proprietatea 4. Matricile G şi X satisfac urmãtoarea egalitate: GX '  0 ;
Proprietatea 5. Dacă notăm P  I - G , atunci: yˆ  Py ;
Proprietatea 6. Matricea P este simetrică şi idempotentă, iar
PX  X(X' X)1 X' X  X
PG  GP  0.

1
Fie A  Mnxn, atunci Tr ( A)   a ii ; Tr (αA)  αTr ( A), unde   R; Tr(A) = Tr(A); tr(A+B) = tr(A) + tr(B); tr(In) = n; tr(A·B) = tr(B·A); Tr(ABC) =
i
02.10.2023
tr(BCA). Prof.univ.dr.Ion Partachi 77

77

Proprietăţile estimatorilor

Proprietatea 1. Vectorul estimatorilor ̂ este funcţie liniară a valorilor


observate,ce sunt reprezentate prin vectorul y:
̂  Ly ,
unde L  (X' X)1 X' M(1,n);
Proprietatea 2. Pentru vectorul rezidurilor modelului liniar de regresie
este valabilă egalitatea:
E(e) = 0.
Proprietatea 3. Estimatorii modelului liniar obţinuti prin MCMMP sunt
1 1 1
nedeplasaţi.   L(X e)  (X' X) X' X (X' X) X' e   (X' X) X' e.
Din proprietatea regresiei multiple potrivit careia E(X’e) = 0, se
obţine
E (ˆ )  E ( )  ( X ' X ) 1 E ( X ' e )  .

02.10.2023 Prof.univ.dr.Ion Partachi 78

78

39
10/2/2023

Proprietatea 4. Matricea de covarianţă a vectorului estimatorilor este


   
Var (ˆ )   ˆ  E   ˆ   ˆ '  E X ' X 1 X ' ee ' X X ' X 1  
 X ' X 1 X ' E ee 'X X ' X 1 .
Dacă sunt valabile următoarelele două ipoteze:E(e) = 0 şi E(ee’) =
e2In atunci matricea de covarianţă se
ˆ 
scrie: Var( )  X ' X 
1
  
X ' e I X X ' X  e X ' X .
2

1 2
 
1

Proprietatea 5. Vectorul estimatorilor şi cel al rezidurilor empirice


sunt necorelate, adică: cov(ˆ , e)  0.

e'e e t
2

ˆ e2   t 2
este un estimator nedeplasat pentru  e ;
nk nk
estimatorul lui Var ( ˆ ) este: ˆ ˆ  ˆe  X ' X  .
2 2 -1

02.10.2023 Prof.univ.dr.Ion Partachi 79

79

Coeficientul de determinaţie R2
• Este o măsură a proporţiei varianţei explicate de model
n n

SSR  ( yˆi  y )2 e i
2

R2   i 1
 1 i 1
  0,1
• R2 este afectat de i
SST  ( y  ynumărului
creşterea
i
)  ( yde parametri;
i y) 2
i
2

de aceea pentru modele cu multi parametri se


calculează R2 ajustat, care are aceeaşi interpretare.

n 1  n 1 
2
Radj 1 (1 R2 )  1 ,1
n  k  n  k 
02.10.2023 Prof.univ.dr.Ion Partachi 80

80

40
10/2/2023

Tabelul ANOVA
Source of Sum of Squares df Mean F
Variation Square
n SSR MSR
Regression SSR   (Yˆi  Y ) 2 k-1 MSR=
k 1 MSE
i 1
n SSE
Error SSE  e
i 1
i
2
n-k MSE=
nk
n SST
Total SST  (Yi Y )2 n-1 MST=
n 1
i 1

SSR k-numărul de parametrii ai


Testul modelului
F  k  1 ~ F k 1,n  k
SSE
n  k
este folosit la verificarea validităţii modelului. Un model este valid
dacă proporţia varianţei explicate prin model este semnificativă.
Ipoteza
02.10.2023
nulă pentru testul Prof.univ.dr.Ion
F in cazul Partachi
acesta este cea de model
81
nevalid.
81

Testarea semnificaţiei parametrilor modelului

H0: i = 0
H1 : i  0.
Dacă notăm  ii  [(X'X)–1ii] termenul (i, i) din matricea (X’X)–1,
atunci dacă sunt satisfăcute ipotezele pe care se fundamentează modelul
regresiei multiple vom avea următoarele două rezultate:

ˆi  N  i ,e  X'Xii  


1

  
iar
i  ˆi
zi   N (0,1).
 e  X'X ii 
1
 

Cum în aplicaţiile practice nu cunoaştem e , atunci această statistică


nu poate fi utilizată în inferenţele statistice asupra parametrilor modelului de
regresie.

02.10.2023 Prof.univ.dr.Ion Partachi 82

82

41
10/2/2023

Pentru definirea unei statistici operabile ţinem seama de faptul că:


ˆ 2ˆ   e2   X'X ii  .
1
i  
ˆi   i
ti 
Atunci  urmează o repartiţie Student cu n-k
 e  X ' X ii
1
 
grade de libertate.
Pentru un prag de semnificaţie , fixat, definim intervalul de
încredere pentru parametrul i:

ˆi  t /2;nke  X'Xii   i  ˆi  t / 2;nke  X'Xii 


1 1
   

02.10.2023 Prof.univ.dr.Ion Partachi 83

83

Exemplu
• O firmă vrea sa evalueze impactul publicităţii în radio şi
presa scrisă asupra vînzărilor produselor sale. Sînt luate
în calcul 3 variabile:
• Y – valoarea vînzărilor(mii dolari)
• X1- cheltuielile cu publicitatea prin radio(mii dolari)
• X2 - cheltuielile cu publicitatea prin presa scrisă(mii
dolari)
• Sînt înregistrate, timp de o lună, valorile acestor 3
variabile în 22 de oraşe, aproximativ omogene din
punctul de vedere al comportamentului consumatorilor.

02.10.2023 Prof.univ.dr.Ion Partachi 84

84

42
10/2/2023

METODA CELOR MAI MICI PATRATE

02.10.2023 Prof.univ.dr.Ion Partachi 85

85

Exemplu

02.10.2023 Prof.univ.dr.Ion Partachi 86

86

43
10/2/2023

Exemplu

02.10.2023 Prof.univ.dr.Ion Partachi 87

87

Exemplu
 Se consideră modelul de regresie liniară ce descrie legătura între:
 variabila endogenă: ritmul anual de modificare a consumului final (yi)

 variabilele exogene: ritmul anual de creştere a câştigului salarial mediu

(x1i) şi rata inflaţiei (x2i)


Ritmul anual de creştere a Ritmul anual de modificare
An Rata inflaţiei salariului mediu a consumului final

1 32,3 48,9 10,8

2 38,8 51,9 7

3 155 96,8 -4,3

4 59,1 64,9 1,1

5 45,8 46,1 -2,5

6 45,7 62,8 1,4

6 34,5 41,2 6,3

8 22,5 25,5 4,9

9 15,3 27,7 6,9

10 11,9 23,3 10,3

88

44
10/2/2023

Exemplu – rezultate Excel:


ANOVA
df SS MS F Significance F

k = 2  y / x = 46033,02
2
Regression s 2y / x = 23016,51 Fcalc = 29,67 0,00006234
n-k-1 = 10  e = 7756,21
2
Residual se2 = 775,62
Total n-1 = 12 2y = 53789,23

Interpretări:
Modelul de regresie este semnificativ statistic (valid) (adică se acceptă
H1) pentru o probabilitate de cel mult 100-0,0062=99,9938%>95%

89

Exemplu – rezultate Excel:


Standard Lower Upper
Coefficients Error t Stat P-value 95% 95%

a = sa = t calc =
Intercept 37,5023 17,6461 2,1252 0,059496 -1,82 76,82
1
b1 = sb1 = t calc =
Nr. familii 1,4963 0,5534 2,7039 0,022165 0,26 2,73
2
b2 = sb2 = t calc =
Supr.com 4,2446 1,0650 3,9856 0,002578 1,87 6,62

Interpretări:
 Parametrul α nu este semnificativ, deoarece probabilitatea cu care se poate accepta
H1 (care susţine că este semnificativ) este de cel mult 100-5,95=94,05%<95%.
 1,82    76,82
 Parametrul β1 este semnificativ, deoarece probabilitatea cu care se poate accepta
H1 (care susţine că este semnificativ) este de cel mult 100-2,2=97,8%>95%
0,26    2,73
 Parametrul β2 este semnificativ, deoarece probabilitatea cu care se poate accepta
H1 (care susţine că este semnificativ) este de cel mult 100-0,26=99,74%>95%
1,87    6,62

90

45

S-ar putea să vă placă și