Documente Academic
Documente Profesional
Documente Cultură
1
10/2/2023
2
10/2/2023
Variaţia explicată
Variaţia explicată de X2
de X1 şi X2
X2
X1
3
10/2/2023
Observaţia i
Termen constant Influenţa
de Y
variabilei Xp
Influenţa
variabilei X1
Reziduu al
observaţiei i
0
y1 1 x1,1 x1, p e1
1
yn 1 x1,n xn, p en
p
y X e
02.10.2023 Prof.univ.dr.Ion Partachi 8
4
10/2/2023
10
5
10/2/2023
11
12
6
10/2/2023
e
i
X2
(X1i, X2i)
X1
02.10.2023 Prof.univ.dr.Ion Partachi 13
13
Procesul de estimare
Modelul de regresie multiplă
Y = 0 + 1X1 + 2X2 +. . .+ pXp + e Datele:
Hiperplanul de regressiei multiple x1 x2 . . . xp y
E(Y|X1,…,Xp) = 0 + 1X1 + 2X2 +. . .+ pXp . . . .
Parametrii necunoscuţi . . . .
0, 1, 2, . . . , p
Ecuatia estimată
ˆ0 , ˆ1 , ˆ2 ,..., ˆ p
Yˆ ˆ0 ˆ1 X 1 ˆ2 X 2 ... ˆ p X p
Estimatorii de
Estimatori
0, 1, 2, . . . , p
ˆ0 , ˆ1 , ˆ2 ,..., ˆ p
02.10.2023 Prof.univ.dr.Ion Partachi 14
14
7
10/2/2023
Procesul de estimare
• Interpretarea geometrică
Ilustrarea cazului p=2.
Y yi : observaţia
yˆ i ˆ0 ˆ1 X 1i ˆ2 X 2 i
̂ 0
eˆi yi yˆ i
X2
(X1i, X2i)
X1
02.10.2023 Prof.univ.dr.Ion Partachi 15
15
Procesul de estimare
• Estimarea coeficienţilor regresiei
– Metoda : celor mai mici pătrate ordinare
• Principiul estimării coeficienţilor de regresie :
0 , 1 , 2 ,..., p
consistă în minimizarea sumei pătratelor reziduale :
n n
e i2 ( yi yˆ i ) 2
i 1 i 1
16
8
10/2/2023
Procesul de estimare
• Estimarea coeficienţilor modelului ˆ
• Metoda celor mai mici pătrate ne dă rezultatul
ˆ X
T 1
X X TY
̂ urmează o lege
N 0, e2 X T X 1
̂ este imparţială : E ( ˆ )
17
1. Forma funcţională: Y = X + e
18
9
10/2/2023
19
3. Homoscedasticitatea: E(ee’)=^2
Daca modelul de regresie satisface proprietatea de
homoscedasticitate atunci matricea de covarianţă a variabilelor
reziduale se scrie:
( e , e ) E (ee ' )
cov(e1, e1 ) cov(e1 , e 2 ) ... cov(e1 , e n ) e2 0 ... 0
cov(e 2 , e1 ) cov(e 2 , e 2 ) ... cov(e 2 , e n ) 0 e2 ... 0
.
............... ............... ... ............... ... ... ... ...
cov( e ,
n 1 e ) cov( en , e2 ) ... cov(e n , e n ) 0 0 ... e2
20
10
10/2/2023
21
22
11
10/2/2023
5.23
Estimatorii CMMP derivaţi ai regresiei multiple
^ ^ ^ ^
Y = 1 + 2X2 + 3X3 + u
^ ^ ^
u^ = Y - 1 - 2X2 - 3X3
CMMP va minimiza SSR( u2)^
^ -
^ 2 = min. (Y -
min. RSS = min. u ^ X - ^ X )2
1 2 2 3 3
RSS
^ =2 ( Y - ^1- ^ 2X2 - ^3X3)(-1) = 0
1
RSS ^ - ^ X - ^ X )(-X ) = 0
^ =2 ( Y -
2
1 2 2 3 3 2
RSS ^ ^ ^
^ =2 ( Y - 1- 2X2 - 3X3)(-X3) = 0
3
All rights reserved by Dr.Bill Wan Sing Hung - HKBU
23
5.24
rearanjînd aceste 3 ecuaţii:
^ ^ ^
n1 + 2 X2 + 3 X3 = Y
^ X + ^ X 2 + ^ X X = X Y
2 2 2 3 3 2 3 2
^ X + ^ X X + ^ X 2 = X Y
1 3 2 2 3 3 3 3
^
(X’X) = X’Y Sub formă matricială
24
12
10/2/2023
n Y X3
X2 X2Y X2X3
X3 X3Y X32 (yx2)(x32) - (yx3)(x2x3)
^
2 = =
n X2 X3 (x22)(x32) - (x2x3)2
X2 X22 X2X3
X3 X2X3 X32
n X2 Y
X2 X22 X2Y
X3 X2X3 X3Y (yx3)(x22) - (yx2)(x2x3)
^
3 = =
n X2 X3 (x22)(x32) - (x2x3)2
X2 X22 X2X3
X3 X2X3 X32
_ _ _
^ = Y - ^ X - ^ X
1 2 2 3 3
All rights reserved by Dr.Bill Wan Sing Hung - HKBU
25
5.26
sau sub formă de matrici:
(X’X) ^ = X’Y
3x3 3x1 3x1
^
==> = (X’X)-1 (X’Y)
3x1 3x3 3x1
^ ^ ^ ^u2
Var-cov() = u2 (X’X)-1 and u2 =
n-3
Matricea Varianţă-Covarianţă
^ ^ ^ ^ ^
Var(1) Cov(1 2) Cov(1 3)
^= ^ ^
Var-cov() Cov (2 1) Var(^2) Cov(^2 ^3)
Cov (^3 ^1) Cov(
^ ^ )
3 2 Var(^ )
3
^ 2(X’X)-1
=u
26
13
10/2/2023
5.27
-1
n X2 X3
=^
u2 X2 X22 X2X3
X3 X3X2 X32
şi ^ 2= u^2 u^2
=
u n-3 n- k
k=3
numărul variabilelor independente
( inclusiv termenul constant)
27
5.28
Însemnătatea coeficienţilor parţiali de regresie
Y = 1 + 2X2 + 3X3 + u (presupunem că este un model adevărat)
28
14
10/2/2023
5.29
4. ^ = uX
uX2
^ =0
3
^ k=0 )
(uX Var(ui) constantă = 2
5. ^^
uY=0 eşantion aleator
All rights reserved by Dr.Bill Wan Sing Hung - HKBU
29
5.30
Propertăţile estimatorilor CMMP
6. Dacă X2 şi X3 sunt strîns corelate ==> var( ^ ) şi var(^)
2 3
devin mari şi infinite. În aşa caz este dificil de cunoscut
valorile lui 2 şi 3.
Toate ipotezele de normalitate din modelul regresiei cu două
variabile pot fi aplicate şi în modelul regresiei multiple.
Dar este adăugată o condiţie suplimentară:
Nu există o dependenţă lineară între variabilele independente.
(Nu există colinearitate perfectă, i.e., Xk Xj )
7. Cu cît este mai mare variaţia estimatorilor lui X2 sau X3,
^ lui ^şi , şi estimatorii
cu atât mai mică este variaţia 2 3
sunt mai exacţi.
30
15
10/2/2023
5.31
R2 Ajustat (R2) ca un indicator de bază
ESS RSS ^2
u
R2 = =1- =1-
TSS TSS y2
_ ^2 / (n-k)
u
R2 = 1 - k : numărul de
y2 / (n-1) parametri
_ ^2
R2 = 1 -
SY2
_ ^2 n : numărul de
u (n-1)
R2 = 1 - observaţii
y2 (n-k)
_
R2 = 1 - (1-R2) n-1
n-k
_
R2 R2 0 < R2 < 1
R2 ajustat poate fi negativ: R2 0
Notă: Nu abuzaţi de utilizarea R2, Gujarati(2003) pp. 222
All rights reserved by Dr.Bill Wan Sing Hung - HKBU
31
5.32
Y = 1 + 2 X2 + 3 X3 + u
Y TSS
Y n-1
^u
32
16
10/2/2023
5.33
C
X2
X3
X4
33
5.34
34
17
10/2/2023
5.35
1. Testarea individuală a coeficienţilor parţiali
1 păstrînd X3 constant: Are X2 efect asupra lui Y ?
H0 : 2 = 0 Y
= 2 = 0?
X2
H1 : 2 0
^
2 - 0 0.726
t= = = 14.906
Se (^ )2 0.048
^
Răspuns : Da, 2 este statistic semnificativ şi este
semnificativ diferit de zero.
35
5.36
1. Testarea individuală a coeficienţilor parţiali (cont.)
2 păstrînd X2 constant: Are X3 efect asupra lui Y?
Y
H0 : 3 = 0 = 3 = 0?
X3
H1 : 3 0
^
3 - 0 2.736-0
t= = = 3.226
Se (^ ) 0.848
3
^
Răspuns: Da, 3 este statistic semnificativ şi
semnificativ diferit de zero.
All rights reserved by Dr.Bill Wan Sing Hung - HKBU
36
18
10/2/2023
5.37
2. Testarea în ansamblu a estimatorilor regresiei
cazul cu 3
Y = 1 + 2X2 + 3X3 + u
variabile:
H0 : 2 = 0, 3 = 0, (toate variabilele au efect nul)
H1 : 2 0 or 3 0 (Cel puţin o variabilă nu e nulă,
Cel puţin o variabilă are efect)
3. Compararea F şi Fc , şi
dacă F > Fc ==> respingerea H0
37
==> y2 = y ^2
^2 + u
TSS = ESS + RSS
Tabelul ANOVA
(SS) (MSS)
Sursa variaţiei Suma pătratelor G.L. Media sumei păt.
Explicativă (ESS) y^2 k-1 y^2
k-1
Reziduală(RSS) u^2 n-k ^2
u ^2
n-k = u
Variaţia totală(TSS) y2 n-1
Notă: k reprezintă numărul total de paramentr din model, inclusiv termenul liber.
38
19
10/2/2023
5.39
^
Cazul a y = ^2x2 + 3x3 + u^
trei ^ ^
variabile y2 = 2 x2 y + 3 x3 y + u^2
Tabelul ANOVA
Sursa variaţiei SP GL(k=3) MSS
ESS ^ x y + ^ x y
3-1 ESS/3-1
2 2 3 3
RSS ^2
u n-3 RSS/n-3
(n-k)
TSS y2 n-1
39
5.40
R2 / (k-1) (k-1) F
F = Inversa : R2 =
(1-R2) / (n-k) (k-1)F + (n-k)
40
20
10/2/2023
5.41
R2 şi R2 ajustat (R2)
ESS RSS ^2
u
R2 = =1- =1-
TSS TSS y2
_ ^2 / (n-k)
u
R2 = 1 - k : numărul de
y2 / (n-1) parametri în
_ ^2 model
R2 = 1 -
SY2
n : nr. de observări
_ ^2
u (n-1)
2
R =1-
y2 (n-k)
_
R2 = 1 - (1-R2) n-1
n-k
_
R2 R2 0 < R2 < 1
R2 ajustat poate fi negativ: R2 0
All rights reserved by Dr.Bill Wan Sing Hung - HKBU
41
5.42
Testul de ansamblu:
H0 : 2 = 3 = 4 = 0
H1 : cel puţin un coeficient e
diferit de zero.
2 0 , or 3 0 , or 4 0
R2 / k-1
F* = =
(1-R2) / n- k
0.9710 / 3
=
(1-0.9710) /16
= 179.13
Fc(0.05, 4-1, 20-4) = 3.24
k-1 n-k
Since F* > Fc ==> reject H0.
All rights reserved by Dr.Bill Wan Sing Hung - HKBU
42
21
10/2/2023
5.43
Construirea tabelului ANOVA Table (8.4) .(Information from EViews)
Sursa
variaţiei
SP GL MSS
2 2 2 2
Due to R (y ) k-1 R (y )/(k-1)
regression =(0.971088)(28.97771)2x19
(SSE) =15493.171 =3 =5164.3903
2 2 2 2 2
Due to (1- R )(y ) or ( u ) n-k (1- R )(y )/(n-k)
Residuals =(0.0289112)(28.97771) )2x19
(RSS) =461.2621 =16 =28.8288
2
Total (y ) n-1
(TSS) =(28.97771) 2x19
=15954.446 =19
43
H0 : 1 = 2 = 3 = 0
ESS / k-1 R2 / k-1 0.707665 / 2
F* = = =
RSS/(n- k) (1-R2) / n- k (1-0.707665)/ 61
F* = 73.832
Deoarece F* > Fc
==> se respinge H0.
44
22
10/2/2023
5.45
Se construieşte tabelul ANOVA
Sursa
variaţiei
SP GL MSS
2 2 2 2
Due to R (y ) k-1 R (y )/(k-1)
regression =(0.707665)(75.97807)2x64
(SSE) =261447.33 =2 =130723.67
2 2 2 2 2
Due to (1- R )(y ) or ( u ) n-k (1- R )(y )/(n-k)
Residuals =(0.292335)(75397807)2x64
(RSS) =108003.37 =61 =1770.547
2
Total (y ) n-1
(TSS) =(75.97807)2x64
=369450.7 =63
45
5.46
Y = 1 + 2 X2 + 3 X3 + u
H0 : 2 = 0, 3= 0,
H1 : 2 0 ; 3 0
c
Se compară F* şi Fc, se verifică tabelul F: F 0.01, 2, 61 = 4.98
Fc0.05, 2, 61 = 3.15
Regula de decizie:
Dacă F*= .73.832 > Fc = 4.98 (3.15) ==> se respinge Ho
46
23
10/2/2023
47
Interpretarea parametrilor
Pentru a interpreta semnificaţia parametrilor modelului de regresie considerăm
modelul:
yi ˆ1x1i ˆ2x2i ... ˆk xki.
Atunci, dacă x2, … xk sunt constante se obţine următoarea egalitate:
yi ˆ1x1i ,
Rezolvând ecuaţia de mai sus se obţine că estimatorul parametrului 1 este rata
marginală de substituţie a variabilei endogene în raport cu variabila exogenă X1:
y i
ˆ1 .
x1i
48
24
10/2/2023
Procesul de estimare
49
Procesul de estimare
• Estimarea varianţei reziduurilor
n
i
e 2
ˆ 2 i 1
n p 1
50
25
10/2/2023
Procesul de estimare
• Intervalele de încredere
Putem calcula pentru fiecare coeficient al modelului un interval de
încredere de nivelul(1-) dat de :
51
Procesul de estimare
• Datele
– Mărimea eşantionului
Datele trebuie să fie suficient de numeroase: de la
15 la 20 prin variabile cel puţin..
– Natura variabilelor
În practică, Y este o variabilă cantitativă şi Xi pot fi
cantitativi sau binari.
52
26
10/2/2023
Calitatea regresiei
• Descompunerea sumei pătratelor totale SCT :
suma pătratelor totale
SCR : suma pătratelor reziduale
SCE : suma pătratelor explicate prin model
y yˆ (y
n n n
i Y 2
i Y 2
i yˆ i ) 2
i 1 i 1 i 1
02.10.2023 Prof.univ.dr.Ion Partachi 53
53
Calitatea regresiei
• Interpretarea geometrică a descompunerii în
sume pătrate
Teorema Pitagora
y
2 2 2
y y y yˆ yˆ y
y1 Y yˆ1
y y ˆy
y ŷ y Y yˆ
n n
54
27
10/2/2023
Calitatea regresiei
• Coeficienţii de determinare
– Coeficientul de determinare R2
R2 = SCE/SCT
Exprimă procentajul variantei Y explicată de model.
Acesta prezintă o idee globală a ajustării modelului.
– R2 ajustat se calculează în funcţie de R2 :
n 1
Ra2 1 (1 R 2 )
n p 1
Aceasta presupune în acelaşi timp calitatea
ajustării (legătura dintre Y şi Xi) şi complexitatea
modelului (numărul de variabile explicative).
02.10.2023 Prof.univ.dr.Ion Partachi 55
55
Calitatea regresiei
• Remarcă asupra R2
– 0≤R2 ≤1
– Atâta timp cât R2 este apropiat de 1, aceasta
semnifică că variabila dependentă Y este explicată
prin variabilele Xi.
– Rădăcina pătrată a R2, R, se numeşte coeficient de
corelaţie multiplă între Y şi Xi.
– Când, adăugăm variabile explicative noi în model, R2
creşte (chiar în cazul în care noile variabile explicative
sunt legate cu variabila dependentă).
– Acesta este motivul pentru care introducem R2
ajustat.
02.10.2023 Prof.univ.dr.Ion Partachi 56
56
28
10/2/2023
Calitatea regresiei
• Testul global Fisher
Permite să răspundem la întrebarea : legătura
globală dintre Y şi Xi este semnificativă?
– Ipoteze
H0: 1 = 2 = ... = p = 0
Y nu depinde de variabilele Xi .
57
Calitatea regresiei
– Statistica folosită
SCE
MSE p
F
MSR SCR
n p 1
– Regula deciziei
La riscul , respingem H0 dacă : ≥ p-valoare
(calculată cu o lege Fisher la p şi n-p-1 grade de
libertate)
58
29
10/2/2023
Calitatea regresiei
• R2 şi testul Fisher
59
Calitatea regresiei
• Testul Student asupra unui coeficient de
regresie
Permite să răspunzi la întrebarea următoare :
contribuţia marginală a unei variabile Xj este semnificativă?
• Ipoteze
H0 : j = 0 (j≠0)
Putem scoate variabila Xj
H1 : j 0
Trebuie sa păstrăm variabila Xj
60
30
10/2/2023
Calitatea regresiei
– Statistica folosită asupra ipotezei H0
ˆi
ti , s ˆ : écart - type estimé de ˆi
s ˆ i
i
– Regula de decizie
La riscul , respingem H0 dacă : ≥ p-valoare
(calculată cu ajutorul unei legi Student la n-p-1
grade de libertate).
61
Analiza reziduurilor
• Normalitatea
– QQ plot
– Teste de normalitate
• Homoscedasticitatea
– Varianţa rezsiduurilor nu este stabilă.
– Transformarea datelor
• Independenţa reziduurilor
– Testul Durbin-Watson
• Detectarea valorilor atipice
02.10.2023 Prof.univ.dr.Ion Partachi 62
62
31
10/2/2023
Variabilele dummy
• Variabilele dummy
• Variabila ia valorile 0 sau 1 pentru a indica o anumită
caracteristică, de exemplu, periodicitatea (trimestru, lună,…).
• Exemplu : consumul de combustibili trimestrial
di = 1 pentru i trimestru
di = 0 in caz contrar
X t 0 1t 2 d1 3 d 2 4 d 4 e t
63
Multicoliniaritatea
• Definiţie
Aceasta reprezintă corelaţiile ridicate (mai
mare de 0.70) între variabilele independente
(variabile explicative).
Multicoliniaritatea are ca consecinţe :
- să distorsioneze precizia estimării
coeficienţilor de regresie
- să facă sensibilă estimarea coeficienţilor cu
mici variaţii de date.
64
32
10/2/2023
Multicoliniaritatea
Variabile coliniare X1
X2
Variabile independente
X2
65
Multicoliniaritatea
• Detectarea
– Examenul matricii varianţei, covarianţei sau
corelării.
– R2 ridicat dar puţine variabile semnificative.
– Corelări puternice între Xi
– Corelări puternice parţiale între variabilele
independente.
66
33
10/2/2023
Selecţia variabilelor
• Problematica
Cum să alegem modelul ce conţine cea mai bună combinaţie a
variabilelor independente care explică variabila dependentă ?
• Strategii
– Examinarea tuturor modelelor posibile
– Selecţie progresivă
– Regresia pas cu pas descendentă
– Regresia pas cu pas ascendentă
67
Selecţia variabilelor
• Examinarea tuturor modelelor
Aceasta strategie constă în contemplarea tuturor modelelor şi
memorarea celui mai bun.
Inconveniente
• Ritmul lent (2p modele dacă p este numărul variabilelor
explicative) şi costul acestei abordări
• Ce reprezintă cel mai bun model?
68
34
10/2/2023
Selecţia variabilelor
• Tesul Fisher
Permite testarea dacă adăugăm o variabilă independentă la
un model care deţine deja o variabilă (sau suprimarea unei
variabile a unui model ce deţine două variabile) este din punct
de vedere statistic semnificativ.
SCE ( X 1 ) SCE ( X 1 , X 2 )
F
SCE ( X 1 , X 2 ) /( n p 1)
Valoarea p correspondentă este folosită ca un criteriu de
decizie pentru a adăuga sau înlătura o variabilă.
69
Variabila Xi având
Valoarea p > pragul Da cea mai mare p-valoare
este supprimat de model
? du modèle
Nu Da
70
35
10/2/2023
La început toate
variabilele Xi sunt din model
Calcularea lui F şi
a valorii
p pentru fiecare Xi
Da Variabila Xi având
Valoarea p >prag cea mai mare valoare p
? este
supprimată din model
Nu
02.10.2023 Oprire Prof.univ.dr.Ion Partachi 71
71
.......................................................................
ˆ1 x1i x pi ˆ2 x2i x pi ... ˆk xki yi xki
2
i i i i
72
36
10/2/2023
Modele particulare
73
74
37
10/2/2023
cov( y , x i ) t
şi cov(xi , x j )
n
.
n
Se obţin atunci următoarele egalităţi:
yt x jt n cov( y, xi )
t
xit x jt n cov( xi , x j ).
t
75
Luând în considerare relaţiile de mai sus vom scrie pentru modelul centrat matricile X´X şi X´y după cum urmează:
n x21 n cov( x1 , x2 ) ... n cov( x1, xk )
n cov( x2 , x1 ) n x22 ... n cov( x2 , xk )
X'X nC x1 ,x 2 ,...,x k ,
................... ................... ... ....................
n cov( xk , x1 ) n cov( xk , x2 ) ... n xk2
unde prin C[x1, x2, …, xk], s-a notat matricea de covarianţă a variabilelor exogene.
În mod asemănător, vom scrie:
cov( y , x1 )
X' y n nCy, X ,
cov( y , x p )
unde C(y,X) reprezintă vectorul coloană al covarianţelor variabilei Y în funcţie de fiecare variabilă exogenă.
Vom scrie acum sistemul normal de ecuaţii pentru modelul centrat:
C(x1, x2 ,...,xk )ˆ * C(y, X)
Rezolvând sistemul de ecuaţii se obţine soluţia:
76
38
10/2/2023
1
Fie A Mnxn, atunci Tr ( A) a ii ; Tr (αA) αTr ( A), unde R; Tr(A) = Tr(A); tr(A+B) = tr(A) + tr(B); tr(In) = n; tr(A·B) = tr(B·A); Tr(ABC) =
i
02.10.2023
tr(BCA). Prof.univ.dr.Ion Partachi 77
77
Proprietăţile estimatorilor
78
39
10/2/2023
e'e e t
2
ˆ e2 t 2
este un estimator nedeplasat pentru e ;
nk nk
estimatorul lui Var ( ˆ ) este: ˆ ˆ ˆe X ' X .
2 2 -1
79
Coeficientul de determinaţie R2
• Este o măsură a proporţiei varianţei explicate de model
n n
SSR ( yˆi y )2 e i
2
R2 i 1
1 i 1
0,1
• R2 este afectat de i
SST ( y ynumărului
creşterea
i
) ( yde parametri;
i y) 2
i
2
n 1 n 1
2
Radj 1 (1 R2 ) 1 ,1
n k n k
02.10.2023 Prof.univ.dr.Ion Partachi 80
80
40
10/2/2023
Tabelul ANOVA
Source of Sum of Squares df Mean F
Variation Square
n SSR MSR
Regression SSR (Yˆi Y ) 2 k-1 MSR=
k 1 MSE
i 1
n SSE
Error SSE e
i 1
i
2
n-k MSE=
nk
n SST
Total SST (Yi Y )2 n-1 MST=
n 1
i 1
H0: i = 0
H1 : i 0.
Dacă notăm ii [(X'X)–1ii] termenul (i, i) din matricea (X’X)–1,
atunci dacă sunt satisfăcute ipotezele pe care se fundamentează modelul
regresiei multiple vom avea următoarele două rezultate:
iar
i ˆi
zi N (0,1).
e X'X ii
1
82
41
10/2/2023
83
Exemplu
• O firmă vrea sa evalueze impactul publicităţii în radio şi
presa scrisă asupra vînzărilor produselor sale. Sînt luate
în calcul 3 variabile:
• Y – valoarea vînzărilor(mii dolari)
• X1- cheltuielile cu publicitatea prin radio(mii dolari)
• X2 - cheltuielile cu publicitatea prin presa scrisă(mii
dolari)
• Sînt înregistrate, timp de o lună, valorile acestor 3
variabile în 22 de oraşe, aproximativ omogene din
punctul de vedere al comportamentului consumatorilor.
84
42
10/2/2023
85
Exemplu
86
43
10/2/2023
Exemplu
87
Exemplu
Se consideră modelul de regresie liniară ce descrie legătura între:
variabila endogenă: ritmul anual de modificare a consumului final (yi)
2 38,8 51,9 7
88
44
10/2/2023
k = 2 y / x = 46033,02
2
Regression s 2y / x = 23016,51 Fcalc = 29,67 0,00006234
n-k-1 = 10 e = 7756,21
2
Residual se2 = 775,62
Total n-1 = 12 2y = 53789,23
Interpretări:
Modelul de regresie este semnificativ statistic (valid) (adică se acceptă
H1) pentru o probabilitate de cel mult 100-0,0062=99,9938%>95%
89
Interpretări:
Parametrul α nu este semnificativ, deoarece probabilitatea cu care se poate accepta
H1 (care susţine că este semnificativ) este de cel mult 100-5,95=94,05%<95%.
1,82 76,82
Parametrul β1 este semnificativ, deoarece probabilitatea cu care se poate accepta
H1 (care susţine că este semnificativ) este de cel mult 100-2,2=97,8%>95%
0,26 2,73
Parametrul β2 este semnificativ, deoarece probabilitatea cu care se poate accepta
H1 (care susţine că este semnificativ) este de cel mult 100-0,26=99,74%>95%
1,87 6,62
90
45