Sunteți pe pagina 1din 82

ECONOMETRIE

- anul universitar 2017-2018-


Planul cursului
1.  Introducere
2.  Modelul de regresie liniară simplă
3.  Modelul de regresie liniară multiplă
4.  Modele de regresie neliniară
5.  Ipoteze statistice: normalitatea erorilor,
homoscedasticitatea, necorelarea erorilor,
multicoliniaritatea.
5. Veri?icarea ipotezelor modelului de
regresie

Ipotezele statistice care se formulează în modelarea


econometrică sunt ipoteze asupra componentei
aleatoare (erorilor) şi ipoteze asupra componentei
deterministe (variabilelor independente).

5.1. Ipotezele asupra componentei aleatoare
(erorilor) sunt următoarele:
a. Media erorilor este nulă: M(εi)=0.
b. Ipoteza de homoscedasticitate: V(εi)=σ2
c. Ipoteza de normalitate: ε i ~ N (0, σ 2 )
d. Ipoteza de necorelare sau de independenţă a
erorilor: cov(εi, εi)=0.

a. Media erorilor este nulă
1. De<inire: M(εi)=0 care este echivalentă cu M(Y/
X)=β0+ β1X.

2. Efectele încălcării acestei ipoteze:
-  dacă această ipoteză este încălcată, atunci se
modi?ică proprietăţile estimatorilor parametrilor
modelului de regresie (parametrii sunt estimaţi
deplasat sau cu o eroare sistematică).
3. Testarea ipotezei cu privire la media
erorilor

—  Ipoteze:
H0: M(ε)=0
H1: M(ε)#0
M̂ ( ε ) − M ( ε )
—  Alegerea testului: t =
V̂ ( M̂ ( ε ) )

—  Calculul statisticii test: M ( ei )


tcalc =
sM̂ ( ε )


—  Decizie

4. Exemplu

Residuals Statisticsa

Minimum Maximum Mean Std. Deviation N


Predicted Value 58508,12 6084511 1582428 1957596,554 15
Residual -98125,2 131202,7 ,00000 73271,63549 15
Std. Predicted Value -,778 2,300 ,000 1,000 15
Std. Residual -1,290 1,725 ,000 ,964 15
a. Dependent Variable: salariu
One-Sample Statistics

Std. Error
N Mean Std. Deviation Mean
Unstandardized Residual 15 ,0000000 73271,63549 18918,65
One-Sample Test

Test Value = 0
95% Confidence
Interval of the
Mean Difference
t df Sig. (2-tailed) Difference Lower Upper
Unstandardized Residual ,000 14 1,000 ,00000000 -40576,5 40576,48
5. Corectarea modelului

—  Modelul iniţial se corectează cu ajutorul


estimaţiei erorilor calculate la nivelul
eşantionului.
—  Modelul corectat este de forma:

*
yi 0 + βi xi + ui , unde:
=– β
*
yi = yi − M ( ε i )
b. Ipoteza de homoscedasticitate a erorilor

1.  De7inire
-  ipoteza de homoscedasticitate presupune ca
varianţa erorilor să ?ie constantă:

V(εi ) =σ 2

-  această ipoteză presupune o varianţă constantă şi
egală a erorilor la nivelul distribuţiilor
condiţionate de forma
Y X = xi
2. Efectele încălcării acestei ipoteze

—  pierderea e?icienţei estimatorilor parametrilor


modelului de regresie (estimează parametrul cu o
varianţă mai mare).

3. Identi7icarea heteroscedasticităţii

3.1. Procedee gra=ice
- presupun reprezentarea distribuţiei erorilor şi
aprecierea varianţei acesteia.
- cazul existenţei heteroscedasticităţii:

1
X
0 Residuals
0 5 10 15 20 25 30 35
-1

-2

-3
3.2. Procedee numerice
a. Testul Glejser

—  are la bază un model de regresie între variabila


reziduală estimată şi variabila independentă.

Etapele testării:
1.  Se estimează modelul de regresie de forma:
Y = β + β ⋅ X +ε
0 1

2. Se calculează erorile estimate ei.
3. Se construieşte un model de regresie pe baza
erorilor estimate în valoare absolută şi variabila
independentă. Exemplu:

ε i = α 0 + α1 ⋅ xi + ui

4. Se testează parametrii acestui model: dacă parametrul
α1 este semni?icativ, atunci modelul iniţial este
heteroscedastic.

Exemplu:
Coefficientsa

Unstandardized Standardized
Coefficients Coefficients
Model B Std. Error Beta t Sig.
1 (Constant) 50921,663 12000,771 4,243 ,001
PIB ,016 ,012 ,348 1,337 ,204
a. Dependent Variable: erori
b . T e s t u l S p e a r m a n ( c o e = i c i e n t a l c o r e l a ţ i e i
neparametrice)
-  se bazează pe calculul rangurilor valorilor estimate
ale erorilor, εi , şi a valorilor Xi .

Ipoteze statistice:
H0: ipoteza de homoscedasticitate(V(εi)=σ2)
H1: ipoteza de heteroscedasticitate (V(εi)≠σ2)
θˆ n − 2
t=
Statistica test: 1 − θˆ 2
—  Valoarea calculată a statisticii test:

r n−2
tcalc =
1− r2
unde: r este o estimaţie a coe?icientului Spearman.
Regula de decizie:
—  │tcalc │ >tteor sau o valoare a lui Sig. asociată statisticii
test t Student calculate < α duce la respingerea
ipotezei Ho.

Exemplu:
În studiul legăturii dintre două variabile, X şi Y, s-au
obţinut următoarele rezultate:


Correlations

Unstandardiz
X ed Residual
Spearman's rho X Correlation Coefficient 1,000 ,000
Sig. (2-tailed) . 1,000
N 5 5
Unstandardized Residual Correlation Coefficient ,000 1,000
Sig. (2-tailed) 1,000 .
N 5 5
Se cere să se testeze ipoteza de homoscedasticitate,
considerând un risc de 0,05.

Rezolvare:
Pentru aceasta, se formulează următoarele ipoteze
statistice:
H0: ipoteza de homoscedasticitate(V(εi)=σ2 )
H1: ipoteza de heteroscedasticitate (V(εi)≠σ2 )
Statistica test : r n−2
t=
1− r2

—  Coe?icientul Spearman este:

r =0

—  Statistica test t Student se calculează astfel:



tcalc = r n − 2 = 0 ⋅ 5 − 2 = 0
1− r2 1−0
Regula de decizie:
-  pentru exemplul dat:

(t calc = 0) < (t 0,025;3 = 3,182 )

Deci, se acceptă, cu o probabilitate de 0,95, ipoteza
Ho, ipoteza de homoscedasticitate.

c. Testul Goldfeld-Quandt

Are la bază ideea că între valorile varianţei erorilor


la nivelul repartiţiilor condiţionate şi valorile
variabilei independente există o legătură pozitivă
de forma:

2 2 2
σi =σ xi

Ipoteze statistice:
H0: ipoteza de homoscedasticitate
H1: ipoteza de heteroscedasticitate
Etape pentru calculul statisticii test:
- se ordonează crescător valorile xi .

- se împarte seria în două părţi egale, după omiterea
unui set de date din centrul seriei (în cazul seriilor cu
un număr mare de termeni);

- se estimează parametrii ecuaţiei de regresie pentru
?iecare din cele două seturi de date şi se calculează
variaţia reziduală (RSS) pentru ?iecare model în
parte;
-  se calculează statistica test Fisher care compară cele două
variaţii reziduale:

RSS 2
Fcalc =
RSS1

unde: RSS1 corespunde celei mai mici valori a variaţiei
reziduale.

Regula de decizie:
Fcalc > F0, 05;n − k ;n − k
- dacă sau Sig.<0.05, atunci se
respinge ipoteza Ho.


Exemplu:

Pentru două variabile, X şi Y, se cunosc următoarele valori:

xi yi
2 15

3 20

1 10

4 19

6 25

5 23

7 30

8 35

9 38

10 40
—  Se cere să se testeze ipoteza de homoscedasticitate,
folosind testul Goldfeld-Quandt.

Rezolvare:
1.  Se ordonează crescător şirul valorilor xi.
2.  Se împarte seria valorilor xi în două serii: prima
serie este reprezentată de valorile 1, 2, …, 5; iar a
doua serie este reprezentată de valorile 6, 7, …, 10.
3. Pentru ?iecare din cele două serii se estimează
parametrii modelului de regresie. Se obţine:

Seria 1: Yx=8,3+3X
Seria 2: Yx=3,2+3,8X

4. Pentru aceste modele, se estimează variaţia reziduală
(valoare prezentată în output-ul ANOVA):
- pentru seria 1: RSS=3,73;
- pentru seria 2: RSS=1,6.
5. Se calculează raportul F, considerând RSS1 cea mai
mică valoare, şi anume RSS1=1,6:
Fcalc=3,73/1,6=2,33.

6. Se compară valoarea calculată a statisticii test F cu
valoarea teoretică:

F0, 05;n1 − k ;n2 − k = F0, 05;5− 2;5− 2 = 9,277 .

(k este numărul de parametri estimaţi).
7. Interpretare:

( Fcalc = 2,33) < ( F0, 05;3;3 = 9,277 )

P e n t r u e x e m p l u l d a t , s e a c c e p t ă i p o t e z a d e
homoscedasticitate, cu o probabilitate de 0,95.



4. Corectarea heteroscedasticităţii
2
4.1. Dacă se cunosc parametrii i
σ
Corecţia heteroscedasticităţii este aplicată
modelului de regresie liniară simplă:

yi = β0 + β1 xi + ε i
Corectarea heteroscedasticităţii presupune
ponderarea modelului iniţial cu variabila .
1
σi
Noul model de regresie (corectat) se obţine
astfel:
yi β0 xi ε i
= + β1 +
σi σi σi σi

Estimarea parametrilor acestui model se
realizează pe baza MCMMP ponderată (method
of weighted least squares).
2
4.2. Dacă nu se cunosc parametrii i
σ
Corecţia heteroscedasticităţii se realizează pe
baza relaţiei:

2 2 2
σi = σ xi

Corectarea heteroscedasticităţii presupune
ponderarea modelului iniţial cu variabila 1/xi.
Noul model de regresie (corectat) este de
forma:

yi = β0 + β1 + ε i
xi xi xi

5. Teste pentru modele multiple
5.1 Testul Breusch-Pagan-Godfrey
—  Etape:
-  se estimează modelul de bază;
-  se estimează erorile;
-  se construieşte un model auxiliar de regresie de
forma:
ei2 = α 0 + α 1 X 1 + α 2 X 2 + u

-  folosind raportul de determinaţie al acestui model,


R2a, se construieşte un test chi-pătrat cu k-1 grade de
libertate;
5. Teste pentru modele multiple

-  valoarea calculată a testului este:

2 2
χ calc = n ⋅ Ra

-  decizia.
5. Teste pentru modele multiple
5.2. Testul White
-  este similar testului anterior, doar că ecuaţia de
regresie auxiliară are forma:

ei2 = α 0 + α 1 X 1 + α 2 X 2 + α 3 X 1 X 2 + α 4 X 12 + α 5 X 22 + u
c. Ipoteza de normalitate a erorilor
1. Formularea problemei
-  erorile ε urmează o lege normală de medie 0 şi
varianţă σ2:
ε i ~ N (0, σ 2 )

2. Efectele încălcării acestei ipoteze
-  ipoteza de normalitate a erorilor este importantă
pentru stabilirea proprietăţilor estimatorilor
parametrilor modelului de regresie.
2
—  dacă i ) , atunci estimatorii parametrilor
ε ~ N ( 0 ,σ
modelului de regresie urmează, de asemenea, o lege
normală:

ˆ 2
βi ~ N (βi , σ βˆ )
i

—  dacă ipoteza de normalitate este încălcată, atunci


estimatorii parametrilor modelului de regresie nu
urmează o lege normală (pentru eşantioane de
volum mare, proprietatea de normalitate este atinsă
asimptotic).
3. Veri=icarea normalităţii erorilor
3.1. Procedee gra?ice

-  Histograma (curba frecvenţei):
-  P-P Plot sau Q-Q Plot;
-  Box-Plot;

a.  Reprezentarea histogramei şi a curbei frecvenţelor
-  se reprezintă curba frecvenţei sau histograma
reziduurilor şi se observă dacă forma distribuţiei
acestora are alură de clopot.

Exemplu:

Histograma şi curba frecvenţelor

His tog ram

Dependent Variable: g reut
3,0
2,5
F requenc y

2,0
1,5
1,0
0,5
0,0
Mean = -1,85E -15
-2 -1 0 1 2 S td. Dev. = 0,943
N = 10
R eg res s ion S tandardized R es idual
b. P-P Plot

Normal P -P P lot of R eg res s ion S tandardiz ed


R es idual

Dependent Variable: g reut


1,0
E xpec ted C um P rob
0,8

0,6

0,4

0,2

0,0
0,0 0,2 0,4 0,6 0,8 1,0

O bs erved C um P rob
c. Box-plot

70

65

60

55

50

45

greut
3.2. Procedee numerice
a. Testul Kolmogorov-Smirnov
-  presupune compararea frecvenţelor cumulate
(calculate) cu frecvenţele teoretice cumulate
extrase din tabelul Gauss.

Ipoteze statistice:
(
H0: ipoteza de normalitate i ε ~ N (0, )
σ 2
)
H1: distribuţia erorilor nu urmează o lege normală

Regula de decizie:

—  valoarea probabilităţii asociate statisticii test
calculate (Sig.) se compară cu α (0,05):
dacă Sig.<α, atunci se respinge ipoteza de
normalitate a erorilor.

Exemplu:
One-Sample Kolmogorov-Smirnov Test

greut
N 10
Normal Parameters a,b Mean 58,5000
Std. Deviation 7,83511
Most Extreme Absolute ,276
Differences Positive ,161
Negative -,276
Kolmogorov-Smirnov Z ,873
Asymp. Sig. (2-tailed) ,432
a. Test distribution is Normal.
b. Calculated from data.
b. Testul Jarque-Bera

-  se bazează pe veri?icarea simultană a proprietăţilor


de asimetrie şi boltire ale seriei reziduurilor. Pentru
o distribuţie normală, valoarea coe?icientului de
asimetrie Fisher (sw) este zero, iar valoarea
coe?icientului de boltire Fisher (k) este zero.

Ipoteze statistice
(
H0: ipoteza de normalitate ε i ~ N (0, σ 2 ) )
H1: distribuţia erorilor nu urmează o lege normală
Calculul statisticii test:
—  statistica test JB se calculează după relaţia:

n ⎛⎜ 2 k 2 ⎞⎟
JB = ⋅ ⎜ sw + ⎟
6 ⎝ 4 ⎠

unde: sw este coe?icientul de asimetrie (Skewness):
µ3
sw = 3
σ
k este coe?icientul de boltire (Kurtosis):

µ
k = 42 − 3
µ2
—  În cazul unui model de regresie, estimaţiile celor doi
parametri ai formei unei distribuţii au următoarele
relaţii:
(∑
ei3 2
)
i n−2
sw =
ei2 3
(∑ )
i n−2

ei4
∑i n − 2
k= 2
−3
e
(∑ i ) 2
i n−2
unde: ei = y i − y x
i



Regula de decizie:
2
Statistica JB urmează o lege .
χα , 2

- dacă valoarea calculată a statisticii test JB >


χα2 ; 2
sau Sig.<0,05, atunci se respinge ipoteza Ho.

Exemplu.
Descriptive Statistics

N Minimum Maximum Mean Std. Skewness Kurtosis


Statistic Statistic Statistic Statistic Deviation
Statistic Statistic Std. Error Statistic Std. Error
Unstandardized Residual 7 -2.61905 2.14286 .0000000 1.889822 -.529 .794 -1.375 1.587
Valid N (listwise) 7
d . I p o t e z a d e n e c o r e l a r e s a u d e
independenţă a erorilor: cov(εi, εi)=0.

1.  Noţiuni

a. Autocorelarea sau corelaţia serială :
-  presupune existenţa unei autocorelări între
erorile ε, altfel spus: cov(εi, εj) # 0 sau M(εi, εj ) #
0.

b. Coe=icientul de autocorelaţie
- coe?icientul de autocorelaţie între erorile εi şi εi-1
ale unui model de regresie se calculează după

56
relaţia: cov( ε i ,ε i −1 ) cov( ε i ,ε i −1 )
ρ= =
σ iσ i −1 σ2

-  acest coe?icient este un coe?icient de autocorelaţie de
ordinul 1.

c. Funcţia de autocorelaţie
—  este de?inită de valorile coe?icienţilor de autocorelare
de ordinul k.

57

2. Sursa autocorelării erorilor
-  neincluderea în modelul de regresie a uneia sau mai
multor variabile explicative importante;
-  inerţia fenomenelor în timp şi decalajul, în cazul
seriilor de timp;
-  modelul de regresie nu este corect speci?icat.

3. Testarea autocorelării erorilor

58
3.1. Testul Durbin-Watson
Ipoteze statistice:
H0: erorile nu sunt autocorelate (ρ = 0)
H1: erorile sunt autocorelate (ρ ≠ 0 )

Calculul statisticii test:

2
( ˆ
∑ i i−1
ε −εˆ )
i =2
DW = d = 2
ˆ
∑i
ε
i =1

59
Întrucât ε i = ρε i −1 + ui statistica DW se mai poate scrie
astfel:
2 2
∑ εˆ i − 2∑ εˆ i εˆ i −1 + ∑ εˆ i −1
2
∑ εˆ i − ∑ εˆ i εˆ i −1 ⎛ ∑ εˆ i εˆ i −1 ⎞
⎜ i ⎟
d= i i i
≅2 i i
= 2 ⋅ ⎜1 − ⎟ = 2 ⋅ ( 1 − ρˆ )
2 2 2
∑ εˆ i ∑ εˆ i ⎜ ∑ εˆ i ⎟
i i ⎝ i ⎠

Deoarece − 1 ≤ ρˆ ≤ 1 , valorile statisticii DW sunt date de
intervalul: 0 ≤ d ≤ 4

60
Interpretare:
—  Dacă ρˆ = 1 ⇒ d = 0 , atunci există autocorelare
pozitivă maximă a erorilor;
—  Dacă ρˆ = −1 ⇒ d = 4 , atunci există autocorelare
negativă maximă a erorilor;
—  Dacă ρˆ = 0 ⇒ d = 2 , atunci nu există autocorelare.

61
Regula de decizie:
—  Valorile teoretice ale statisticii DW sunt calculate şi
tabelate în funcţie de pragul de semni?icaţie, de
volumul eşantionului şi de numărul de parametri ai
modelului.

—  În tabele se determină două valori critice, notate cu
dL (limita inferioară) şi dU (limita superioară).

62
—  În funcţie de aceste valori critice se determină
următoarele intervale, care permit luarea deciziei
de respingere sau acceptare a ipotezei nule:

a.  (0<d calc <d L ) se respinge ipoteza H o , erorile
înregistrează o autocorelare pozitivă;
b. (dL<dcalc<dU) şi (4-du<dcalc< 4-dL) sunt regiuni de
nedeterminare, nu se poate decide asupra
existenţei autocorelării erorilor;

63
c. (du <dcalc< 4- du) se acceptă ipoteza Ho, erorile nu
sunt autocorelate;
d. (4-dL <dcalc< 4) se respinge ipoteza Ho, erorile
înregistrează o autocorelare negativă.

Exemplu:
În studiul legăturii dintre două variabile, X şi Y,
observate pentru un eşantion format din 25 unităţi
statistice, s-a estimat un model de regresie liniară
simplă şi s-au obţinut următoarele rezultate:

64
Calculul statisticii Durbin-Watson în SPSS:


Model Summaryb

Adjusted Std. Error of Durbin-


Model R R Square R Square the Estimate Watson
1 ,985a ,970 ,960 2,41523 1,429
a. Predictors: (Constant), X
b. Dependent Variable: Y

Să se testeze ipoteza de autocorelare a erorilor,


considerând un risc de 0,05.

65
3.2. Runs Test

-  se bazează pe ideea că valorile variabilei reziduale se


constituie în secvenţe sau seturi de valori pozitive sau
negative numite runs, care se succed într-o anumită
ordine sau aleator.

-  ipoteza de bază a acestui test este aceea că, în cazul
lipsei autocorelării erorilor, succesiunea acestor seturi
(runs, notate k) este aleatoare sau numărul acestora
este distribuit normal.

66
Ipoteze statistice
H0: k este distribuit normal (nu există autocorelare a
erorilor)
H1: k nu este distribuit normal (ipoteza este încălcată)

Calculul statisticii test
-  se foloseşte statistica t Student, calculată după
relaţia:
k − M (k )
t calc =
sk
unde: k este numărul de runs caracterizat prin:

67
n1 n2
M( k ) = 2 +1
n1 + n2

2 2n1n2 − n1 − n2
s = 2n1n2
k 2
(n1 + n2 ) (n1 + n2 − 1)

68
—  n1 este numărul de valori pozitive ale erorilor ei ;
—  n2 este numărul de valori negative ale erorilor ei,
cu n1 + n2 = n .


Regula de decizie:
-  dacă |tcalc| t
≤ a/2,n-2 , atunci se acceptă ipoteza H0.

69
Exemplu:
Pentru două variabile, X şi Y, s-au obţinut
următoarele rezultate:
Runs Test 2

Unstandardiz
ed Residual
Test Valuea ,0000000
Cases < Test Value 17
Cases >= Test Value 15
Total Cases 32
Number of Runs 3
Z -4,849
Asymp. Sig. (2-tailed) ,000
a. Mean

Să se testeze ipoteza de autocorelare a erorilor,
folosind testul Runs.
70
4. Efectele încălcării ipotezei de necorelare a
erorilor
—  în aceste condiţii, prin aplicarea MCMMP, se obţine
pentru parametrul β0 un estimator nee?icient.

6.2. Ipotezele asupra variabilelor independente


1. Variabilele independente sunt nestochastice sau
deterministe.

2. Variabilele independente şi variabila eroare sunt
necorelate, cov (Xi,εi)=0.
- această ipoteză este îndeplinită dacă variabilele
independente sunt nestochastice.

71
3. Ipoteza de necoliniaritate a variabilelor independente

a. De<inire
—  Coliniaritatea poate ?i de?inită ca o legătură liniară
funcţională existentă între două sau mai multe
variabile independente ale unui model de regresie
multiplă de forma:


YX1 ,… Xp = β 0 + β1 ⋅ X 1 + β 2 ⋅ X 2 + … + β p ⋅ X p + ε
a.1. Coliniaritate perfectă

72
—  apare atunci când între variabilelele independente X1,
X2, ..., Xp există o legătură liniară perfectă,
funcţională. Această legătură poate ?i exprimată
printr-o relaţie de forma:

λ1 ⋅ X 1 + λ2 ⋅ X 2 + … + λ p ⋅ X p = 0

unde: λi, cu i=1, ..., p, valori constante care nu sunt toate,
în mod simultan, nule.

73
a.2. Coliniaritatea imperfectă
—  Poate ?i de?inită ca o relaţie liniară puternică
existentă între două sau mai multe variabile
independente.

λ1 ⋅ X 1 + λ2 ⋅ X 2 + … + λ p ⋅ X p + u = 0

74
b. Efectele coliniarităţii
—  Varianţa estimatorilor parametrilor modelului de
regresie creşte, adică estimatorii pierd proprietatea
de e?icienţă.
—  În cazul unei coliniarităţi perfecte, varianţa
estimatorilor este in?inită (parametrii modelului nu
pot ?i estimaţi).
—  În cazul unei coliniarităţi imperfecte, varianţele
estimatorilor sunt mari.

75
c. Testarea coliniarităţii
c.1. Folosind procedee gra=ice

20,00

15,00
X2

10,00

5,00

R S q L inear = 1
0,00

0,00 2,00 4,00 6,00 8,00 10,00

X1

76
20,00

15,00
X2

10,00

5,00

0,00 R S q L inear = 0,902

0,00 2,00 4,00 6,00 8,00 10,00 12,00 14,00

X1

77
c.2. Folosind procedee numerice
1.  Factorul varianţei crescute (variance-in=lated
factor, VIF)
1
VIFj =
1 − R 2j
—  unde: R
2 j este raportul de determinaţie din
modelul de regresie auxiliar, respectiv dintre
variabila Xj şi celelalte variabile independente.

78
Interpretare:
—  A t u n c i c â n d l e g ă t u r i l e d i n t r e v a r i a b i l e l e
independente sunt puternice, valoarea raportului de
determinaţie se apropie de unu, iar raportul VIF este
in?init.

—  Atunci când între variabilele independente nu există
corelaţie (R2j=0), valoarea raportului VIF este egală
cu unu.

79
—  În practică, o valoare VIF>10 indică prezenţa
coliniarităţii.

2. Toleranţa (Tolerance)
- se calculează după relaţia: TOL=1/VIF=1-R2j

Interpretare:
-  Dacă valoarea TOL=1, atunci nu există coliniaritate;
-  Dacă valoarea TOL=0, atunci există coliniaritate
perfectă.

—  Existenţa coliniarităţii este sugerată de valorile mici
ale indicatorului TOL.

80
d. Corectarea coliniarităţii
—  metodele de corecţie ţin cont de tipul de coliniaritate,
de numărul de variabile din model şi de informaţiile
suplimentare despre fenomenul studiat.
—  Cea mai simplă metodă constă în eliminarea
variabilei care introduce coliniaritatea.
—  Altă metodă constă în construirea unui model cu
variabile transformate prin diverse funcţii sau
operatori (de exemplu, operatorul decalaj, diferenţă).

81
Exemplu:
În urma analizei legăturilor dintre variabilele
independente ale unui model de regresie, s-au obţinut
următoarele rezultate:

Coefficientsa

Unstandardized Standardized
Coefficients Coefficients Collinearity Statistics
Model B Std. Error Beta t Sig. Tolerance VIF
1 (Constant) 65,705 27,731 2,369 ,037
X1 48,979 10,658 ,581 4,596 ,001 ,950 1,052
X2 59,654 23,625 ,359 2,525 ,028 ,753 1,328
X3 -1,838 ,814 -,324 -2,258 ,045 ,738 1,355
a. Dependent Variable: Y

82

S-ar putea să vă placă și