Sunteți pe pagina 1din 21

II.

VERIFICAREA IPOTEZELOR MODELULUI DE REGRESIE

Modelarea econometrică se realizează în anumite condiţii sau cu respectarea unui set de


restricţii care se numesc ipoteze ale modelului de regresie.
Calitatea estimării parametrilor modelului de regresie depinde de îndeplinirea a două clase
de ipoteze:

- Ipoteze asupra componentei aleatoare sau asupra variabilei eroare:


- , media erorilor este nulă;
- , ipoteza de homoscedasticitate;
- , ipoteza de normalitate;
- , ipoteza de necorelare sau de independenţă a erorilor.

- Ipoteze asupra componentei deterministe sau asupra variabilelor independente:


- variabilele independente sunt non-aleatoare, deterministe;
- variabilele independente şi variabila eroare sunt necorelate, ;
- variabilele independente sunt necoliniare (cazul regresiei liniare multiple)

Nerespectarea acestor ipoteze:


- determină modificarea proprietăţilor estimatorilor parametrilor modelului de regresie;
- ridică probleme importante în realizarea demersului cercetării econometrice.

Proprietăţilorestimatorilorparametrilormodelului de regresie:
- estimatorii parametrilor sunt nedeplasaţi: ;
- estimatorii parametrilor urmează o lege de repartiţie normală: ;

- estimatorii parametrilor sunt eficienţi: ;

- estimatorii parametrilor sunt convergenţi: ;.

1
A. Ipoteze cu privire la erori (variabila reziduală sau componenta aleatoare)

1. Media erorilor este zero:

Aplicaţie:
În studiul legăturii dintre variabila dependentă, Salariul ($), şi variabila independentă,
Nivelul de educaţie (ani), înregistrate pentru un eşantion de 474 de persoane, s-au obţinut
următoarele rezultate:
Coeffi cientsa

Unstandardized St andardiz ed
Coeffic ient s Coeffic ient s
Model B St d. Error Beta t Sig.
1 (Cons tant) -18331,2 2821,912 -6, 496 ,000
Educational Level (years) 3909,907 204,547 ,661 19,115 ,000
a. Dependent Variable: Current Salary

Să se testeze dacă media erorilor este zero.

Residuals Statisticsa

Minimum Maximum Mean Std. Deviation N


Predicted Value $12,948.08 $63,776.86 $34,419.57 $11,279.480 474
Residual -$21,567.422 $79,042.953 $.000 $12,819.966 474
Std. Predicted Value -1,904 2,603 ,000 1,000 474
Std. Residual -1,681 6,159 ,000 ,999 474
a. Dependent Variable: Current Salary

One-Sample Statistics

Std. Error
N Mean Std. Deviation Mean
Unstandardized Residual 474 ,0000000 12819,96640 588,8406

One-Sam ple Test

Test Value = 0
95% Confidence
Int erval of the
Mean Difference
t df Sig. (2-tailed) Difference Lower Upper
Unstandardized Residual ,000 473 1,000 ,00000000 -1157, 07 1157,067

2
One-Sample Kolmogorov-Smirnov Test

Unstandardized
Residual
N 474
Normal Parameters a,b Mean ,0000000
Std. Deviation 12819,96639730
Most Extreme Absolute ,110
Differences Positive ,110
Negative -,069
Kolmogorov-Smirnov Z 2,400
As ymp. Sig. (2-tailed) ,000
a. Test distribution is Normal.
b. Calculated from data.

Descriptive Statistics

N Minimu Maximu Mean Std. Skewness Kurtos is


Statistic m
Statistic m
Statistic Statistic Deviation
Statistic Statistic Std. Error Statistic Std. Error
Unstandardized
474 -21567 79043,0 ,000000 12819,97 1,764 ,112 5,798 ,224
Residual
Valid N (lis twis e) 474

Observaţie: Tabelele pe baza cărora se poate calcula valoarea statisticii test Student sau se poate
lua decizia cu privire la această ipoteză sunt: Residual Statistic, OneSampleStatistics, OneSample
Test, OneSampleKolmogorov-Smirnov Test.

(1) Formularea ipotezelor:


- ipoteza nulă (media erorilor este nulă; media erorilor nu este
semnificativă sau nu este reprezentativă; erorile nu afectează sistematic media
variabilei dependente )
- ipoteza alternativă (media erorilor este diferită semnificativ de zero;
erorile nu au media nulă; media erorilor este semnificativă; erorile afectează sistematic
media variabilei dependente )

(2) Alegerea pragului de semnificaţie:

(3) Alegerea statisticii test:

3
(4) Citirea valorii teoretice a statisticii test:

(5) Calcularea statisticii test:

(6) Regula de decizie:


În funcţie de statistica :
- dacă , atunci nu se respinge (se acceptă) ipoteza nulă
- dacă , atunci se respinge ipoteza nulă , cu o probabilitate de

În funcţie de (probabilitatea asociată statisticii test):


- dacă , atunci se acceptă ipoteza nulă
- dacă , atunci se respinge ipoteza nulă

(7) Luarea deciziei:


- dacă nu se respinge ipoteza , se îndeplineşte ipoteza cu privire la media erorilor,
adică erorile au media nulă sau media erorilor nu este reprezentativă.
- dacă se respinge ipoteza , ipoteza cu privire la media erorilor nu este îndeplinită,
adică media erorilor diferă semnificativ de zero, este reprezentativă.

nu se respinge (se acceptă) ipoteza nulă


nu se respinge (se acceptă) ipoteza nulă

(8) Interpretarea deciziei luate:


Cu o probabilitatea de 95%, se poate garanta că media erorilor nu este semnificativă sau
nu este reprezentativă sau că erorile nu afectează sistematic media variabilei dependente
. Cu alte cuvinte, ipoteza media erorilor este nulă ( ) este îndeplinită.

4
2. Ipoteza de homoscedasticitate:

Erorile astfel definite sunt homoscedastice dacă varianţele acestora sunt egale şi
constante:
constantă.

Dacă ipoteza de homoscedasticitate este încălcată, modelul de regresie se numeşte


heteroscedastic. Efectul încălcării ipotezei de homoscedasticitate este pierderea eficienţei
estimatorilor parametrilor modelului de regresie (estimează parametrul cu o varianţă mai mare).

Testarea ipotezei

2.1. Testul Glejser (cazul regresiei liniare simple): presupune testarea semnificaţiei
parametrului din modelul de regresieestimat construit pe baza variabilei reziduale în valoare
absolută ca variabilă dependentă şi variabila independentă :

Aplicaţie:
Se studiază legătura dintre variabila dependentă, Salariul ($), şi variabila independentă,
Nivelul de educaţie (ani), înregistrate pentru un eşantion de 474 de persoane. În vederea
verificării ipotezei de homoscedasticitate a erorilor, se aplică testul Glejser iar rezultatele obținute
sunt prezentate în tabelul de mai jos:
Coeffi cientsa

Unstandardized St andardiz ed
Coeffic ient s Coeffic ient s
Model B St d. Error Beta t Sig.
1 (Cons tant) -1773, 944 1865,129 -,951 ,342
Educational Level (years) 821,842 135,194 ,269 6,079 ,000
a. Dependent Variable: abs

(1) Formularea ipotezelor:


- (varianţa sau dispersia erorilor este constantă, adică erorile sunt
homoscedastice sau au aceeaşi varianţă; modelul de regresie este homoscedastic)
- (varianţa sau dispersia erorilor nu este constantă, adică erorile sunt
heteroscedastice sau nu au aceeaşi varianţă; modelul de regresie este heteroscedastic)

5
Formularea ipotezelor intermediare:
- (parametrul nu este semnificativ, adică între erori şi
variabila independentă nu există o legătură liniară semnificativă sau
variabila independentă nu explică semnificativ liniar variabila reziduală)
- (parametrul este semnificativ, adică între erori şi variabila
independentă există o legătură liniară semnificativă sau variabila
independentă explică semnificativ liniar variabila reziduală)

(2) Alegerea pragului de semnificaţie:

(3) Alegerea statisticii test:

(4) Citirea valorii teoretice a statisticii test:

(5) Calcularea statisticii test:

(6) Regula de decizie:


În funcţie de statistica :
- dacă , atunci se acceptă ipoteza nulă
- dacă , atunci se respinge ipoteza nulă , cu o probabilitate de

În funcţie de (probabilitatea asociată statisticii test):


- dacă atunci se acceptăipoteza nulă
- dacă , atunci se respinge ipoteza nulă

(7) Luarea deciziei:

6
- dacă se acceptă ipoteza , parametrul nu este semnificativ sau nu diferă
semnificativ de zero, ceea ce înseamnă că varianţa sau dispersia erorilor este constantă,
adică se îndeplineşte ipoteza de homoscedasticitate a erorilor.
- dacă se respinge ipoteza , parametrul este semnificativ, ceea ce înseamnă că
varianţa sau dispersia erorilor nu este constantă, adică nu se îndeplineşte ipoteza de
homoscedasticitate a erorilor; erorile sunt heteroscedastice.

se respinge ipoteza nulă


respinge ipoteza nulă

(8) Interpretarea deciziei luate:


Cu o probabilitatea de 95%, se poate garanta că parametrul este semnificativ (adică
între erori şi variabila independentă există o legătură liniară semnificativă sau variabila
independentă explică semnificativ liniar variabila reziduală), ceea ce înseamnă că varianţa
sau dispersia erorilor nu este constantă, adică erorile sunt heteroscedastice sau nu au
aceeaşivarianţă (modelul de regresie este heteroscedastic). Cu alte cuvinte, ipoteza de
homoscedasticitate a erorilor ( ) nu este îndeplinită.

Observaţie: Tabelul pe baza căruia se poate calcula testul sau se poate lua decizia cu
privire la această ipoteză este: Coefficients.

2.2. Testul Breusch-Pagan-Godfrey (cazul regresiei liniare multiple):

(1) Formularea ipotezelor:


- (varianţa sau dispersia erorilor este constantă, adică erorile sunt
homoscedastice sau au aceeaşivarianţă; modelul de regresie este homoscedastic)
- (varianţa sau dispersia erorilor nu este constantă, adică erorile sunt
heteroscedastice sau nu au aceeaşi varianţă; modelul de regresie este heteroscedastic)

(2) Alegerea pragului de semnificaţie:

(3) Regula de decizie:


În funcţie de (probabilitatea asociată statisticii test):
- dacă atunci se acceptă ipoteza nulă
- dacă , atunci se respinge ipoteza nulă

7
(4) Luarea deciziei:
- dacă se acceptă ipoteza , varianţa sau dispersia erorilor este constantă, adică se
îndeplineşte ipoteza de homoscedasticitate a erorilor.
- dacă se respinge ipoteza , nu se îndeplineşte ipoteza de homoscedasticitate a
erorilor; erorile sunt heteroscedastice.

se respinge ipoteza nulă

Aplicaţie:
În vederea verificării ipotezei de homoscedasticitate a erorilor, pentru un esantion de
volum egal cu 30, se aplică testul Breusch-Pagan-Godfrey, iar rezultatele obținute sunt prezentate
în tabelul de mai jos:

8
3. Ipoteza de normalitate a erorilor:

Definirea ipotezei
Erorile urmează o lege normală de medie 0 şi varianţă :

Efectele încălcării ipotezei


Ipoteza de normalitate a erorilor este importantă pentru stabilirea proprietăţilor
estimatorilor parametrilor modelului de regresie:
- dacă , atunci estimatorii parametrilor modelului de regresie urmează, de
asemenea, o lege normală: ;
- dacă ipoteza de normalitate este încălcată, atunci estimatorii construiţi pe baza metodei
celor mai mici pătrate un urmează o lege de repartiţie normală, având doar proprietăţi
asimptotice, adică necesită eşantioane sau seturi mari de date.

Testarea ipotezei

3.1. Procedee grafice: histograma (curba frecvenţelor); Box-Plot; Q-Q Plot; P-P Plot.

- pe baza histogramei erorilor - pe baza diagramei QQ-Plot

3.2. Testul Kolmogorov-Smirnov:

Aplicaţie:
Se studiază legătura dintre variabila dependentă, Salariul ($), şi variabila independentă,
Nivelul de educaţie (ani), înregistrate pentru un eşantion de 474 de persoane. În vederea

9
verificării ipotezei de normalitate a erorilor, se aplică testul Kolmogorov-Smirnov, iar rezultatele
obținute sunt prezentate în tabelul de mai jos:
One-Sample Kolmogorov-Smirnov Test

Unstandardized
Residual
N 474
Normal Parameters a,b Mean ,0000000
Std. Deviation 12819,96639730
Most Extreme Absolute ,110
Differences Positive ,110
Negative -,069
Kolmogorov-Smirnov Z 2,400
As ymp. Sig. (2-tailed) ,000
a. Test distribution is Normal.
b. Calculated from data.

(1) Formularea ipotezelor:


- (ipoteza de normalitate: erorile urmează o lege de repartiţie normală
sau erorile sunt normal distribuite sau distribuţia erorilor nu diferă semnificativ de
distribuţia normală)
- (erorile nu urmează o lege de repartiţie normală sau erorile nu sunt
normal distribuite sau distribuţia erorilor diferă semnificativ de distribuţia normală)

(2) Alegerea pragului de semnificaţie:

(3) Regula de decizie:


În funcţie de (probabilitatea asociată statisticii test):
- dacă atunci nu se respinge (se acceptă) ipoteza nulă
- dacă , atunci se respinge ipoteza nulă

(4) Luarea deciziei:


- dacă se acceptă ipoteza , este îndeplinită ipoteza de normalitate a erorilor, adică
erorile sunt normal distribuite;
- dacă se respinge ipoteza , erorile nu urmează o lege de repartiţie normală.

se respinge ipoteza nulă

(5) Interpretarea deciziei luate:

10
Cu o probabilitatea de 95%, se poate garanta că erorile nu urmează o lege de repartiţie
normală sau erorile nu sunt normal distribuite sau distribuţia erorilor diferă semnificativ
de distribuţia normală. Cu altecuvinte, ipoteza de normalitate a erorilor ( )nu
este îndeplinită.

Observaţie: Tabelul pe baza căruia se poate lua decizia cu privire la această ipoteză este: One
Sample Kolmogorov-Smirnov Test.

3.2. Testul Jarque-Bera: se bazează pe verificarea simultană a proprietăţilor de asimetrie


(coeficientul de asimetrie - Skewness (Sw)) şi boltire (coeficientul de boltire - Kurtosis (K)) a
seriei reziduurilor (erorilor)

Aplicaţie:
Se studiază legătura dintre variabila dependentă, Salariul ($), şi variabila independentă,
Nivelul de educaţie (ani), înregistrate pentru un eşantion de 474 de persoane. În vederea
verificării ipotezei de normalitate a erorilor, se aplică testul Jarque-Bera, iar rezultatele obținute
sunt prezentate în tabelul de mai jos:

Descriptive Statistics

N Minimu Maximu Mean Std. Skewness Kurtos is


Statistic m
Statistic m
Statistic Statistic Deviation
Statistic Statistic Std. Error Statistic Std. Error
Unstandardized
474 -21567 79043,0 ,000000 12819,97 1,764 ,112 5,798 ,224
Residual
Valid N (lis twis e) 474

(1) Formularea ipotezelor:


- (ipoteza de normalitate: erorile urmează o lege de repartiţie normală
sau erorile sunt normal distribuite sau distribuţia erorilor nu diferă semnificativ de
distribuţia normală)
- (erorile nu urmează o lege normală sau erorile nu sunt normal
distribuite sau distribuţia erorilor diferă semnificativ de distribuţia normală)

(2) Alegerea pragului de semnificaţie:

(3) Alegerea statisticii test:

11
(4) Citirea valorii teoretice a statisticii test:

(5) Calcularea statisticii test:

unde este estimaţia coeficientul de asimetrie şi este estimaţia coeficientul de


boltire .

(6) Regula de decizie:


În funcţie de valoarea calculată a statisticii :
- dacă , atunci se acceptă ipoteza nulă ;
- dacă , atunci se respinge ipoteza nulă , cu o probabilitate de
.

(7) Luarea deciziei:


- dacă se acceptă ipoteza , este îndeplinită ipoteza de normalitate a erorilor, adică
erorile sunt normal distribuite;
- dacă se respinge ipoteza , erorile nu urmează o lege de repartiţie normală, adică
ipoteza de normalitate a erorilor este încălcată.

atunci se respinge ipoteza nulă

(8) Interpretarea deciziei luate:


Cu o probabilitatea de 95%, se poate garanta că erorile nu urmează o lege de repartiţie
normală sau erorile nu sunt normal distribuite sau distribuţia erorilor diferă semnificativ
de distribuţia normală. Cu alte cuvinte, ipoteza de normalitate a erorilor ( nu
este îndeplinită.

Observaţie: Tabelele pe baza cărora se poate calcula testul sunt: tabelul Descriptive
Statistics în care apar indicatorii Skewness şi Kurtosis.

12
4. Ipoteza de necorelare sau de independenţă a erorilor:

Definirea ipotezei: Ipoteza de necorelare sau de independenţă a erorilor se referă la lipsa


unei corelaţii între variabilele reziduale sau la faptul că eroarea asociată unei valori a variabilei
dependente nu este influenţată de eroarea asociată altei valori a variabilei dependente.

În condiţiile în care ipoteza de independenţă a erorilor nu este verificată, modelul de


regresie înregistrează o autocorelare a erorilor sau o corelaţie serială. Autocorelarea sau corelaţia
serială presupune existenţa unei autocorelări între erorile , altfel spus: sau
.

Autocorelarea erorilor poate fi cauzată de:


- neincluderea în modelul de regresie a uneia sau a mai multor variabile explicative
(independente)importante;
- modelul de regresie nu este corect specificat;
- sistematizarea şi pregătirea datelor pentru prelucrare;
- inerţia fenomenelor în timp şi decalajul, în cazul seriilor de timp.

În condiţiile încălcării ipotezei, se poate considera că între erori există o relaţie de forma:
unde reprezintă o variabilă pur aleatoare care respectă ipotezele modelului
clasic de regresie.

Efectele încălcării ipotezei

În condiţiile existenţei autocorelării erorilor, este afectată calitatea estimaţiilor obţinute


prin metoda celor mai mici pătrate.
Se poate demonstra că, prin aplicarea metodei celor mai mici pătrate, pentru parametrul
, se obţine un estimator neeficient.

13
Testarea ipotezei

4.1. Testul Durbin-Watson

(1) Formularea ipotezelor:


- (erorile sunt necorelate sau independente; nu există autocorelare a
erorilor)
- (erorile sunt corelate sau dependente; există autocorelare a erorilor)
Formularea ipotezelor intermediare:
- (coeficientul de autocorelare a erorilor nu este semnificativ, ceea
ce înseamnă că între erori nu există o legătură semnificativă)
- (coeficientul de autocorelare a erorilor este semnificativ, ceea ce
înseamnă că între erori există o legătură semnificativă)

(2) Alegerea pragului de semnificaţie:

(3) Alegerea statisticii test:

Deoarece , valorile sunt date de intervalul :


- dacă , există autocorelare pozitivă maximă a erorilor;
- dacă , există autocorelare negativă maximă a erorilor;
- dacă , nu există autocorelare sau erorile nu sunt
autocorelate.

(4) Citirea valorii teoretice a statisticii test:


Se citesc valorile din tabela Durbin-Watson pentru , ţinând cont de numărul de
parametrii din model, de volumul eşantionului şi de riscul asumat .

(5) Regula de decizie:


În funcţie de aceste valori critice se determină următoarele intervale, care permit luarea
deciziei de respingere sau acceptare a ipotezei nule:

14
- dacă , se respinge ipoteza nulă , erorile înregistrează
autocorelare pozitivă;
- dacă , se respinge ipoteza nulă ,erorile înregistrează
autocorelare negativă;
- şi sunt regiuni de
nedeterminare, nu se poate decide asupra existenţei autocorelării erorilor;
- dacă , se acceptă ipoteza nulă , erorile nu sunt
autocorelate sau nu există autocorelare a erorilor.

(6) Luarea deciziei:


- dacă se acceptă ipoteza , coeficientul de autocorelare a erorilor nu este semnificativ,
adică nu există autocorelare a erorilor; ipoteza de necorelare sau de independenţă a
erorilor este verificată;
- dacă se respinge ipoteza , coeficientul de autocorelare a erorilor este semnificativ,
adicăerorile sunt autocorelate sau dependente; ipoteza de necorelare sau de
independenţă a erorilor nu este verificată.

Observaţie: Tabelul pe baza căruia se poate lua decizia cu privire la această ipoteză este:
Model Summary – coloana Durbin-Watson.

Sinteză:
DW  d
d   0, 4

d=4: autocorelare negativă maximă


d=2: lipsa autocorelării (erori necorelate/independente)
d=0: autocorelare pozitivă maximă

Valorile teoretice ale statisticii Durbin Watson sunt calculate şi tabelate în funcţie de:
- pragul de semnificaţie (α)

15
- volumul eşantionului (n)
- numărul de parametri ai modelului (k)

Aplicaţie:

Model Summaryb

Adjusted Std. Error of Durbin-


Model R R Square R Square the Es timate Watson
1 ,661a ,436 ,435 $12,833.540 1,863
a. Predictors: (Constant), Educational Level (years )
b. Dependent Variable: Current Salary

4.2. Testul Runs:

- se bazează pe ideea că valorile variabilei reziduale se constituie în secvenţe sau seturi de


valori pozitive sau negative numite runs (notate cu ), care se succed într-o anumită
ordine sau aleator.
- ipoteza de bază a acestui test este aceea că, în cazul lipsei autocorelării erorilor,
succesiunea acestor seturi este aleatoare sau numărul acestora este distribuit normal.
- aplicarea testului presupune testarea ipotezei de normalitate a variabilei numărul de runs
( ).

(1) Formularea ipotezelor:


- (erorile sunt necorelate sau independente; nu există autocorelare a
erorilor)
- (erorile sunt corelate sau dependente; există autocorelare a erorilor)

Formularea ipotezelor intermediare:


- variabila este distribuită normal (succesiunea runs-urilor este
aleatoare sau numărul lor este distribuit normal)
- variabila nu este distribuită normal (succesiunea runs-urilor nu este
aleatoare sau numărul acestora nu este distribuit normal)

(2) Alegerea pragului de semnificaţie:


În funcţie de statistica (probabilitatea asociată statisticii test):

16
- dacă atunci se acceptă ipoteza nulă
- dacă , atunci se respinge ipoteza nulă

(3) Luarea deciziei:


- dacă se acceptă ipoteza , variabila runs este distribuită normal, adică nu există
autocorelare a erorilor sau erorile nu sunt autocorelate, ci sunt independente, ceea ce
înseamnă că este îndeplinită ipoteza de necorelare a erorilor de modelare.
- dacă se respinge ipoteza , variabila runs nu este distribuită normal, adică există
autocorelare a erorilor sau erorile sunt autocorelate sau dependente, ceea ce înseamnă
că nu este îndeplinită ipoteza de necorelare a erorilor de modelare.

Observaţie: Tabelul pe baza căruia se poate lua decizia cu privire la această ipoteză este:
Runs Test

Aplicaţie:
Runs Test

Unstandardiz
ed Res idual
Test V aluea -2502,56250
Cases < Test V alue 237
Cases >= Test Value 237
Total Cases 474
Number of Runs 219
Z -1, 747
As ymp. Sig. (2-tailed) ,081
a. Median

17
B. Ipoteze cu privire la variabilele independente (componenta deterministă)

3.1. Variabilele independente sunt nestocastice sau deterministe


- definirea ipotezei: este legată de gradul de omogenitate a variabilelor independente.
Deoarece în relaţiilevarianţelor estimatorilor apare varianţa variabilelor independente, este
important ca această varianţă să fie posibil de calculat, să fie finită şi diferită de zero.

3.2. Variabilele independente şi eroare sunt necorelate:


- definirea ipotezei: este respectată dacă este îndeplinită condiţia ca variabilele
independente să fie variabile deterministe sau nealeatoare.

3.3. Ipoteza de necoliniaritate a variabilelor independente

a. Definirea coliniarităţii (multicoliniarităţii)


Multicoliniaritatea poate fi definită ca o legătură liniară funcţională existentă între două
sau mai multe variabile independente ale unui model de regresie de forma:

a.1. multicoliniaritate perfectă


- apare atunci când între variabilelele independente există o legătură liniară
perfectă, funcţională:

a.2. multicoliniaritateimperfectă
- poate fi definită ca o relaţie liniară puternică existentă între două sau mai multe
variabile independente:

b. Efectele coliniarităţii sau efectele încălcării ipotezei de necoliniaritate


Dacă pentru un model de regresie multiplă variabilele independente sunt coliniare,
varianţa estimatorilor parametrilor modelului de regresie creşte, adică estimatorii îşi pierd
proprietatea de eficienţă.

b.1. coliniaritate perfectă:

18
- varianţa estimatorilor parametrilor modelului este infinită, ceea ce înseamnă că
parametrii pentru aceste variabile un pot fi estimaţi.

b.2. coliniaritate imperfectă:


- varianţele pentru estimatorii parametrilor modelului sunt mari.

c. Testarea ipotezei:

c.1. Procedee grafice: Scatter plot

c.2. Depistarea coliniarităţii


- un prim indiciu pentru existenţa coliniarităţii poate fi următorul: dacă între variabilele
independente există o legătură de tip liniar, cel mai probabil, coeficientul de determinaţie
pentru acest model va avea o valoare ridicată, însă testul Student pentru fiecare parametru
al variabilelor coliniare nu va fi semnificativ statistic. În consecinţă, se poate testa
coliniaritatea prin testarea coeficienţilor de regresie, iar indiciul este existenţa unui
coeficient de determinaţie mare. În condiţiile în care parametrii modelului de regresie sunt
nesemnificativi, se poate decide că modelul admite fenomenul de coliniaritate.
- o altă metodă de testare a coliniarităţii este testarea parametrilor modelelor de regresie
auxiliară construite ca modele de regresie liniară doar pe baza variabilelor independente.
Dacă parametrii acestor modele sunt semnificativi, atunci variabilele independente sunt
coliniare.
- pe baza modelelor de regresie auxiliare, se pot construi doi indicatori cu ajutorul cărora se
poate detecta existenţa coliniarităţii: Tolerance şi VIF (Variance Inflation Factor).

c.3. Factorul varianţei crescute (VIF)


- relaţia de calcul pentru

- interpretarea lui :
- dacă legăturile dintre variabilele independente sunt puternice, atunci se apropie
de 1, iar raportul este infinit;
- dacă între variabilele independente nu există corelaţie , valoarea
raportului este egală cu 1.
- în practică, o valoare indică prezenţa coliniarităţii.
- tabelul în care găsim valorile pentru : Coefficients - coloana VIF

19
c.4. Factorul tolerenţa (TOL)
- relaţia de calcul pentru

- interpretarea lui
- dacă , există coliniaritate perfectă;
- dacă , variabilele independente induc fenomenul de coliniaritate;
- dacă , variabilele independente nu sunt coliniare sau nu există
coliniaritate.
- tabelul în care găsim valorile pentru : Coefficients - coloana TOL

c.5. Raportului de determinaţie al modelului auxiliar


- este calculată pe baza lui sau pe baza lui

- interpretarea lui : arată cât la sută din variaţia variabilei independente este explicată
de variaţia simultană a celorlalte variabile independente.

Aplicaţie:

_________________________

TOL  0,1 ; VIF  1,  ; R 2  0,1

TOL  0 

VIF   coliniarit ate _ perfecta
R 2  1 

20
VIF  10 

TOL  0.1Coliniarit ate _ imperfecta
R 2  0.9 
VIF  1 

TOL  1 Necoliniar itate
R 2  0 

21

S-ar putea să vă placă și