Sunteți pe pagina 1din 6

C

AUTOCORELAREA ERORILOR

Autocorelarea erorilor presupune existența unei covarianțe nenule între erorile din ecuația
modelului de regresie.
Sursa autocorelării erorilor poate fi neincluderea în modelul de regresie a uneia sau mai
multor variabile explicative importante.

Autocorelația implică determinarea intensității corelației dintre termenul înregistrat în


perioada t și termenul din perioada t – 1, coeficientul r1, respectiv din perioada t – 2, coeficientul
r2.
Testarea autocorelării erorilor:
 Testul Durbin – Watson;
 Testul Lagrange.
Depistarea autocorelării erorilor se poate face utilizând procedeul grafic, trasarea
corelogramei între valorile estimate ale variabilei endogene Yp și valorile variabilei reziduale ui.

Atenuarea fenomenului de autocorelare a erorilor:


 Procedura Cochrane – Orcutt;
 Procedura Hildreth –Lu.

O ipoteză importantă în regresie este că termenii de eroare sunt independenți unul de


celălalt.
Ipoteza de normalitate a erorilor este importantă pentru stabilirea proprietăților
estimatorilor parametrilor modelului de regresie.
Valoarea probabilității asociate statisticii test calculate (Sig.) se compară cu nivelul de
semnificție, dacă valoarea Sig. ˂α, se respinge ipoteza de normalitate a erorilor.

Principalele consecințe ale autocorelării erorilor sunt:

 Estimatorii parametrilor din model sunt nedeplasați și consistenți;


 Estimatorii parametrilor din model nu sunt eficienți și nu sunt de maximă verosimilitate,
 Estimatorii calculați pentru dispersia și covarianța parametrilor sunt deplasați, nu sunt
consistenți și nu sunt eficienți.
 Testul t statistic (Student) aplicat pentru analiza semnificației estimatorilor nu este valid.
 Valorile t-Student calculate pentru semnificația parametrilor sunt supradimensionate
(sugerează o semnificație a parametrilor mai mare decât este în realitate).
 Abaterea standard a erorilor este subdimensionată și, în consecință, R2 este
supradimensionat, ceea ce indică o ajustare mai bună decât este în realitate.

Metoda verosimilității maxime MVM este recunoscută ca un procedeu de estimare dintre


cele mai performante. MVM urmăreste obținerea unor estimații pentru parametri astfel încât
probabilitatea reproducerii datelor esantionului, folosind estimațiile, să fie maximă.

Se urmăreste obținerea acelor soluții ale parametrilor modelului pentru care funcția de
verosimilitate corespunzătoare, rezultată din sondaje repetate, atinge valoarea sa maximă.
Funcția de verosimilitate se referă la probabilitatea simultană de realizare a valorilor Yi
privite ca funcție de unul sau mai mulți parametri.
În cazul modelului unifactorial, probabilitatea simultană este reprezentată de densitatea de
repartiție a valorilor Y1, Y2, ..., Yn, date fiind constantele a0, a1, s2.
Estimatorii obținuti cu ajutorul metodei M.C.M.P sunt estimatori de maximă
verosimilitate dacă sunt acceptate următoarele ipoteze:

1) Variabile observate nu sunt afectate de erori de măsură;


2) Ipoteza de homoscedasticitate - Varibila reziduală u este de medie nulă M(u)=0, iar
dispersia ei su2 este constantă și independentă de x;

Dacă graficul punctelor empirice prezintă o distribuție oscilantă, se poate accepta ipoteza că
cele două variabile sunt independente.

3) Valorile varibilelor reziduale ui sunt independente și neautocorelate.

Verificarea acestei ipoteze se poate efectua prin două procedee:

 Procedeul grafic - corelograma între valorile variabilei dependente Yi și valorile


variabilei reziduale;
Dacă în corelogramă se observă că distribuția punctelor empirice este oscilantă, se poate
accepta ipoteza de independență a erorilor.
 Testul Durbin-Watson.

Verificarea semnificației estimatorilor și a verosimilității modelului


econometric

Verificarea semnificatiei estimatorilor

Se verifică dacă estimatorii modelului de regresie sunt diferiți de zero, pentru un prag de
semnificație fixat.
Yi = a0 + a1*Xi +ui

a0- parametrul liber (Intercept)


a1- parametrul pantă

sa0 eroarea standard pentru parametrul a0

sa1 eroarea standard pentru parametrul a1

sa0= tcalculat > ttabelar  se respinge ipoteza nulă, adică parametrul a0 este
semnificativ din punct de vedere statistic.
sa1= tcalculat > ttabelar  se respinge ipoteza nulă, adică parametrul a1 este
semnificativ din punct de vedere statistic.

Verificarea verosimilitatii modelului econometric cu metoda ANOVA

Testul Fisher-Snedecor

Testul F este utilizat în compararea varianțelor și constă din formarea proporției celor
doua varianțe cu valoare mai mare la numărător și compararea proporției astfel formate
cu valoare critică a distribuției probabilistice a lui F.
Dacă proporția este semnificativ mai mare decât 1, varianțele vor fi considerate că nu sunt
egale.

𝐒𝐒𝐑(𝐧−𝐤−𝟏)
F=
𝐒𝐒𝐄∗𝐊

SSR - variația explicată prin regresie


SSE - variația neexplicată prin regresie

Testarea raportului de corelație cu testul Fisher (testul F )

R2 n  k 1
F 
1 R2 k
Fcalc  Ftab=Fα, n-k-1  modelul econometric este valid

 R este semnificativ din punct de vedere statistic

Dacă raportul de corelatie R este semnificativ diferit de zero, la un prag de semnificatie


ales, rezultă ca modelul econometric descrie corect dependența dintre cele două variabile.

TESTUL DURBIN-WATSON

Testul Durbin – Watson se utilizează pentru a detecta prezența autocorelației în reziduurile ui


(erorile de predicție) dintr-o analiză de regresie.

Durbin și Watson au aplicat această statistică reziduurilor din regresiile celor mai mici pătrate și
au dezvoltat teste de limite pentru ipoteza nulă, considerând că erorile sunt necorelate în serie cu
alternativa că urmează un proces autoregresiv de ordin I.

Distribuția statisticii Durbin – Watson de testare nu depinde de coeficienții de regresie estimați


și de varianța erorilor.

Testarea ipotezei cu ajutorul testului Durbin-Watson:


 Se stabileşte ipoteza nulă H0: variabila reziduală nu este autocorelată.
 Se stabileşte ipoteza alternativă H1: variabila reziduală este autocorelată.
 Se calculează testul Durbin-Watson.

Testul Durbin-Watson DW constă în calcularea valorii:

 u i  ui 1 
2

d calc  i 1
n

u
i 1
2
i

unde u i = y i - ŷ i sunt reziduurile, n = numărul de date din eșantion și k = numărul de


variabile independente.

Autocorelarea reziduurilor se poate verifica și pe baza calculării coeficientului de autocorelare


de ordinul I.
Coeficientului de autocorelare de ordinul I ( r1) este definit în intervalul [-1,1].

Interpretarea valorilor coeficientului de autocorelare r1:


 r1 = -1 avem o autocorelare strict negativă;
 r1 = 0 variabilele sunt independente;
 r1 =+1 autocorelarea este strict pozitivă.

Valoare empirică DW se compară cu două valori teoretice, d1 și d2, preluate din tabelul
distribuției Durbin-Watson, în funcție de un prag de semnificație ales, (α=0,05 sau 0,01), de
numărul de variabile exogene (k) și de numărul valorilor observate n (n>15).

Se acceptă ipoteza de normalitate a variabilei reziduale, distribuția variabilei aleatoare d


este cuprinsă între două distribuții limită, d1 și d2, ale căror mărimi depind de pragul de
semnificație, de numărul de variabile exogene (k) și de valorile observate (n).

Interpretarea valorii DW-d


Pentru a testa autocorelația pozitivă la un nivel de semnificație α , statistica testului d este
comparată cu valorile critice inferioare și superioare ( d1și d2):

 Dacă d < d1 , există dovezi statistice că termenii de eroare sunt pozitiv autocorelați;
 Dacă d > d2, nu există dovezi statistice că termenii de eroare sunt autocorelați
pozitiv;
 Dacă d1< d< d2, testul este neconcludent.

d1- valorea critică inferioară a statisticii DW


d2- valorea critică superioară a statisticii DW

Valorile critice, d1 și d2, variază în funcție de nivelul de semnificație α ales și de gradele


de libertate din ecuația modelului de regresie.

Corelația serială pozitivă este o corelație serială în care o eroare pozitivă pentru o observație
crește șansele unei erori pozitive pentru o altă observație.
Pentru a testa autocorelația negativă la un nivel de semnificație α ales , statistica testului (4
- d ) este comparată cu valorile critice inferioare și superioare ( d1și d2 ):

 Dacă (4 - d ) < d1, există dovezi statistice că termenii de eroare sunt negativ
autocorelați;
 Dacă (4 - d )> d2 , nu există dovezi statistice că termenii de eroare sunt autocorelați
negativ;
 Dacă d1 <(4 - d ) < d2, testul este neconcludent.
Corelația negativă în serie implică faptul că o eroare pozitivă pentru o observație crește
șansa unei erori negative pentru o altă observație și o eroare negativă pentru o observație crește
șansele unei erori pozitive pentru o altă observație.

Exemplu

DW = 0.73

Valorile critice ale statisticii DW


d1=1,64
d2=1,72
DW calculat se află în intervalul (0, d1), rezultă că există autocorelare de ordinul I pozitivă.

Corelația serială nu afectează consistența coeficienților de regresie estimați.


Statistica F pentru testarea semnificației generale a regresiei poate fi crescută sub corelație
serială pozitivă, deoarece eroarea pătrată medie (MSE) va tinde să subestimeze varianța erorii
populației.
Corelația serială pozitivă determină de obicei erorile standard obișnuite ale celor mai mici
pătrate pentru coeficienții de regresie să subestimeze adevăratele erori standard. În consecință,
dacă în regresie este prezentă o corelație pozitivă în serie, analiza de regresie liniară standard ne
va conduce la calcularea unor erori standard artificiale mici pentru coeficientul de regresie. Aceste
mici erori standard vor face ca statistica t estimată să fie mărită, sugerând o semnificație acolo
unde poate nu există. Statistica t umflată, ne poate conduce la respingerea incorectă a ipotezelor
nule, despre valorile populației parametrilor modelului de regresie mai des decât am face dacă
erorile standard ar fi corect estimate.
Dacă statistica Durbin – Watson indică prezența corelației seriale a reziduurilor, acest lucru
poate fi remediat prin utilizarea procedurii Cochrane – Orcutt .

Bibliografie

Jula D., Introducere în Econometrie, Editura Professional Consulting, București, 2003

Andrei T., ș.a., Econometrie, Editura Economică, 2008

S-ar putea să vă placă și