Sunteți pe pagina 1din 11

AUTOCORELAREA ERORILOR

Modelul de regresie: Y=X|+c



V=


Erorile sunt autocorelate-i=j astfel nct Cov(c
i
,c
j
) = 0.

unde
V=
(
(
(
(

) , cov( ) , cov( ) , cov(


) , cov( ) , cov( ) , cov(
) , cov( ) , cov( ) , cov(
2 1
2 2 2 1 2
1 2 1 1 1
n n n n
n
n
c c c c c c
c c c c c c
c c c c c c

(
(
(
(

1
1
1
2 1
2 1
1 1
2

n n
n
n



o
c
1 - n 1, k
) var( ) var(
) , cov(
0
= = =
+
+

c c
c c

k
k i i
k i i
k
AUTOCORELAREA ERORILOR
Problemele ce se pun n acest caz sunt:
1. Identificarea cauzelor de apariie a corelrii
erorilor
2. Testele statistice utilizate pentru depistarea
autocorelrii
3. Metode de estimare a parametrilor n cazul
autocorelrii
1. Cauzele de apariie a autocorelrii erorilor
Absena uneia sau mai multor variabile explicative importante
neincluderea uneia sau mai multor variabile explicative importante
poate genera autocorelarea erorilor.
exemplu:
variabila exogen x
3
este omis variabilele reziduale sunt
autocorelate i reziduul va fi explicitat prin intermediul acestei
variabile omise:
Modelul de regresie nu este corect specificat: fie modelul se
exprim sub forma unei combinaii liniare de variabile n
condiiile n care o specificare corect a modelului trebuie s fie
exprimat printr-o combinaie liniar de logaritmi de variabile
exogene etc.
Au fost fcute transformri neadecvate sau interpolri n cadrul
seriei de date

i i i i
cx bx a y c + + + =
2 1
i i i
u x + + =
3
| o c
2. Testele statistice utilizate pentru depistarea
autocorelrii: Durbin Watson
Variabila rezidual satisface:
Ipoteze: H
o
: =0 H
a
: =0

Statistica testului:

d
1
i d
2
extrase din tabela Durbin Watson pentru o, k i n:
0 < DW < d
1
autocorelare pozitiv a erorilor
d
1
s DW s d
2
indecizie, recomandat acceptarea autocorelrii pozitive
d
2
< DW < 4-d
2
erori independente
4-d
2
s DW s 4-d
1
indecizie, recomandat acceptarea autocorelrii negative
4-d
1
< DW <4 autocorelare negativ a erorilor
Observaie: Testul Durbin Watson nu poate fi aplicat dect dac:
modelul de regresie are termen liber
matricea X este nestochastic
printre variabilele explicative nu se afl i variabila endogen cu decalaj
seriile de date nu sunt atributive

=
=

=
n
i
i
n
i
i i
e
e e
DW
1
2
2
2
1
) (
i i i
u + =
1
c c
3. Metode de estimare a parametrilor n cazul
autocorelrii
Erorile prezint o autocorelare de un anumit ordin estimatorii
parametrilor sunt nedeplasai i consisteni, dar nu sunt eficieni.
1. Se estimeaz parametrii modelului de regresie: Y=X|+c prin metoda
celor mai mici ptrate i se obine seria erorilor (e
i
)
i=1,n

2. Se consider c erorile urmeaz un proces autoregresiv de ordinul I:



3.

Notnd:


4. Se estimeaz parametrii noului model i apoi se revine la modelul iniial.

=

=

.
=
n
i
i
n
i
i i
e
e e
2
2
1
2
1

i i i
u + =
1
c c
i
p
j
ji j i
x y c | | + + =

=1
0
1
1
1 0 1
) ( ) 1 (

.
=

. .

.
+ + =
i i
p
j
ji ji j i i
x x y y c c | |

=
=
=
.

.

.
) 1 (
0 0
1
*
1
*
| o

ji ji ji
i i i
x x x
y y y
i
p
j
ji j i
x y u | o + + =

=1
*
0
*
) , 0 (
2
u
o u N
i

HOMOSCEDASTICITATEA

Y=X|+c






Problemele ce se pun n acest caz sunt:
1. Testele statistice utilizate pentru depistarea heteroscedasticitii
2. Metode de estimare a parametrilor n cazul heteroscedasticitii

(
(
(
(

=
=
1
1
1
2
0 0
0 0
0 0
) (
0 ) (
w
w
w
Var
E

c
o c
c
x
u
1. Testele statistice utilizate pentru depistarea
heteroscedasticitii - Testul White
1. Se estimeaz parametrii modelului de regresie: Y=X|+c prin metoda
celor mai mici ptrate i se obine seria erorilor (e
i
)
i=1,n

2. Se expliciteaz seria (e
i
2
)
i=1,n
n raport cu una sau mai multe variabile
exogene i se definete modelul de regresie:
1.
2.
3. Ipotezele testului:
H
0
: a
1
=...=a
k
=b
1
=...=b
k
=0 model homoscedastic
H
1
: -a
1
= 0 sau b
j
= 0 model heteroscedastic
4. Statistica testului: LM=nR
2
_
r
2

Observaie:
o cretere a lui r conduce la diminuarea puterii testului
pentru un numr mare de variabile exogene se recomand modelul 1
pentru un numr moderat de variabile exogene se recomand
modelul 2

i
k
j
ji j
k
j
ji j i
v x b x a e + + =

= = 1
2
1
2
i i i i i i i i
v x x c x b x b x a x a e + + + + + =
2 1 1
2
2 2
2
1 1 2 2 1 1
2
2. Metode de estimare a parametrilor n cazul
heteroscedasticitii
n cazul n care heteroscedasticitatea este indus de o variabil exogen
ntr-o manier multiplicativ:

Fenomenul de heteroscedasticitate se elimin prin transformarea modelului:


Notnd:

Modelul devine:

Dup estimarea parametrilor acestui model transformat se revine n modelul
iniial cu estimatorii.

,
2 2 2
ji i
x
c
o o =
ji
i
p
ji
pi
ji
i
ji
i
x x
x
x
x
x
y c
| | + + + = ...
1
1
ji
i
i
x
y
y =
*
(
(

=
ji
pi
ji
i
i
x
x
x
x
x ,...,
1 *
ji
i
i
x
c
c =
*
* * *
i i i
x y c | + =
MULTICOLINEARITATEA
este determinat de prezena corelrii ntre variabilele exogene
determinantul matricei XX este zero, deci aceasta nu este inversabil.
Se consider modelul centrat i redus, deci modelul de regresie fr
termen liber:
matricea de corelaie evaluat pentru variabilele exogene este 1/n(XX)
-1
variaia estimatorilor este o
2
R
-1
/n
prezena corelrii variabilelor exogene conduce la creterea varianei acelor
estimatori ai parametrilor modelului liniar de regresie ce corespund
variabilelor exogene aflate ntr-o dependen liniar semnificativ, deci
scderea performanelor modelului de regresie estimat prin forma clasic a
metodei celor mai mici ptrate.

Problemele ce se pun n acest caz sunt:
1. Indicatori pentru semnalarea coliniaritii
2. nlturarea efectului de multicoliniaritate

1. Indicatori pentru semnalarea coliniaritii
Criteriul Klein
se determin raportul de corelaie R
y
2
i coeficienii liniari de corelaie a
variabilelor exogene , i=j.
dou variabile exogene X
i
i X
j
sunt coliniare dac:
sunt identificate numai dependenele liniare dintre dou variabile exogene.
Criteriul Belsley
se calculeaz valorile proprii ale matricei XX, deci soluii ale ecuaiei:
,XX-I
p
,=0.
n cazul n care una sau mai multe valori proprii sunt zero sau aproximativ
zero, fenomenul de colinearitate este semnificativ i va afecta ntr-o bun
msur calitatea estimatorilor.
se calculeaz indicatorul:
dac valorile acestui indicator sunt superioare lui 1 colinearitatea
o valoare cuprins ntre 20 i 30 sau mai mare, pentru datele reale, relev o
colinearitate puternic a variabilelor exogene.
j i
x x
r
/
2
/
2
j i
x x y
r R <
min
max
) (

= X
2. nlturarea efectului de multicoliniaritate
Estimarea prin partiionarea matricei X n dou blocuri de variabile
se consider partiionarea matricei n dou submatrice ale cror coloane sunt
liniar independente: X=(X
m
, X
p-m
)
se estimeaz parametrii modelului de regresie: y=X
m
|
m
+c
m

se calculeaz apoi:
i se estimeaz parametrii modelului liniar de regresie: y*=X
r
|
r
+c
r

Eliminarea mecanic a coliniaritii
dac dependena celor dou variabile exogene este: x
2i
=ox
1i
+
i


cu

atunci se estimeaz modelul de regresie:


m
y y y
.
= *

=
=
.
=
n
i
i
n
i
i i
x
x x
1
2
2
1
2 1
o
i i i
x y q o| | + + =
1 2 1
) (

S-ar putea să vă placă și