Documente Academic
Documente Profesional
Documente Cultură
Ipoteze:
H0: M(ε)=0
H1: M(ε)#0
M̂ ( ε ) − M ( ε )
Alegerea testului: t =
V̂ ( M̂ ( ε ) )
Decizie
4. Exemplu
Residuals Statisticsa
Std. Error
N Mean Std. Deviation Mean
Unstandardized Residual 15 ,0000000 73271,63549 18918,65
One-Sample Test
Test Value = 0
95% Confidence
Interval of the
Mean Difference
t df Sig. (2-tailed) Difference Lower Upper
Unstandardized Residual ,000 14 1,000 ,00000000 -40576,5 40576,48
5. Corectarea modelului
*
yi 0 + βi xi + ui , unde:
= β
*
yi = yi − M ( ε i )
b. Ipoteza de homoscedasticitate a erorilor
1. De7inire
- ipoteza de homoscedasticitate presupune ca
varianţa erorilor să ?ie constantă:
V(εi ) =σ 2
- această ipoteză presupune o varianţă constantă şi
egală a erorilor la nivelul distribuţiilor
condiţionate de forma
Y X = xi
2. Efectele încălcării acestei ipoteze
1
X
0 Residuals
0 5 10 15 20 25 30 35
-1
-2
-3
3.2. Procedee numerice
a. Testul Glejser
Unstandardized Standardized
Coefficients Coefficients
Model B Std. Error Beta t Sig.
1 (Constant) 50921,663 12000,771 4,243 ,001
PIB ,016 ,012 ,348 1,337 ,204
a. Dependent Variable: erori
b . T e s t u l S p e a r m a n ( c o e = i c i e n t a l c o r e l a ţ i e i
neparametrice)
- se bazează pe calculul rangurilor valorilor estimate
ale erorilor, εi , şi a valorilor Xi .
Ipoteze statistice:
H0: ipoteza de homoscedasticitate(V(εi)=σ2)
H1: ipoteza de heteroscedasticitate (V(εi)≠σ2)
θˆ n − 2
t=
Statistica test: 1 − θˆ 2
Valoarea calculată a statisticii test:
r n−2
tcalc =
1− r2
unde: r este o estimaţie a coe?icientului Spearman.
Regula de decizie:
│tcalc │ >tteor sau o valoare a lui Sig. asociată statisticii
test t Student calculate < α duce la respingerea
ipotezei Ho.
Exemplu:
În studiul legăturii dintre două variabile, X şi Y, s-au
obţinut următoarele rezultate:
Correlations
Unstandardiz
X ed Residual
Spearman's rho X Correlation Coefficient 1,000 ,000
Sig. (2-tailed) . 1,000
N 5 5
Unstandardized Residual Correlation Coefficient ,000 1,000
Sig. (2-tailed) 1,000 .
N 5 5
Se cere să se testeze ipoteza de homoscedasticitate,
considerând un risc de 0,05.
Rezolvare:
Pentru aceasta, se formulează următoarele ipoteze
statistice:
H0: ipoteza de homoscedasticitate(V(εi)=σ2 )
H1: ipoteza de heteroscedasticitate (V(εi)≠σ2 )
Statistica test : r n−2
t=
1− r2
Coe?icientul Spearman este:
r =0
3 20
1 10
4 19
6 25
5 23
7 30
8 35
9 38
10 40
Se cere să se testeze ipoteza de homoscedasticitate,
folosind testul Goldfeld-Quandt.
Rezolvare:
1. Se ordonează crescător şirul valorilor xi.
2. Se împarte seria valorilor xi în două serii: prima
serie este reprezentată de valorile 1, 2, …, 5; iar a
doua serie este reprezentată de valorile 6, 7, …, 10.
3. Pentru ?iecare din cele două serii se estimează
parametrii modelului de regresie. Se obţine:
Seria 1: Yx=8,3+3X
Seria 2: Yx=3,2+3,8X
4. Pentru aceste modele, se estimează variaţia reziduală
(valoare prezentată în output-ul ANOVA):
- pentru seria 1: RSS=3,73;
- pentru seria 2: RSS=1,6.
5. Se calculează raportul F, considerând RSS1 cea mai
mică valoare, şi anume RSS1=1,6:
Fcalc=3,73/1,6=2,33.
6. Se compară valoarea calculată a statisticii test F cu
valoarea teoretică:
F0, 05;n1 − k ;n2 − k = F0, 05;5− 2;5− 2 = 9,277 .
(k este numărul de parametri estimaţi).
7. Interpretare:
( Fcalc = 2,33) < ( F0, 05;3;3 = 9,277 )
P e n t r u e x e m p l u l d a t , s e a c c e p t ă i p o t e z a d e
homoscedasticitate, cu o probabilitate de 0,95.
4. Corectarea heteroscedasticităţii
2
4.1. Dacă se cunosc parametrii i
σ
Corecţia heteroscedasticităţii este aplicată
modelului de regresie liniară simplă:
yi = β0 + β1 xi + ε i
Corectarea heteroscedasticităţii presupune
ponderarea modelului iniţial cu variabila .
1
σi
Noul model de regresie (corectat) se obţine
astfel:
yi β0 xi ε i
= + β1 +
σi σi σi σi
Estimarea parametrilor acestui model se
realizează pe baza MCMMP ponderată (method
of weighted least squares).
2
4.2. Dacă nu se cunosc parametrii i
σ
Corecţia heteroscedasticităţii se realizează pe
baza relaţiei:
2 2 2
σi = σ xi
Corectarea heteroscedasticităţii presupune
ponderarea modelului iniţial cu variabila 1/xi.
Noul model de regresie (corectat) este de
forma:
yi = β0 + β1 + ε i
xi xi xi
5. Teste pentru modele multiple
5.1 Testul Breusch-Pagan-Godfrey
Etape:
- se estimează modelul de bază;
- se estimează erorile;
- se construieşte un model auxiliar de regresie de
forma:
ei2 = α 0 + α 1 X 1 + α 2 X 2 + u
2 2
χ calc = n ⋅ Ra
- decizia.
5. Teste pentru modele multiple
5.2. Testul White
- este similar testului anterior, doar că ecuaţia de
regresie auxiliară are forma:
ei2 = α 0 + α 1 X 1 + α 2 X 2 + α 3 X 1 X 2 + α 4 X 12 + α 5 X 22 + u
c. Ipoteza de normalitate a erorilor
1. Formularea problemei
- erorile ε urmează o lege normală de medie 0 şi
varianţă σ2:
ε i ~ N (0, σ 2 )
2. Efectele încălcării acestei ipoteze
- ipoteza de normalitate a erorilor este importantă
pentru stabilirea proprietăţilor estimatorilor
parametrilor modelului de regresie.
2
dacă i ) , atunci estimatorii parametrilor
ε ~ N ( 0 ,σ
modelului de regresie urmează, de asemenea, o lege
normală:
ˆ 2
βi ~ N (βi , σ βˆ )
i
2,0
1,5
1,0
0,5
0,0
Mean = -1,85E -15
-2 -1 0 1 2 S td. Dev. = 0,943
N = 10
R eg res s ion S tandardized R es idual
b. P-P Plot
0,6
0,4
0,2
0,0
0,0 0,2 0,4 0,6 0,8 1,0
O bs erved C um P rob
c. Box-plot
70
65
60
55
50
45
greut
3.2. Procedee numerice
a. Testul Kolmogorov-Smirnov
- presupune compararea frecvenţelor cumulate
(calculate) cu frecvenţele teoretice cumulate
extrase din tabelul Gauss.
Ipoteze statistice:
(
H0: ipoteza de normalitate i ε ~ N (0, )
σ 2
)
H1: distribuţia erorilor nu urmează o lege normală
Regula de decizie:
valoarea probabilităţii asociate statisticii test
calculate (Sig.) se compară cu α (0,05):
dacă Sig.<α, atunci se respinge ipoteza de
normalitate a erorilor.
Exemplu:
One-Sample Kolmogorov-Smirnov Test
greut
N 10
Normal Parameters a,b Mean 58,5000
Std. Deviation 7,83511
Most Extreme Absolute ,276
Differences Positive ,161
Negative -,276
Kolmogorov-Smirnov Z ,873
Asymp. Sig. (2-tailed) ,432
a. Test distribution is Normal.
b. Calculated from data.
b. Testul Jarque-Bera
ei4
∑i n − 2
k= 2
−3
e
(∑ i ) 2
i n−2
unde: ei = y i − y x
i
Regula de decizie:
2
Statistica JB urmează o lege .
χα , 2
1. Noţiuni
a. Autocorelarea sau corelaţia serială :
- presupune existenţa unei autocorelări între
erorile ε, altfel spus: cov(εi, εj) # 0 sau M(εi, εj ) #
0.
b. Coe=icientul de autocorelaţie
- coe?icientul de autocorelaţie între erorile εi şi εi-1
ale unui model de regresie se calculează după
56
relaţia: cov( ε i ,ε i −1 ) cov( ε i ,ε i −1 )
ρ= =
σ iσ i −1 σ2
- acest coe?icient este un coe?icient de autocorelaţie de
ordinul 1.
c. Funcţia de autocorelaţie
este de?inită de valorile coe?icienţilor de autocorelare
de ordinul k.
57
2. Sursa autocorelării erorilor
- neincluderea în modelul de regresie a uneia sau mai
multor variabile explicative importante;
- inerţia fenomenelor în timp şi decalajul, în cazul
seriilor de timp;
- modelul de regresie nu este corect speci?icat.
3. Testarea autocorelării erorilor
58
3.1. Testul Durbin-Watson
Ipoteze statistice:
H0: erorile nu sunt autocorelate (ρ = 0)
H1: erorile sunt autocorelate (ρ ≠ 0 )
Calculul statisticii test:
2
( ˆ
∑ i i−1
ε −εˆ )
i =2
DW = d = 2
ˆ
∑i
ε
i =1
59
Întrucât ε i = ρε i −1 + ui statistica DW se mai poate scrie
astfel:
2 2
∑ εˆ i − 2∑ εˆ i εˆ i −1 + ∑ εˆ i −1
2
∑ εˆ i − ∑ εˆ i εˆ i −1 ⎛ ∑ εˆ i εˆ i −1 ⎞
⎜ i ⎟
d= i i i
≅2 i i
= 2 ⋅ ⎜1 − ⎟ = 2 ⋅ ( 1 − ρˆ )
2 2 2
∑ εˆ i ∑ εˆ i ⎜ ∑ εˆ i ⎟
i i ⎝ i ⎠
Deoarece − 1 ≤ ρˆ ≤ 1 , valorile statisticii DW sunt date de
intervalul: 0 ≤ d ≤ 4
60
Interpretare:
Dacă ρˆ = 1 ⇒ d = 0 , atunci există autocorelare
pozitivă maximă a erorilor;
Dacă ρˆ = −1 ⇒ d = 4 , atunci există autocorelare
negativă maximă a erorilor;
Dacă ρˆ = 0 ⇒ d = 2 , atunci nu există autocorelare.
61
Regula de decizie:
Valorile teoretice ale statisticii DW sunt calculate şi
tabelate în funcţie de pragul de semni?icaţie, de
volumul eşantionului şi de numărul de parametri ai
modelului.
În tabele se determină două valori critice, notate cu
dL (limita inferioară) şi dU (limita superioară).
62
În funcţie de aceste valori critice se determină
următoarele intervale, care permit luarea deciziei
de respingere sau acceptare a ipotezei nule:
a. (0<d calc <d L ) se respinge ipoteza H o , erorile
înregistrează o autocorelare pozitivă;
b. (dL<dcalc<dU) şi (4-du<dcalc< 4-dL) sunt regiuni de
nedeterminare, nu se poate decide asupra
existenţei autocorelării erorilor;
63
c. (du <dcalc< 4- du) se acceptă ipoteza Ho, erorile nu
sunt autocorelate;
d. (4-dL <dcalc< 4) se respinge ipoteza Ho, erorile
înregistrează o autocorelare negativă.
Exemplu:
În studiul legăturii dintre două variabile, X şi Y,
observate pentru un eşantion format din 25 unităţi
statistice, s-a estimat un model de regresie liniară
simplă şi s-au obţinut următoarele rezultate:
64
Calculul statisticii Durbin-Watson în SPSS:
Model Summaryb
65
3.2. Runs Test
66
Ipoteze statistice
H0: k este distribuit normal (nu există autocorelare a
erorilor)
H1: k nu este distribuit normal (ipoteza este încălcată)
Calculul statisticii test
- se foloseşte statistica t Student, calculată după
relaţia:
k − M (k )
t calc =
sk
unde: k este numărul de runs caracterizat prin:
67
n1 n2
M( k ) = 2 +1
n1 + n2
2 2n1n2 − n1 − n2
s = 2n1n2
k 2
(n1 + n2 ) (n1 + n2 − 1)
68
n1 este numărul de valori pozitive ale erorilor ei ;
n2 este numărul de valori negative ale erorilor ei,
cu n1 + n2 = n .
Regula de decizie:
- dacă |tcalc| t
≤ a/2,n-2 , atunci se acceptă ipoteza H0.
69
Exemplu:
Pentru două variabile, X şi Y, s-au obţinut
următoarele rezultate:
Runs Test 2
Unstandardiz
ed Residual
Test Valuea ,0000000
Cases < Test Value 17
Cases >= Test Value 15
Total Cases 32
Number of Runs 3
Z -4,849
Asymp. Sig. (2-tailed) ,000
a. Mean
Să se testeze ipoteza de autocorelare a erorilor,
folosind testul Runs.
70
4. Efectele încălcării ipotezei de necorelare a
erorilor
în aceste condiţii, prin aplicarea MCMMP, se obţine
pentru parametrul β0 un estimator nee?icient.
71
3. Ipoteza de necoliniaritate a variabilelor independente
a. De<inire
Coliniaritatea poate ?i de?inită ca o legătură liniară
funcţională existentă între două sau mai multe
variabile independente ale unui model de regresie
multiplă de forma:
YX1 ,… Xp = β 0 + β1 ⋅ X 1 + β 2 ⋅ X 2 + … + β p ⋅ X p + ε
a.1. Coliniaritate perfectă
72
apare atunci când între variabilelele independente X1,
X2, ..., Xp există o legătură liniară perfectă,
funcţională. Această legătură poate ?i exprimată
printr-o relaţie de forma:
λ1 ⋅ X 1 + λ2 ⋅ X 2 + … + λ p ⋅ X p = 0
unde: λi, cu i=1, ..., p, valori constante care nu sunt toate,
în mod simultan, nule.
73
a.2. Coliniaritatea imperfectă
Poate ?i de?inită ca o relaţie liniară puternică
existentă între două sau mai multe variabile
independente.
λ1 ⋅ X 1 + λ2 ⋅ X 2 + … + λ p ⋅ X p + u = 0
74
b. Efectele coliniarităţii
Varianţa estimatorilor parametrilor modelului de
regresie creşte, adică estimatorii pierd proprietatea
de e?icienţă.
În cazul unei coliniarităţi perfecte, varianţa
estimatorilor este in?inită (parametrii modelului nu
pot ?i estimaţi).
În cazul unei coliniarităţi imperfecte, varianţele
estimatorilor sunt mari.
75
c. Testarea coliniarităţii
c.1. Folosind procedee gra=ice
20,00
15,00
X2
10,00
5,00
R S q L inear = 1
0,00
X1
76
20,00
15,00
X2
10,00
5,00
X1
77
c.2. Folosind procedee numerice
1. Factorul varianţei crescute (variance-in=lated
factor, VIF)
1
VIFj =
1 − R 2j
unde: R
2 j este raportul de determinaţie din
modelul de regresie auxiliar, respectiv dintre
variabila Xj şi celelalte variabile independente.
78
Interpretare:
A t u n c i c â n d l e g ă t u r i l e d i n t r e v a r i a b i l e l e
independente sunt puternice, valoarea raportului de
determinaţie se apropie de unu, iar raportul VIF este
in?init.
Atunci când între variabilele independente nu există
corelaţie (R2j=0), valoarea raportului VIF este egală
cu unu.
79
În practică, o valoare VIF>10 indică prezenţa
coliniarităţii.
2. Toleranţa (Tolerance)
- se calculează după relaţia: TOL=1/VIF=1-R2j
Interpretare:
- Dacă valoarea TOL=1, atunci nu există coliniaritate;
- Dacă valoarea TOL=0, atunci există coliniaritate
perfectă.
Existenţa coliniarităţii este sugerată de valorile mici
ale indicatorului TOL.
80
d. Corectarea coliniarităţii
metodele de corecţie ţin cont de tipul de coliniaritate,
de numărul de variabile din model şi de informaţiile
suplimentare despre fenomenul studiat.
Cea mai simplă metodă constă în eliminarea
variabilei care introduce coliniaritatea.
Altă metodă constă în construirea unui model cu
variabile transformate prin diverse funcţii sau
operatori (de exemplu, operatorul decalaj, diferenţă).
81
Exemplu:
În urma analizei legăturilor dintre variabilele
independente ale unui model de regresie, s-au obţinut
următoarele rezultate:
Coefficientsa
Unstandardized Standardized
Coefficients Coefficients Collinearity Statistics
Model B Std. Error Beta t Sig. Tolerance VIF
1 (Constant) 65,705 27,731 2,369 ,037
X1 48,979 10,658 ,581 4,596 ,001 ,950 1,052
X2 59,654 23,625 ,359 2,525 ,028 ,753 1,328
X3 -1,838 ,814 -,324 -2,258 ,045 ,738 1,355
a. Dependent Variable: Y
82