Documente Academic
Documente Profesional
Documente Cultură
Curs 13
Prof. univ. dr. Mariana HATMANU
1
Capitolul 5. Verificarea ipotezelor modelului
de regresie
a) Ipoteze formulate asupra erorilor de regresie
(componenta aleatoare a modelului)
5.1. Media erorilor este egală cu zero
5.2. Ipoteza de homoscedasticitate a erorilor
5.3. Ipoteza de normalitate a erorilor
5.4. Ipoteza de necorelare a erorilor
b) Ipoteze formulate asupra variabilelor
independente (componenta deterministă a
modelului)
5.5. Ipoteza de lipsă a coliniarității variabilelor
independente
2
5.3. Ipoteza de normalitate a erorilor
1. Formularea problemei:
- erorile i urmează o lege normală de medie 0 şi
varianţă 2 :
i ~ N ( 0 , 2 )
3
5.3. Ipoteza de normalitate a erorilor
• dacă ~ N (0, 2 ) , atunci estimatorii parametrilor modelului de
regresie urmează, de asemenea, o lege normală:
ˆ 0 ~ N ( 0 , 2ˆ ), ˆ1 ~ N ( 1 , 2ˆ )
0 1
2. Efectele încălcării ipotezei
- dacă ipoteza de normalitate este încălcată, estimatorii
construiţi prin MCMMP au doar proprietăţi asimptotice, adică
urmează legi normale de distribuţie numai în cazul
eşantioanelor de volum mare ( n );
- Testul t statistic aplicat pentru verificarea semnificației
estimatorilor nu este valid.
4
5.3. Ipoteza de normalitate a erorilor
5
5.3. Ipoteza de normalitate a erorilor
Exemplu:
6
5.3. Ipoteza de normalitate a erorilor
Histogram
12
10
8
Frequency
Mean = -3,1086245E-15
Std. Dev. = 6,72464405
0 N = 30
-20,00000 -10,00000 0,00000 10,00000 20,00000
7
Unstandardized Residual
b. Diagrama Q-Q Plot
8
b. Diagrama Q-Q Plot: reziduuri normal distribuite
20
10
Expected Normal Value
-10
-20
-20 -10 0 10 20
Observed Value
9
b. Diagrama Q-Q Plot
Reziduuri asimetrice, nu sunt normal distribuite
10
d. Diagrama Q-Q Plot
Reziduuri asimetrice
11
Procedee numerice de verificare a ipotezei de normalitate erorilor
Ipoteze statistice:
H0: erorile sunt normal distribuite
H1: erorile nu sunt normal distribuite
12
5.3 Testul Kolmogorov-Smirnov
• Statistica Kolmogorov - Smirnov este dată de diferenţa
maximă, în mărime absolută, între valorile celor două funcţii de
repartiţie (empirică și, respectiv, teoretică) corespunzătoare
pentru aceeaşi abscisă xi :
Dn max Fn ( x) F0 ( x)
x
13
a. Testul Kolmogorov-Smirnov-Lilliefors (KSL)
•.
14
b. Testul Jarque-Bera
15
b. Testul Jarque-Bera
16
b. Testul Jarque-Bera
17
b. Testul Jarque-Bera
n 2 K2
JB S
6 4
18
n
2
X ~ (v, ) 2
X i ~ N (0, ), i 1, n X i2 ~ 2 (v, )
i 1
b. Testul Jarque-Bera
Regula de decizie:
Statistica JB urmează o lege de repartiţie chi-pătrat cu două grade de libertate şi un
prag de semnificaţie specificat, ., 2
2
- dacă valoarea calculată a statisticii test JB > 2 , 2 sau Sig , atunci se
respinge ipoteza Ho.
2
- dacă valoarea calculată a statisticii test JB , 2
sau Sig , atunci NU se respinge (se acceptă) ipoteza Ho.
19
Statistici descriptive ale variabilei erorilor de regresie
20
5.4. Ipoteza de necorelare a erorilor
- presupune lipsa unei corelaţii între erorile i la nivelul
distribuţiilor condiţionate, de forma Y / X xi
22
5.4. Ipoteza de necorelare a erorilor
23
5.4. Ipoteza de necorelare a erorilor
Efectele autocorelării erorilor:
- Se demonstrează că, în cazul erorilor autocorelate, estimatorul
̂ 0 (obţinut prin MCMMP) are varianţa mai mare decât în cazul în
care erorile nu sunt autocorelate, pierzându-şi astfel eficienţa.
(Estimatorul eficient al unui parametru este estimatorul nedeplasat care
are varianţa minimă, dintre toţi estimatorii posibili)
24
5.4. Ipoteza de necorelare a erorilor
25
1. Testul Durbin-Watson
i i 1 ui , cu ui ~ N (0, u2 )
26
1. Testul Durbin-Watson
1. Ipoteze statistice:
H0: erorile nu sunt autocorelate ( = 0)
H1: erorile sunt autocorelate ( 0 )
(ˆi ˆi1)2
DW d i
2(1 ˆ )
ˆi2
i
27
1. Testul Durbin-Watson
3 . Valorile critice ale statisticii DW se citesc din tabelul
Durbin-Watson în funcţie de riscul , volumul
eşantionului şi numărul de parametri din modelul de regresie.
• În tabelul DW se citesc două valori critice, notate cu
d L (limita inferioară) şi dU (limita superioară).
28
Interpretarea rezultatelor:
29
Regula de decizie:
30
Regula de decizie:
c. (du <DWcalc< 4- du) se acceptă ipoteza Ho, erorile nu sunt
autocorelate;
31
Calculul statisticii Durbin Watson cu SPSS:
b
Model Summary
32
Exemplu
2
( ei ei 1 )
25
DWcalc i 1,429
2 17 ,5
ei
i
Interpretare:
Din tabelul Durbin Watson, pentru n=25, k=2 si α=0.05 se citesc
valorile: dL=1,288; dU=1,454.
În exemplul dat:
(dL=1,288)<(DWcalc=1,429)<(dU=1,454), ceea ce arată că nu se poate
decide cu privire la existența autocorelării erorilor.
33
5.4. Ipoteza de necorelare a erorilor
2. Testul Runs
- se bazează pe ideea că valorile variabilei reziduale se
constituie în secvenţe sau seturi de valori pozitive sau
negative numite runs, care se succed într-o anumită ordine
sau aleator.
- ipoteza de bază a acestui test este aceea că în cazul lipsei
autocorelării erorilor (ipoteza nulă), succesiunea acestor
seturi (runs) este aleatoare, iar numărul lor este distribuit
normal.
- În caz contrar, secvenţele (runs) apar într-o anumită ordine,
iar numărul de runs NU este distribuit normal.
34
2. Runs Test
1. Ipoteze statistice
H0: erorile NU sunt autocorelate (k este distribuit normal )
H1: erorile sunt autocorelate ( k NU este distribuit normal)
35
2. Runs Test
n1n2
M( k ) 2 1
n1 n2
2n1 n2 n1 n2
V ( k ) k2 2n1 n2
( n1 n2 )2 ( n1 n2 1 )
36
2. Runs Test
-
5. Regula de decizie:
- Dacă t t / 2 , n 2 sau sig , atunci nu se repinge
ipoteza H0 , adică se poate considera că erorile modelului sunt independente.
37
Exemplu: Pentru două variabile, X şi Y, se cunosc valorile xi, yi şi
ei (erorile estimate ale modelului de regresie simpl liniară):
Nr.crt. xi yi ei
1 1 20 -3,07508
2 2 21 -3,05303
3 3 22 -3,03099
4 4 24 -2,00894
5 5 25 -1,98689
6 7 27 -1,94280
7 8 29 -,92075
8 9 30 -,89871
9 10 32 ,12334
10 12 35 1,16743
11 13 37 2,18948
12 15 39 2,23357
13 17 40 1,27766
14 19 43 2,32176
15 20 45 3,34380
38
Exemplu
16 22 47 3,38790
17 23 48 3,40994
18 25 49 2,45403
19 27 50 1,49813
20 29 52 1,54222
21 30 54 2,56427
22 32 55 1,60836
23 35 57 ,67450
24 37 58 -,28141
25 39 59 -1,23732
26 40 61 -,21527
27 43 62 -2,14913
28 45 63 -3,10504
29 47 66 -2,06094
30 50 70 -,99481
31 52 71 -1,95071
32 55 75 -,88457 39
Exemplu
Rezolvare:
- În funcţie de semnul valorilor erorilor ei se pot identifica următoarele seturi sau runs:
(----…-----)(+++…+++)((----…-----)
(primele 8 valori ale erorilor ei sunt negative, următoarele 15 valori sunt pozitive iar ultimele 9
valori sunt negative).
40
Exemplu
Numărul total de valori pozitive ale erorilor ei este n1=15, iar numărul total de valori negative
este n2=17.
41
Exemplu
Ipoteze statistice
H0: erorile nu sunt autocorelate
H1: erorile sunt autocorelate
Calculul statisticii test:
k M ( k ) 3 16,94
t 4 ,849( esantion de vol . mic )
sk 2 ,7712
nn 15 17
unde: M (k ) 2 1 2 1 2 1 16,94
n1 n2 15 17
2n1n2 n1 n2 2 15 17 15 17
sk2 2n1n2 2 15 17 7 ,6796
2 2
( n1 n2 ) ( n1 n2 1 ) ( 15 17 ) ( 15 17 1 )
s k 7,6796 2,7712 42
Exemplu
Regula de decizie:
(|tcalc |=4,849)>(ttab=1,96): se respinge ipoteza Ho, K nu este distribuit
normal, erorile sunt autocorelate, în condiţiile riscului admis de
5%.
SAU se determină IC al mediei lui K (numarul de runs)
43
Testul Runs în SPSS
Runs Test 2
Unstandardiz
ed Residual
Test Value a ,0000000
Cases < Test Value 17
Cases >= Test Value 15
Total Cases 32
Number of Runs 3
Z -4,849
Asymp. Sig. (2-tailed) ,000
a. Mean
44
b) Ipoteze formulate asupra variabilelor independente
PT DUPA VACANTA
Y 0 1 X 1 2 X 2 p X p
45
5.5. Ipoteza de necoliniaritate a variabilelor independente
46
5.5. Lipsa coliniarităţii variabilelor independente
Coliniaritate perfectă
- apare atunci când, există p constante λi, cu i=1, ..., p, nu toate nule, astfel încât între
variabilelele independente X1, X2, ..., Xp ale unui model de regresie să aibă loc o
relaţie de forma:
1 X 1 2 X 2 p X p 0
47
5.5. Lipsa coliniarităţii variabilelor independente
48
5.5. Lipsa coliniarităţii variabilelor independente
49
5.5. Lipsa coliniarităţii variabilelor independente
- Efectele coliniarităţii:
- varianţa estimatorilor parametrilor modelului de regresie
creşte, adică estimatorii pierd proprietatea de eficienţă
- pentru o coliniaritate perfectă, varianţa estimatorilor este
infinită, iar parametrii modelului nu pot fi estimaţi
- Scade valoarea calculată a statisticii test (t), însoțită de
probabilitate mare (Sig)
- Scade puterea testului
50
Testarea coliniarităţii
20,00
Metoda grafică
15,00
X2
10,00
5,00
R Sq Linear = 1
0,00
X1
51
Testarea coliniarităţii
20,00
15,00
X2
10,00
5,00
X1
52
Testarea coliniarităţii
Procedee numerice
53
Testarea coliniarităţii
2
unde R j reprezintă raportul de determinaţie din regresia
auxiliară, construită pe baza variabilelor independente,
în care variabila j este dependentă.
54
1
Testarea coliniarităţii VIF j
1 R 2j
55
Testarea coliniarităţii
1
TOL j (1 R 2j )
VIF j
• - dacă TOL=1, variabilele independente nu sunt coliniare
• - dacă TOL=0, există o coliniaritate perfectă
• - existenţa coliniarităţii este indicată de valori mici ale indicatorului TOL
• In practica, se consideră ca valori TOL>0,5 indică absența coliniarității
56
Exemplu
Model Summaryb
57
Exemplu
a
Coefficients
Unstandardized Standardized
Coefficients Coefficients Collinearity Statistics
Model B Std. Error Beta t Sig. Tolerance VIF
1 (Constant) 1.806 .592 3.050 .055
X1 .261 .052 .347 5.045 .015 .607 1.648
X2 1.415 .131 .741 10.773 .002 .607 1.648
a.Dependent Variable: Y
58
Exemplu
Coefficientsa
Unstandardized Standardized
Coefficients Coefficients
Model B Std. Error Beta t Sig.
1 (Constant) 9.837 2.916 3.373 .028
X2 1.591 .988 .627 1.610 .183
a. Dependent Variable: X1
59
Exemplu
60
Exemplu
61
Alte exemple
62
Corectarea coliniarităţii variabilelor independente
63
Alte exemple
64