Sunteți pe pagina 1din 123

CURS 7

ECONOMETRIE

1
Programa analitică

1. INTRODUCERE
2. REGRESIA LINIARĂ SIMPLĂ
3. REGRESIA LINIARĂ MULTIPLĂ
4. REGRESIA NELINIARĂ
5. VERIFICAREA IPOTEZELOR MODELULUI DE
REGRESIE

2
Capitolul 4 Regresia neliniară

Modelele de regresie neliniară:

-modele liniarizabile
-Modelul log-liniar: putere (power)

-Modele semilogarimice: Compound, Growth, Exponential

-Modelul cu variabila independentă logaritmată: Logaritmic

- modele polinomiale: parabolic(quadratic), cubic

3
1. Modelul de regresie putere

Este de forma:
yi   0  xi  e
1 i

 Ecuaţia estimată la nivelul unui eşantion:

yx  b0  x b1

 Ecuaţia se liniarizează prin logaritmare:


ln y x  ln b0  b1 ln x

- cel mai utilizat logaritm este în bază e (e=2,718) 4


Modelul de regresie putere

 Identificarea modelului de regresie de tip putere

Figura 2 Identificarea modelului de regresie de tip putere

5
Modelul de regresie putere

Estimarea parametrilor modelului de tip putere prin


metoda celor mai mici pătrate:
S   ei  min
2

ei  ln yi  ln y xi

ln yxi  ln b0  b1 ln x

S   ei    ln yi  ln b0  b1 ln xi   min
2 2

6
Modelul de regresie putere

 S
 b  0
 0

 S  0
 b1
Estimaţiile parametrilor modelului se obţin prin rezolvarea
următorului sistem de ecuaţii:

n ln b0  b1  ln xi   ln yi

ln b0  ln xi  b1   ln xi    ln xi ln yi
2

7
Modelul de regresie putere

Pentru estimarea parametrilor unui model de regresie de


tip putere se poate utiliza un model de forma:

ln y  ln  0  1  ln x  

Parametrul 1 reprezintă elasticitatea variabilei


dependente Y în raport cu variabila independentă X.

8
Modelul de regresie putere

 Elasticitatea unei variabile Y în raport cu o altă


variabilă X reprezintă modificarea relativă (procentuală)
a variabile Y la o modificare relativă (procentuală) dată
a lui X cu o unitate.
 Elasticitatea poate fi determinată prin relaţia:

Y
100
% modif . Y Y Y X
E  
% modif . X X 100 X Y
X
9
Modelul de regresie putere

 Pentru variaţii foarte mici ale variabilelor,


elasticitatea se poate aproxima prin relaţia:

Y X  ln Y
E 
X Y  ln X

10
Exemplu: Model de regresie de tip putere

Fertility: average number of kids

Observed

8,0 Power

6,0

4,0

2,0

0 5000 10000 15000 20000 25000

Gross domestic product / capita


11
Exemplu: Model de regresie de tip putere

Coefficients

Unstandardized Standardized
Coefficients Coefficients
B Std. Error Beta t Sig.
ln(Gross domestic
-,268 ,025 -,726 -10,804 ,000
product / capita)
(Constant) 25,533 5,067 5,039 ,000
The dependent variable is ln(Fertility: average number of kids).

12
Exemplu: Model de regresie de tip putere

Model Summary

Adjusted Std. Error of


R R Square R Square the Estimate
,726 ,526 ,522 ,367
The independent variable is Gross domestic product / capita.

ANOVA

Sum of
Squares df Mean Square F Sig.
Regression 15,748 1 15,748 116,719 ,000
Residual 14,167 105 ,135
Total 29,915 106
The independent variable is Gross domestic product / capita.

13
Model de regresie multiplă de tip putere

- forma generală a modelului

y   0  x1  x2   x p  e
1 2 p 

- ecuaţia se liniarizează prin logaritmare

ln y  ln  0  1  ln x1   2  ln x2     p  ln x p  
14
Model de regresie multiplă de tip putere

Interpretare:
- Parametrul β0 este valoarea lui Y atunci când Xi=1.
-parametrul βi este elasticitatea variabilei dependente Y în raport
cu variabilele independente Xi.

Ecuaţia estimată la nivelul unui eşantion:

yx  b0  x1  x2   x p
b1 b2 bp

15
EXEMPLU:Model de regresie multiplă de tip putere

Funcţia de tip Cobb-Douglas în modelul de creştere


economică.
Prezentarea modelului:

y   0  x1  x2  e
1 2 

unde:
y - produsul final (output);
x 1 - fondurile fixe productive (input);
x 2 - forţa de muncă (input).
16
EXEMPLU:Model de regresie multiplă de tip putere

β0 - valoarea lui Y când Xi=1.


βi - coeficienţii de elasticitate
β1 - elasticitatea parţială a producţiei în raport cu fondurile
fixe;
β2 - elasticitatea parţială a producţiei în raport cu forţa de
muncă.

Elasticitatea scalei este egală cu suma celor două elasticităţi.

17
EXEMPLU:Model de regresie multiplă de tip putere

Interpretare:
• b1+ b2 <1: un spor al factorilor de producţie generează o
creştere a output-ului dar într-o proporţie mai mică (proces de
producţie cu randament de scală descrescător);
• b1+ b2 >1: un spor al factorilor de producţie generează o
creştere a output-ului dar într-o proporţie mai mare (proces de
producţie cu randament de scală crescător);
•b1 + b2 =1: sporul factorilor de producţie generează creşterea
output-ului în aceeaşi proporţie (randament de scală constant);
18
EXEMPLU:Model de regresie multiplă de tip putere

Să presupunem că, în urma prelucrării datelor


privind valoarea input-urilor (X1 - valoarea capitalului
fix; X2 - forţa de muncă) şi a output-urilor obţinute
într-un anumit domeniu de activitate (Y, valoarea
producţiei), s-au obţinut următoarele rezultate:

ln YX1X 2  4, 28  0, 63  ln X 1  1,35  ln X 2

R square=0,878; 19
EXEMPLU:Model de regresie multiplă de tip putere

Interpretare:

- pentru perioada analizată, dacă se consideră constantă valoarea


capitalului fix (X1), atunci o creştere cu un procent a nivelului
variabilei X2 duce la creşterea medie cu 1,35% a valorii
producţiei obţinute

- pentru perioada analizată, dacă se consideră constantă valoarea


forţei de muncă (X2), atunci o creştere cu un procent a valorii
capitalului fix (X1) duce la creşterea medie cu 0,63% a valorii
producţiei obţinute. 20
CURS 8-9

ECONOMETRIE

1
Programa analitică

1. INTRODUCERE
2. REGRESIA LINIARĂ SIMPLĂ
3. REGRESIA LINIARĂ MULTIPLĂ
4. REGRESIA NELINIARĂ
5. VERIFICAREA IPOTEZELOR MODELULUI DE
REGRESIE

2
Capitolul 4 Regresia neliniară

Modelele de regresie neliniară:

-modele liniarizabile
-Modelul log-liniar: putere (power)

-Modele semilogarimice: Compound, Growth, Exponential

-Modelul cu variabila independentă logaritmată: Logaritmic

- modele polinomiale: parabolic(quadratic), cubic

3
Modele neliniare semilogaritmice
 Modelul Compound
 Modelul Growth
 Modelul Exponential

4
Modele neliniare semilogaritmice
Modelul Compound

 Modelul: Y   0  1  e
X

 Modelul liniarizat: ln Y  ln  0  X  ln 1  

 Interpretarea estimaţiilor parametrilor modelului


 b0: reprezintă valoarea medie a lui Y atunci când X = 0
 b1: la o creștere a variabilei independente X cu o unitate,
variabila dependentă Y crește, în medie cu (ln b1)*100%

5
Modele neliniare semilogaritmice
Modelul Compound (EXEMPLU:)
 Ecuația estimată
Y  6, 680 1, 007 X

6
Modele neliniare semilogaritmice
Modelul Compound (EXEMPLU:)
 Ecuația estimată

Y  6, 680 1, 007 X

7
Modele neliniare semilogaritmice
Modelul Compound (EXEMPLU:)

Y  6, 680 1, 007 X

8
Modele neliniare semilogaritmice
Modelul Growth
 0  1X  
 Modelul: Y  e
 Modelul liniarizat: ln Y   0  1  X  

 Interpretarea estimaţiilor parametrilor modelului


b0
 b0: Y are valoarea medie egala cu e atunci când X = 0
 b1: la o creștere a variabilei independente X cu o unitate,
variabila dependentă Y crește, în medie cu (b1*100)%

9
Modele neliniare semilogaritmice
Modelul Growth (EXEMPLU:)
 Ecuația estimată

Y  e1,899 0,007 X

10
Modele neliniare semilogaritmice
Modelul Growth (EXEMPLU:)
 Ecuația estimată

Y  e1,899 0,007 X

11
Modele neliniare semilogaritmice
Modelul Growth (EXEMPLU:)

Y  e1,899 0,007 X

12
Modele neliniare semilogaritmice
Modelul Exponential
1X  
 Modelul: Y  0 e
 Modelul liniarizat: ln Y  ln  0  1  X  
 Interpretarea estimațiilor parametrilor modelului
 b0: Y are valoarea medie egala cu b0 atunci când X = 0
 b1: la o creștere a variabilei independente X cu o unitate,
variabila dependentă Y crește, în medie cu (b1*100)%

13
Modele neliniare semilogaritmice
Modelul Exponential (EXEMPLU:)
 Ecuația estimată

Y  6, 680  e0,007 X

14
Modele neliniare semilogaritmice
Modelul Exponential (EXEMPLU:)
 Ecuația estimată

Y  6, 680  e0,007 X

15
Modele neliniare semilogaritmice
Modelul Exponential (EXEMPLU:)
 Ecuația estimată
0,007 X
Y  6, 680  e

 Atunci când nr. de cai putere este egal cu zero prețul mediu al
mașinilor este egal cu 6,680 mii dolari.
 Atunci când nr. de cai putere crește cu unu prețul mediu al
mașinilor crește în medie cu 0,7%.

16
Modele neliniare cu variabila independentă
logaritmată Modelul Logaritmic
 Modelul: Y   0  1  ln X  
 Interpretarea estimaţiilor parametrilor modelului
 b0: Y are valoarea medie egala cu b0 atunci când X=1 sau
lnX=0
 b1: la o creștere a variabilei independente X cu 1%, variabila
dependentă Y crește, în medie cu (b1/100)

17
Modele neliniare cu variabila independentă
logaritmată
Modelul Logaritmic (EXEMPLU:)
 Ecuația estimată
Y  169,011 37,921 ln X

18
Modele neliniare cu variabila independentă
logaritmată
Modelul Logaritmic (EXEMPLU:)
 Ecuația estimată
Y  169,011 37,921 ln X

19
Modele polinomiale
Modelul Parabolic (Quadratic)
 Cel mai simplu model polinomial este
modelul parabolic.

Ecuaţia estimată a modelului parabolic este:

yx  b0  b1 x  b2 x 2

20
Modele polinomiale
Modelul Parabolic (Quadratic)
b2  0

b12  4b0b2

4b2
b2  0

b1

2b2
Identificarea modelului parabolic
b1 b12  4b0b2
Punctul de max sau min are coordonatele:  ;
2b2 4b2 21
Modele polinomiale
Modelul Parabolic (Quadratic)
Estimarea parametrilor modelului prin metoda
celor mai mici pătrate:

S   ei    yi  yxi   min
2
2

yx  b0  b1 x  b2 x 2

22
Modele polinomiale
Modelul Parabolic (Quadratic)
 S
 a  0 nb0 + b1  x i + b2  x =  y i
2
i

 S 
b0  x i + b1  x i + b2  x i =  x i y i
2 3
 0
 b b  2 + b  3 + b  4 =  2 y
 S  0 xi 1 xi 2 xi xi i
 c  0

Prin rezolvarea sistemului se obţin estimaţiile
parametrilor ecuaţiei de regresie.

23
Modele polinomiale
Modelul Parabolic

24
Modele polinomiale
Modelul Parabolic

25
Modele polinomiale
Modelul Cubic
Modelul cubic

Ecuatia estimată a modelului cubic este de forma

yx  b0  b1 x  b2 x  b3 x
2 3

26
Modele polinomiale
Modelul Cubic

27
Modele polinomiale
Modelul Cubic

28
CURS 11

ECONOMETRIE

1
Capitolul 5
Verificarea ipotezelor modelului de regresie

 Modelarea econometrică se realizează cu


respectarea unui set de restricţii care se
numesc ipoteze ale modelului de regresie.

 Calitatea estimatorilor parametrilor modelului


de regresie depinde de îndeplinirea ipotezelor
modelului de regresie.

2
Capitolul 5
Verificarea ipotezelor modelului de regresie

 Ipotezele modelului de regresie sunt:

- asupra componentei aleatoare (sau variabilei


eroare)
- asupra componentei deterministe (sau
variabilelor independente)

3
Capitolul 5
Verificarea ipotezelor modelului de regresie

 Ipotezele modelului de regresie asupra


componentei aleatoare sunt:
- media erorilor este nulă: M  i   0
- ipoteza de homoscedasticitate: V  i    2
- ipoteza de normalitate: i   N  0, 2

- ipoteza de necorelare sau de independenţă a
erorilor: cov  i , j   0

4
Capitolul 5
Verificarea ipotezelor modelului de regresie

 Ipotezele modelului de regresie asupra


componentei deterministe sunt:

- variabilele independente sunt nestochastice


- variabilele independente sunt necoliniare
- variabilele independente şi variabila eroare sunt
necorelate: cov  X i , i   0

5
Capitolul 5
Verificarea ipotezelor modelului de regresie

5.1. Ipoteze asupra erorilor

5.2. Ipoteze asupra variabilelor independente

6
5.1 Ipoteze asupra erorilor

5.1. 1. Media variabilei reziduale este egală cu zero

1. Definirea ipotezei

M  i   0
Pentru un model de regresie liniar simplu ipoteza M  i   0

este echivalentă cu condiţia M Y X   0  1 X

7
5.1 Ipoteze asupra erorilor

2. Efectele încălcării ipotezei

Dacă ipoteza M  i   0 este încălcată parametrii


estimaţi vor fi deplasaţi.

a. Dacă M   i     cst. pentru un model de regresie


liniar simplu de forma Y   0   1 X   parametrul 0
este estimat deplasat.
8
5.1 Ipoteze asupra erorilor

b. Dacă M   i   i pentru un model de


regresie liniar simplu de forma Y   0   1 X  
parametrul 1 este estimat deplasat.

9
5.1 Ipoteze asupra erorilor

3. Testarea ipotezei cu privire la media erorilor

Presupune parcurgerea următoarelor etape:

- se estimează modelul de regresie;

- se determină erorile estimate astfel: ei  yi  b0  b1 xi

- cu ajutorul testului Student se testează ipoteza H 0 : M  i   0

- rezultatul testării pentru un prag de semnificaţie


stabilit ne arată dacă este încălcată ipoteza M  i   0
10
5.1 Ipoteze asupra erorilor

1.Formularea ipotezelor:
H 0 : M    0
H1 : M     0
2.Alegerea pragului de semnificație:
  0, 05

3.Alegerea și calcularea statisticii test:


M  ei 
t
sMˆ  
11
5.1 Ipoteze asupra erorilor

4. Regula de decizie:

Dacă tcalc  t / 2,n 1 cu o probabilitate de 1   se respinge


ipoteza nulă și se acceptă ipoteza alternativă

Dacă tcalc  t / 2,n 1 se acceptă ipoteza nulă.

5. Decizia statistică

12
5.1 Ipoteze asupra erorilor

4. Corectarea modelului

Modelul corectat va fi de forma:

y  0  1 xi  ui
*
i

unde: y  yi  M   i 
*
i

13
5.1 Ipoteze asupra erorilor

Coefficients a

Unstandardized Standardized
Coefficients Coefficients
Model B Std. Error Beta t Sig.
1 (Constant) -18331,178 2821,912 -6,496 ,000
Educational Level (years) 3909,907 204,547 ,661 19,115 ,000
a. Dependent Variable: Current Salary

Residuals Statistics a

Minimum Maximum Mean Std. Deviation N


Predicted Value $12,948.08 $63,776.86 $34,419.57 $11,279.480 474
Residual -$21,567.422 $79,042.953 $.000 $12,819.966 474
Std. Predicted Value -1,904 2,603 ,000 1,000 474
Std. Residual -1,681 6,159 ,000 ,999 474
a. Dependent Variable: Current Salary

14
5.1 Ipoteze asupra erorilor

One-Sample Statistics

Std. Error
N Mean Std. Deviation Mean
Unstandardized Residual 474 ,0000000 12819,96640 588,8406

One-Sample Test

Test Value = 0
95% Confidence
Interval of the
Mean Difference
t df Sig. (2-tailed) Difference Lower Upper
Unstandardized Residual ,000 473 1,000 ,00000000 -1157,07 1157,067

15
5.1 Ipoteze asupra erorilor

5.1.2. Homoscedasticitatea erorilor

1. Definire ipoteză:

Erorile sunt homoscedastice dacă la nivelul


repartiţiilor condiţionate varianţele sunt constante.

Formal, ipoteza se scrie astfel: V   i    2

16
5.1 Ipoteze asupra erorilor
d) Medii condiţionate
Exemplu: Gujarati, N. D, 1995, pp. 32-35

Fig. 2.1 Venitul săptămânal al familiilor


17
5.1 Ipoteze asupra erorilor

Figura 1. Erori homoscedastice


18
5.1 Ipoteze asupra erorilor

Figura 2. Erori heteroscedastice


19
5.1 Ipoteze asupra erorilor

2. Efectele încălcării ipotezei de homoscedasticitate

Dacă ipoteza de homoscedasticitate este încălcată


modelul de regresie se numeşte heteroscedastic.

Parametrii unui model de regresie heteroscedastic nu


sunt eficienţi.

20
5.1 Ipoteze asupra erorilor

3. Testarea homoscedasticităţii

- metode grafice

- metode numerice:
a. testul Glejser;
b. testul corelaţiei neparametrice între erorile estimate şi
variabila independentă
c. testul Breusch-Pagan-Godfrey
d. Testul White
21
5.1 Ipoteze asupra erorilor

a. Testul Glejser

- are la bază un model de regresie între variabila


reziduală estimată şi variabila independentă.
 i   0   1 xi  ui

- testul verifică dacă varianţele erorilor ar putea fi


explicate prin valorile variabilei independente
22
5.1 Ipoteze asupra erorilor

În cazul unui model de regresie multiplă se


identifică acea variabilă independentă ale cărei valori
pot fi asociate cu cele ale varianţei erorilor.

Testul Glejser se recomandă când estimarea


modelului de regresie se realizează pe eşantioane mari
de date. 23
5.1 Ipoteze asupra erorilor

Etapele testării homoscedasticităţii cu ajutorul


testului Glejser

- se estimează modelul de regresie y i   0   1 x i  

- se calculează valorile teoretice: y x i  b0  b1 x i

- se obţin erorile estimate: ei  y i  y x i

- se estimează modelul de regresie:  i   0   1 xi  ui


24
5.1 Ipoteze asupra erorilor

- Se testează  1

Dacă 1 este semnificativ diferit de zero există


legătură între erori în valoare absolută şi variabila
independentă. Prin urmare modelul este heteroscedastic.
Dacă  1 nu este semnificativ diferit de zero nu
există legătură între erori, în valoare absolută, şi
variabila independentă. Prin urmare modelul este
homoscedastic.
25
5.1 Ipoteze asupra erorilor

Testul Breusch-Pagan-Godfrey, ca și testul White, se


aplică modelelor de regresie multiplă pentru testarea
homoscedasticităţii erorilor.

Se parcurg următoarele etape:

1. Se estimează modelul de regresie multiplă

Y  0  1 X 1   2 X 2  
2. Se determină erorile pe baza modelului de regresie estimat
anterior. 26
5.1 Ipoteze asupra erorilor

3. Se estimează modelul auxiliar de forma:


ei2   0   1 X 1   2 X 2  u
4. Se realizează testul χ2 ,  cal  n  Ra
2 2

unde: n – volumul eşantionului, k – nr. de parametrii ai modelului


auxiliar estimat.
Ra2 - raportul de determinaţie din modelul auxiliar

5. Se compară valoarea teoretică a testului 2 ,k 1 cu


valoarea calculată a testului  cal
2
şi se ia decizia statistică. 27
5.1 Ipoteze asupra erorilor

4. Corectarea heteroscedasticităţii

Sunt două situaţii posibile:

a. Varianţele  i
2
sunt cunoscute;

b. Varianţele  i2 nu sunt cunoscute

28
5.1 Ipoteze asupra erorilor

i. Varianţele  i
2
sunt cunoscute

Modelul de regresie iniţial

yi  0  1 xi   i
1
este corectat prin ponderarea cu variabila
i
şi metoda de estimare poartă denumirea de metoda
celor mai mici pătrate ponderată.
29
5.1 Ipoteze asupra erorilor

ii. Varianţele  i
2
nu sunt cunoscute

Corectarea modelului se realizează prin aplicarea


unor transformări care au la bază relaţiile (obţinute
prin testul Glesjer) între parametrii 
2
i şi variabila
independentă.

30
CURS 12

ECONOMETRIE

1
CURS 12 Capitolul 5
Verificarea ipotezelor modelului de regresie

 5.1. IPOTEZE PRIVIND ERORILE


 Ipoteza de 
normalitate: i  N  
0, 2

 Ipoteza de necorelare sau de independenţă a


erorilor: cov  i , j   0

 5.2. IPOTEZE PRIVIND VARIABILELE


INDEPENDENTE
 Ipoteza de necoliniaritate a variabilelor
independente 2
5.1. IPOTEZE PRIVIND ERORILE
5.1.3. Ipoteza de normalitate a erorilor:
 ~ N (0,  )
2

1. Definirea ipotezei:
 erorile ε urmează o lege normală de medie 0
şi varianţă  :  
2
~ N (0, 2
)
 dacă  ~ N (0,  ) , atunci estimatorii
i
2

parametrilor unui modelul de regresie liniară


simplă urmează, de asemenea, o lege
normală: ˆ  ~ N (  ,   ),
0 0
2
ˆ
0

ˆ
1 ~ N ( 1 ,  ˆ1 )
2
3
5.1. IPOTEZE PRIVIND ERORILE
5.1.3. Ipoteza de normalitate a erorilor:
 ~ N (0,  )
2

2. Efectele încălcării ipotezei:


 dacă ipoteza de normalitate este încălcată,
estimatorii construiţi pe baza metodei celor
mai mici pătrate nu urmează o lege de
distribuţie normală
 Pentru eşantioane de volum mare ipoteza de
normalitate este atinsă asimptotic. 4
5.1. IPOTEZE PRIVIND ERORILE
5.1.3. Ipoteza de normalitate a erorilor:
 ~ N (0,  )
2

3. Testarea ipotezei de normalitate a erorilor:


 Metode grafice: QQ Plot, PP Plot, Histograma
 Metode numerice
 testul Jarque-Bera
 testul Kolmogorov-Smirnov-Lilliefors (KSL)

5
5.1. IPOTEZE PRIVIND ERORILE
5.1.3. Ipoteza de normalitate a erorilor:

3. Testarea ipotezei de normalitate a erorilor:


Testul Jarque-Bera
 se bazează pe verificarea simultană a proprietăţilor de
asimetrie şi boltire ale seriei reziduurilor. Pentru o
distribuţie normală, valoarea coeficientului de asimetrie
(Sw) şi valoarea coeficientului de boltire (K) este zero.

6
5.1. IPOTEZE PRIVIND ERORILE
5.1.3. Ipoteza de normalitate a erorilor:

1. Ipoteze statistice
H0: variabila reziduală urmează o lege de repartiţie normală
H1: variabila reziduală nu urmează o lege de repartiţie normală

2. Testul statistic : statistica JB se calculează după relaţia:

n  2 k  2

JBcalc    sw  
6  4
7
5.1. IPOTEZE PRIVIND ERORILE
5.1.3. Ipoteza de normalitate a erorilor:

3. Prag de semnificaţie JBcalc   ,v2


2

4. Regula de decizie:

JBcalc  teor  sig 


2 - se respinge H0 (ipoteza
de normalitate a erorilor) cu o
 2 
  probabilitate 1  
JBcalc  teor  sig  - se acceptă ipoteza H0
8
5.1. IPOTEZE PRIVIND ERORILE
5.1.3. Ipoteza de normalitate a erorilor:

3. Testarea ipotezei de normalitate a erorilor:


Testul Jarque-Bera
Statistics

Unstandardized Residual
N Valid 23
Missing 0
Skewness ,474
Std. Error of Skewness ,481
Kurtosis -,126
Std. Error of Kurtosis ,935
9
5.1. IPOTEZE PRIVIND ERORILE
5.1.3. Ipoteza de normalitate a erorilor:

Testul Kolmogorov-Smirnov-Lilliefors (KSL)


presupune compararea frecvenţelor cumulate (calculate) cu
frecvenţele teoretice cumulate extrase din tabelul Gauss.
 Ipoteze statistice:

H0: variabila eroare urmează o lege normală


H1: distribuţia erorilor nu urmează o lege normală
Regula de decizie:
- valoarea probabilităţii asociate statisticii test calculate (Sig.) se
compară cu α=0,05: dacă Sig.<0,05, atunci se respinge ipoteza de
normalitate a erorilor cu o probabilitate de 95%. 10
5.1. IPOTEZE PRIVIND ERORILE
5.1.3. Ipoteza de normalitate a erorilor:
 ~ N (0,   )
2

3. Testarea ipotezei de normalitate a erorilor:


Testul Kolmogorov-Smirnov-Lilliefors (KSL)
One-Sample Kolmogorov-Smirnov Test

Unstandardiz
ed Residual
N 23
Normal Parameters a,b Mean ,0000000
Std. Deviation 4,74761959
Most Extreme Absolute ,101
Differences Positive ,101
Negative -,060
Kolmogorov-Smirnov Z ,482
Asymp. Sig. (2-tailed) ,974
a. Test distribution is Normal.
b. Calculated from data. 11
5.1. IPOTEZE PRIVIND ERORILE
5.1.4. Ipoteza de necorelare a erorilor:

1. Definirea ipotezei:
 Autocorelarea sau corelaţia serială :
presupune existenţa, în cazul unui model de
regresie, a unei autocorelări între erorile ε, altfel
spus: cov (εi, εj) ≠0;
Coeficientul de autocorelaţie

cov( i ,  i1 ) cov( i ,  i1 )


 
i i 1
 2

unde: ρ- coeficient de autocorelaţie de ordinul 1


12
5.1. IPOTEZE PRIVIND ERORILE
5.1.4. Ipoteza de necorelare a erorilor:

1. Definirea ipotezei:
Coeficientul de autocorelaţie de ordinul k
cov( i ,  ik ) cov( i ,  ik )
 
i i k
 2

Funcţia de autocorelaţie
este definită prin relaţia de calcul a
coeficientului de autocorelaţie de ordin k.
cov( i ,  ik )
f k   13

 2
5.1. IPOTEZE PRIVIND ERORILE
5.1.4. Ipoteza de necorelare a erorilor:

2. Efectele încălcării ipotezei:


 Între erori există o relaţie dată de modelul: i  i1 ui
Din modelul anterior se obţine
ui i  i1
o quasi-diferenţă
unde: εi - eroarea
ui - zgomot alb
ρ - coeficient de corelaţie (autocorelaţie)
între εi şi εi-1
14
5.1. IPOTEZE PRIVIND ERORILE
5.1.4. Ipoteza de necorelare a erorilor:

2. Efectele încălcării ipotezei:


Pe baza quasi-diferenţei ui   i   i1
Se poate construi un model transformat:
yi   yi 1   0  1      1  xi   xi 1   ui
care se poate scrie: y i *   0 *   1 * x i *  u i
unde  0 *   0  1   
 1*   1
xi*  xi   xi 1
y i*  y i   y i  1 15
5.1. IPOTEZE PRIVIND ERORILE
5.1.4. Ipoteza de necorelare a erorilor:

3.Testarea ipotezei de necorelare a erorilor


 Runs Test

 Durbin-Watson test

16
5.1. IPOTEZE PRIVIND ERORILE
5.1.4. Ipoteza de necorelare a erorilor:

3.Testarea ipotezei de necorelare a erorilor


A.Runs Test
se bazează pe ideea că valorile variabilei reziduale se
constituie în secvenţe sau seturi de valori pozitive sau
negative numite runs, care se succed într-o anumită ordine
sau aleator;
ipoteza de bază a acestui test este aceea că în cazul lipsei
autocorelării erorilor succesiunea acestor seturi (runs,
notate k) este aleatoare sau este distribuită normal.
17
5.1. IPOTEZE PRIVIND ERORILE
5.1.4. Ipoteza de necorelare a erorilor:

Testarea ipotezei de necorelare a erorilor


3.

Formularea ipotezelor:
H0: k este distribuit normal (nu există autocorelare a
erorilor)
H1: k nu este distribuit normal – succesiunea runs-urilor
este aleatoare (există autocorelare a erorilor și astfel
ipoteza este încălcată)

18
5.1. IPOTEZE PRIVIND ERORILE
5.1.4. Ipoteza de necorelare a erorilor:

Testarea ipotezei de necorelare a erorilor


3.

Alegerea şi calcularea statisticii test:

se foloseşte statistica t Student care se calculează


conform relaţiei:
k  M (k )
tcalc 
ˆ k

19
5.1. IPOTEZE PRIVIND ERORILE
5.1.4. Ipoteza de necorelare a erorilor:

3. Testarea ipotezei de necorelare a erorilor

unde: k este numărul de runs caracterizat prin:


n1n2
M (k )  2 1
n1  n2
2n1 n2  n1  n2
V (k )   k  2n1 n2
2

(n1  n2 ) (n1  n2  1)
2

n1 este numărul de valori pozitive ale variabilei;


 n2 este numărul de valori negative ale variabilei 20

 n1 + n2 = n ;
5.1. IPOTEZE PRIVIND ERORILE
5.1.4. Ipoteza de necorelare a erorilor:

3.Testarea ipotezei de necorelare a erorilor


Regula de decizie:

dacă |tcalc| < tα/2,n-2 sau sig>α


atunci se acceptă ipoteza H0.

21
5.1. IPOTEZE PRIVIND ERORILE
5.1.4. Ipoteza de necorelare a erorilor:

3. Testarea ipotezei de necorelare a erorilor

Runs Test Runs Test

Unstandardiz Unstandardiz
ed Residual ed Residual
Test Valuea ,0000000 Test Valuea ,0000000
Cases < Test Value 3 Cases < Test Value 9
Cases >= Test Value 2 Cases >= Test Value 8
Total Cases 5 Total Cases 17
Number of Runs 4 Number of Runs 3
Z ,109 Z -3,002
Asymp. Sig. (2-tailed) ,913 Asymp. Sig. (2-tailed) ,003
a. Mean a. Mean 22
5.1. IPOTEZE PRIVIND ERORILE
5.1.4. Ipoteza de necorelare a erorilor:

Testarea ipotezei de necorelare a erorilor


3.

B. Testul Durbin-Watson
 Ipoteze statistice:
H0: erorile nu sunt autocorelate ( = 0)
H1: erorile sunt autocorelate (  0 )

23
5.1. IPOTEZE PRIVIND ERORILE
5.1.4. Ipoteza de necorelare a erorilor:

3. Testarea ipotezei de necorelare a erorilor

Testul Durbin-Watson
 (ˆi ˆi1 )
B. 2

 Calculul statisticii test: DW  d  i

 ˆi
2

Întrucât  i   i1  ui statistica DW se mai poate scrie


i

astfel: d  2(1  ˆ )

24
5.1. IPOTEZE PRIVIND ERORILE
5.1.4. Ipoteza de necorelare a erorilor:

3. Testarea ipotezei de necorelare a erorilor

B.Testul Durbin-Watson
Deoarece 1  ˆ  1 atunci valorile statisticii DW sunt date de
intervalul: 0  d  4
Interpretare:

 Dacă   1  d  0 ,atunci
ˆ există autocorelare pozitivă
maximă a erorilor;
 Dacă ˆ  1  d  4 , atunci există autocorelare negativă
maximă a erorilor;
 Dacă
ˆ  0  d  2 , atunci nu există autocorelare
25
5.1. IPOTEZE PRIVIND ERORILE
5.1.4. Ipoteza de necorelare a erorilor:

3. Testarea ipotezei de necorelare a erorilor

B.Testul Durbin-Watson
Regula de decizie:

 Valorile teoretice ale statisticii DW sunt calculate şi tabelate în


funcţie de pragul de semnificaţie, de volumul eşantionului şi de
numărul de variabile independente.

 În tabele se determină două valori critice, notate cu dL (limita


26

inferioară) şi dU (limita superioară).


5.1. IPOTEZE PRIVIND ERORILE
5.1.4. Ipoteza de necorelare a erorilor:

3. Testarea ipotezei de necorelare a erorilor

B.Testul Durbin-Watson
• (0<DWcalc<dL) se respinge ipoteza Ho, erorile înregistrează o
autocorelare pozitivă;
• (dL<DWcalc<dU) şi (4-du<DWcalc< 4-dL) sunt regiuni de
nedeterminare, nu se poate decide asupra existenţei autocorelării
erorilor;
• (du < DWcalc< 4 - du) se acceptă ipoteza H0, erorile nu sunt
autocorelate;
• (4-dL <DWcalc< 4) se respinge ipoteza H0, erorile înregistrează o
27

autocorelare negativă.
5.1. IPOTEZE PRIVIND ERORILE
5.1.4. Ipoteza de necorelare a erorilor:

3. Testarea ipotezei de necorelare a erorilor


Runs Test

Unstandardiz
B. Testul Durbin-Watson Test Valuea
ed Residual
-2502,56250
b Cases < Test Value 237
Model Summary
Cases >= Test Value 237
Adjusted Std. Error of Durbin- Total Cases 474
Model R R Square R Square the Estimate Watson
a Number of Runs 219
1 ,661 ,436 ,435 $12,833.540 1,863
Z -1,747
a. Predictors: (Constant), Educational Level (years)
Asymp. Sig. (2-tailed) ,081
b. Dependent Variable: Current Salary
a. Median

28
CURS

ECONOMETRIE

1
5.2. IPOTEZE PRIVIND VARIABILELE INDEPENDENTE
5.2.1. Ipoteza de necoliniaritate a variabilelor independente:

1. Definirea ipotezei:
 Coliniaritatea poate fi definită ca o legătură liniară existentă între
două sau mai multe variabile independente ale unui model de
regresie de forma:

Y = 0 + 1  X1 + 2  X 2 + +  p  X p + i

2
5.2. IPOTEZE PRIVIND VARIABILELE INDEPENDENTE
5.2.1. Ipoteza de necoliniaritate a variabilelor independente:

a.1. Coliniaritatea perfectă


- apare atunci când între variabilele independente X1, X2, ..., Xk
există o legătură liniară perfectă, funcţională. Această legătură
poate fi exprimată printr-o relaţie de forma:

 X + X +
1 1 2 2
+ k  X k = 0
unde: λi, cu i=1, ..., k, valori constante care nu sunt toate, în
mod simultan, nule.

3
5.2. IPOTEZE PRIVIND VARIABILELE INDEPENDENTE
5.2.1. Ipoteza de necoliniaritate a variabilelor independente:

a.2. Coliniaritatea imperfectă


Poate fi definită ca o relație liniară puternică existentă între
două sau mai multe variabile independente.

4
5.2. IPOTEZE PRIVIND VARIABILELE INDEPENDENTE
5.2.1. Ipoteza de necoliniaritate a variabilelor independente:

Considerând cazul existenței a două variabile


independente, X1 și X2, relația dintre aceste variabile poate fi
exprimată astfel:
X 1 =  0 + 1  X 2 + ui
unde: α0 şi α1 sunt parametrii modelului de regresie
ui reprezintă componenta aleatoare sau termenul
eroare.
Această relație arată faptul că variabila X1 nu este
explicată doar de variația variabilei X2, ci și de variații
aleatoare, definite prin termenul eroare, ui. 5
5.2. IPOTEZE PRIVIND VARIABILELE INDEPENDENTE
5.2.1. Ipoteza de necoliniaritate a variabilelor independente:

b. Testarea coliniarității
20,00

b.1. Prin procedee grafice


15,00

X2
10,00

5,00

R Sq Linear = 1
0,00

0,00 2,00 4,00 6,00 8,00 10,00

X1

Figura 1. Reprezentarea grafică a coliniarităţii perfecte dintre două variabile


independente, X1 şi X2 6
5.2. IPOTEZE PRIVIND VARIABILELE INDEPENDENTE
5.2.1. Ipoteza de necoliniaritate a variabilelor independente:

20,00

15,00
X2

10,00

5,00

0,00 R Sq Linear = 0,902

0,00 2,00 4,00 6,00 8,00 10,00 12,00 14,00

X1

Figura 2. Reprezentarea grafică a coliniarităţii imperfecte dintre două


variabile independente, X1 şi X2 7
5.2. IPOTEZE PRIVIND VARIABILELE INDEPENDENTE
5.2.1. Ipoteza de necoliniaritate a variabilelor independente:

b.2. Prin procedee numerice


1. Matricea corelațiilor
Valori ridicate ale coeficienților de corelație pot indica
existența coliniarităţii puternice între variabilele independente.
Correlations

X1 X2 X3
X1 Pearson Correlation 1 ,161 -,213
Sig. (2-tailed) ,566 ,446
N 15 15 15
X2 Pearson Correlation ,161 1 -,494
Sig. (2-tailed) ,566 ,061
N 15 15 15
X3 Pearson Correlation -,213 -,494 1
Sig. (2-tailed) ,446 ,061
8
N 15 15 15
5.2. IPOTEZE PRIVIND VARIABILELE INDEPENDENTE
5.2.1. Ipoteza de necoliniaritate a variabilelor independente:

2. VIF (Variance - Inflation Factor, VIF)


1
VIFj =
1 − Rj
2

2
unde: R j este raportul de determinație din modelul auxiliar
construit pe baza variabilelor independente.

X j = 0 + 1  X1 + ... +  j−1  X j−1 +  j+1  X j+1 + .... +  p  X p + u

9
5.2. IPOTEZE PRIVIND VARIABILELE INDEPENDENTE
5.2.1. Ipoteza de necoliniaritate a variabilelor independente:

1
VIFj =
1 − Rj
2

Atunci când legăturile dintre variabilele independente


sunt puternice, valoarea raportului de determinație se apropie
de unu iar raportul VIF este infinit.
Atunci când între variabilele independente nu există
corelație, valoarea raportului VIF este egală cu 1.
În practică, o valoare VIF>10 indică prezența
coliniarității ( alți autori estimează un VIF>5).
10
5.2. IPOTEZE PRIVIND VARIABILELE INDEPENDENTE
5.2.1. Ipoteza de necoliniaritate a variabilelor independente:

3. Tolerance -TOL
-se calculează după relația:

1
TOLj = = (1 − R j2 )
VIFj
Interpretare:
• dacă valoarea TOL=1, atunci nu există coliniaritate;
• dacă valoarea TOL=0, atunci există coliniaritate perfectă.

11
5.2. IPOTEZE PRIVIND VARIABILELE INDEPENDENTE
5.2.1. Ipoteza de necoliniaritate a variabilelor independente:

Exemplu:

Coefficientsa

Unstandardized Standardized
Coefficients Coefficients Collinearity Statistics
Model B Std. Error Beta t Sig. Tolerance VIF
1 (Constant) 65,705 27,731 2,369 ,037
X1 48,979 10,658 ,581 4,596 ,001 ,950 1,052
X2 59,654 23,625 ,359 2,525 ,028 ,753 1,328
X3 -1,838 ,814 -,324 -2,258 ,045 ,738 1,355
a. Dependent Variable: Y

12
5.2. IPOTEZE PRIVIND VARIABILELE INDEPENDENTE
5.2.1. Ipoteza de necoliniaritate a variabilelor independente:

Interpretare:

Deoarece valorile pentru VIF sunt mai mici decât 10 (și chiar
decât 5) variabilele independete nu sunt coliniare.

Valorile pentru TOL sunt apropiate de 1 prin urmare


variabilele independete nu sunt coliniare.

13
5.2. IPOTEZE PRIVIND VARIABILELE INDEPENDENTE
5.2.1. Ipoteza de necoliniaritate a variabilelor independente:

TOL1 = 1 − R12
TOL1 = 0,95
R1 = 1 − 0,95 = 0, 05
2

Reprezintă raportul de determinație al următorului model


auxiliar:
X1 = 0 +  2  X 2 + 3  X 3 + u
5% din variația variabilei X 1 este explicată prin variația
simultană a variabilelor X 2 și X 3 .

14
5.2. IPOTEZE PRIVIND VARIABILELE INDEPENDENTE
5.2.1. Ipoteza de necoliniaritate a variabilelor independente:

TOL2 = 1 − R22
TOL2 = 0, 753
R2 = 1 − 0, 753 = 0, 247
2

Reprezintă raportul de determinație al următorului model


auxiliar:
X 2 =  0 + 1  X 1 +  3  X 3 + u
24,7% din variația variabilei X 2 este explicată prin variația
simultană a variabilelor X 1 și X 3 .

15
5.2. IPOTEZE PRIVIND VARIABILELE INDEPENDENTE
5.2.1. Ipoteza de necoliniaritate a variabilelor independente:

Efectele coliniarității
Dacă pentru un model de regresie multiplă, variabilele
independente sunt coliniare, varianța estimatorilor
parametrilor modelului de regresie crește – estimatorii își pierd
proprietatea de eficiență.
Dacă este o coliniaritate perfectă – varianța estimatorilor este
infinită ceea ce înseamnă că parametrii pentru aceste variabile
nu pot fi estimați.
Dacă este o coliniaritate imperfectă, varianțele estimatorilor
pentru parametrii modelului de regresie sunt mari. 16
5.2. IPOTEZE PRIVIND VARIABILELE INDEPENDENTE
5.2.1. Ipoteza de necoliniaritate a variabilelor independente:

Corectarea coliniarității
Cea mai ușoară metodă este eliminarea variabilei care
introduce coliniaritatea la nivelul modelului de regresie. În
această situație există riscul eliminării din model a unei
variabile importante în explicarea fenomenului studiat.

17

S-ar putea să vă placă și