Sunteți pe pagina 1din 35

Econometrie

CURS 2
Conf. univ. dr. Ciprian Chirilă

1
Programa analitică

1. INTRODUCERE
2. REGRESIA LINIARĂ SIMPLĂ
3. REGRESIA LINIARĂ MULTIPLĂ
4. REGRESIA NELINIARĂ
5. VERIFICAREA IPOTEZELOR MODELULUI DE REGRESIE

2
CAPITOLUL 2 Regresia liniară simplă
• 2.1. Noţiuni introductive

• 2.2. Modelul de regresie liniar simplu


- Prezentarea modelului de regresie liniar simplu
- Ipotezele modelului de regresie liniar simplu
- Estimarea parametrilor modelului de regresie liniar
simplu
- Testarea parametrilor modelului de regresie liniar
simplu

3
2.1 Noţiuni introductive

Analiza de regresie studiază legătura statistică între două sau


mai multe variabile statistice sub aspectul formei acesteia.

În legăturile statistice utilizăm variabile aleatoare (stohastice),


ceea ce înseamnă că variabilelor le corespund distribuţii de
probabilitate.

Analiza de corelaţie studiază legătura statistică între două sau


mai multe variabile statistice sub aspectul intensităţii acesteia.

4
2.1 Noţiuni introductive
Exemple de modele de regresie:
1. Legea cererii:
C=f(P)+ε
2. Legea ofertei
O=f(P)+ ε
3. Legile consumului
C=f(V)+ ε
4. Legătura dintre preţuri şi salarii

5. Legătura dintre preţuri şi rata şomajului

6. Legătura dintre salarii şi productivitatea muncii

5
2.1 Noţiuni introductive
Medii condiţionate
Exemplu: Gujarati, N. D, 1995, pp. 32-35

Cheltuielile de
consum
săptămânale
($)

M(Y/X=xi) Media
condiţionată

Fig. 2.1 Venitul săptămânal al familiilor 6


2.1 Noţiuni introductive
M(Y/X=xi)
Cheltuielile săptămânale de
consum, ($)

Venitul săptămânal, ($)

Fig. 2.2 Distribuţia condiţionată a cheltuielilor în funcţie de nivelul veniturilor


7
2.1 Noţiuni introductive
Cheltuielile săptămânale de

M(Y/X=xi)
consum, ($)

Venitul săptămânal, ($)


Fig. 2.3 Dreapta de regresie
8
2.2 Modelul de regresie liniar simplu

a) Prezentarea modelului de regresie liniar simplu

• Interpretarea statistică

Regresia este o medie condiţionată, definită prin relaţia:


M(Y/X=xi) = f(xi) sau M(Y/X)=f(x)

Pentru cazul liniar, regresia este o funcţie liniară:


M(Y│X) = β0+β1X

9
2.2 Modelul de regresie liniar simplu

Forma generală a unui model de regresie este: M(Y│X)=f(x).

Pentru modelul de regresie liniar simplu forma modelului devine:


M(Y│X) = β0+β1X ,
unde:
M(Y│X) – media condiţionată corespunzătoare variabilei stohastice Y iar
β0 şi β1 sunt parametrii modelului.
În cele mai multe cazuri, valorile reale yi diferă de valorile aşteptate sau
teoretice M(Y│X=xi).

Abaterea valorilor reale faţă de valorile teoretice reprezintă valorile variabilei


stohastice, ε, denumită eroare de modelare.
εi = yi - M(Y│X=xi) => yi = M(Y│X=xi) + εi = β0+ β1xi + εi sau
Y= β0+ β1X + ε

10
2.2 Modelul de regresie liniar simplu

Componentele modelului de regresie liniar sunt:


1. Componenta deterministă este reprezentată de media condiţionată
M(Y│X=xi) = β0+ β1xi

2. Componenta aleatoare ε depinde de: natura fenomenului,


specificarea modelului şi erorile de măsurare.
a. Natura imprevizibilă a fenomenului dă naştere la erori
de modelare.
b. Specificarea incompletă a modelului determină apariţia
erorilor de modelare.
c. Erorile de măsurare sunt şi ele surprinse prin eroarea de
modelare.

11
2.2 Modelul de regresie liniar simplu

Y= β0+β1 X +ε
unde:
Y – variabila dependentă
X – variabila independentă
ε – variabila aleatoare (reziduu)
βi - parametrii ecuaţiei de regresie (coeficienți de regresie)

12
2.2 Modelul de regresie liniar simplu

Parametrii ecuaţiei de regresie βi :

β0 - ordonata la origine (este valoarea medie a lui Y atunci când


X=0); dY Y
β1 – panta dreptei de regresie; 1 = 
dX X
β1 - indică tipul legăturii dintre cele două variabile:
- dacă β1 >0, legătura este directă sau pozitivă, ambele variabile (X şi
Y) variază în acelaşi sens, de exemplu ambele variabile au tendinţă
crescătoare;
- dacă β1 =0, nu există legătură între cele două variabile;
- dacă β1 <0, legătura este inversă sau negativă, o variabilă creşte şi
cealaltă descreşte.

13
2.2 Modelul de regresie liniar simplu

14
2.2 Modelul de regresie liniar simplu

b) Ipotezele modelului de regresie


Ipoteze cu privire la variabila aleatoare eroare

- normalitatea erorilor: εi~N(0,σ2); variabila reziduală urmează o


lege de distribuţie normală de medie 0 şi varianţă σ2;

- homoscedasticitate: V(εi)=σ2; varianţa erorilor este constantă


pentru distribuţiile condiţionate Yi|X=xi;

- necorelarea erorilor: cov(εi,εj)=0; o valoare a variabilei reziduale nu


este influenţată de o altă valoare a variabilei reziduale;
- variabila independentă nu este corelată cu variabila reziduală
(eroare): cov(εi, xi)=0

15
2.2 Modelul de regresie liniar simplu

Ipoteze cu privire la variabilele independente

- Variabila independentă X este observabilă, statistică


(nestochastică);

- variabila independentă are o dispersie finită și este


posibil de determinat.

16
2.2 Modelul de regresie liniar simplu

Exemple din economie:


Consumul populaţiei pentru un produs depinde de venit:
Ci= β0+β1Vi+εi

Cerea populaţiei pentru un produs depinde de preţul produsului


Ci= β0+β1 Pi+εi

17
2.2 Modelul de regresie liniar simplu

c) Estimarea parametrilor modelului de regresie

Y= β0+β1 X + ε – modelul de regresie

Yx= β0+β1 X – linia de regresie (dreapta de regresie), funcţia liniară


a lui Y în funcţie de X

La nivelul unui eşantion avem:


yi = b0 + b1xi+ ei
yxi= b0 + b1 xi
ei= yi - yxi

18
2.2 Modelul de regresie liniar simplu

Metoda celor mai mici pătrate presupune minimizarea expresiei:

(
S =  ( ei ) =  yi − y xi ) = ( y − b − b1 x )
2 2 2
i 0

• Rezolvarea problemei de minim impune două condiţii:


1. Anularea derivatelor parţiale de ordinul I ale lui S în raport cu b0 şi
b1;
2. Matricea derivatelor parţiale de ordinul doi să fie pozitiv definită.

19
2.2 Modelul de regresie liniar simplu

Estimarea parametrilor modelului de regresie

nb0 + b1  xi =  yi

b0  xi + b1  xi =  xi yi
2

20
2.2 Modelul de regresie liniar simplu

b0 =
 y x −x x y
i
2
i i i i

n x − (  x )
2 2
i i

n xi yi −  xi  yi
b1 =
n x − (  xi )
2 2
i

b0 și b1 sunt estimațiile punctuale ale parametrilor  0 și 1 .


b0 = y − b1 x
21
2.2 Modelul de regresie liniar simplu

•Estimarea prin interval de încredere se bazează pe distribuţiile


de selecţie ale estimatorilor ˆ0 şi ̂1 ai parametrilor β0 şi β1.

•Estimatorii parametrilor urmează o lege de distribuţie normală


( )
şi sunt nedeplasaţi, M ˆ =  , M ˆ = 
0 0 ( )
1 1

convergenţi şi (ˆ )
0 nN → 0 , (ˆ )1 nN → 1
Eficienţi - dintre toţi estimatorii posibili pentru β0 , β1 au
varianţa cea mai mică

22
2.2 Modelul de regresie liniar simplu

Estimarea parametrilor modelului de regresie

ˆ0 ( )
N  0 ,  2ˆ
0

ˆ1 N (  , )
1
2
ˆ
1

23
2.2 Modelul de regresie liniar simplu

Estimarea parametrilor modelului de regresie

( )
M ˆ1 = 1 ̂1
Fig. 2.4. Distribuţia de selecţie a coeficientului de regresie
24
2.2 Modelul de regresie liniar simplu

La nivelul unui eşantion obţinem estimaţiile:

  (y −b − b1 xi )
2 2
- varianţa variabilei eroare: e
s 2
= i
= i 0

n−2 n−2

- varianţa estimatorului ˆ0: s 2


=
 x i
s2
n ( x − x )
ˆ0 2
i

s2
- varianţa estimatorului ̂1 : s 2 ˆ =
(x − x )
1
2
i
25
2.2 Modelul de regresie liniar simplu

• Estimarea prin interval de încredere a parametrilor

(
 0  b0  t /2;n −2 sˆ
0
) (
1  b1  t /2;n −2 sˆ
1
)

26
2.2 Modelul de regresie liniar simplu

Testarea parametrilor modelului de regresie liniar simplu


Testarea parametrilor modelului de regresie presupune parcurgerea
următoarelor etape

1. Formularea ipotezelor:
H0: β=0
H1: β≠0

2. Alegerea şi calcularea statisticii test:

ˆ − 
tcalculat =
ˆ ˆ
27
2.2 Modelul de regresie liniar simplu

În ipoteza H0, t urmează o lege de repartiţie Student cu (n-2)


grade de libertate.
ˆ
tcalculat =
ˆ ˆ
La nivelul unui eşantion avem:

b
tcalculat =
sˆ

28
2.2 Modelul de regresie liniar simplu

3. Regula de decizie
Dacă |tcalc |>tα/2;n-2 cu o probabilitate de 1- α se respinge ipoteza
H0 şi se acceptă ipoteza H1 . Parametrul este semnificativ diferit de
zero, deci există legătură între cele două variabile.

Dacă |tcalc | ≤ tα/2;n-2 se acceptă ipoteza H0

29
2.2 Modelul de regresie liniar simplu

SAU:

Dacă Prob. (sau sig) ≥ α se acceptă ipoteza H0

Dacă Prob. (sau sig) < α cu o probabilitate de 1- α se respinge


ipoteza H0 şi se acceptă ipoteza H1 . Parametrul este semnificativ
diferit de zero, deci există legătură între cele două variabile.

30
2.2 Modelul de regresie liniar simplu

Exemplu: La nivelul unui magazin se înregistrează cantitatea vândută


pentru un produs și prețurile acestuia. Acestea sunt:
Preț (lei/kg) Cantitate (kg)
5 15
7 12
9 13
11 10
14 8

31
2.2 Modelul de regresie liniar simplu

Cantitate

15,00 Observed
Linear

14,00

13,00

12,00

11,00

10,00

9,00

8,00

4,00 6,00 8,00 10,00 12,00 14,00

Pret

32
2.2 Modelul de regresie liniar simplu

Coefficientsa

Unstandardized Standardized
Coefficients Coefficients 95% Confidence Interval for B
Model B Std. Error Beta t Sig. Lower Bound Upper Bound
1 (Constant) 18,311 1,443 12,689 ,001 13,719 22,904
Pret -,730 ,149 -,943 -4,912 ,016 -1,202 -,257
a. Dependent Variable: Cantitate

33
2.2 Modelul de regresie liniar simplu

Model Summary

Adjusted Std. Error of


Model R R Square R Square the Estimate
1 ,943a ,889 ,853 1,03755
a. Predictors: (Constant), Pret

ANOVAb

Sum of
Model Squares df Mean Square F Sig.
1 Regression 25,970 1 25,970 24,125 ,016a
Residual 3,230 3 1,077
Total 29,200 4
a. Predictors: (Constant), Pret
b. Dependent Variable: Cantitate

34
2.2 Modelul de regresie liniar simplu

35

S-ar putea să vă placă și