Documente Academic
Documente Profesional
Documente Cultură
ECONOMETRIEI
ANUL III Semestrul 1
Cluj-Napoca 2018
1
I. INFORMAŢII GENERALE ................................................................................................................. 2
Date de contact ale titularului de curs...........................................................................................................2
Obiective ……………………………….......................................................................................................2
Competenţe profesionale.............................................................................................................................. 2
Competenţe transversale ………………………...........................................................................................3
Materiale bibliografice ................................................................................................................................. 2
Materiale şi instrumente necesare pentru curs ............................................................................................. 3
Studenţi cu dizabilităţi ................................................................................................................................. 4
II. SUPORTUL DE CURS ........................................................................................................................ 5
Modulul 1: LEGI DE PROBABILITATE SI TEORIA ESTIMATIEI........................................................5
Unitatea 1.1: Legi de probabilitate discrete şi continue.................................................................................5
Unitatea 1.2: Teoria estimaţiei.....................................................................................................................25
Modulul 2: MODELUL LINIAR SIMPLU............................................................................................... 25
Unitatea 2.1: Descrierea şi ipotezele modelului; estimarea parametrilor acestuia......................................25
Unitatea 2.2: Proprietaţile estimatorilor şi inferenţa lor statistică...............................................................29
Unitatea 2.3: Analiza varianţei. Previziunea variabilei endogene...............................................................35
Aplicaţie privind modelul liniar simplu......................................................................................................39
Modulul 3: MODELUL LINIAR MULTIPLU......................................................................................... 48
Unitatea 3.1: Descrierea şi ipotezele modelului; estimarea parametrilor acestuia......................................48
Unitatea 3.2: Proprietaţile estimatorilor şi inferenţa lor statistică...............................................................51
Unitatea 3.3: Analiza varianţei. Previziunea variabilei endogene...............................................................55
Aplicaţie privind modelul liniar multiplu....................................................................................................60
Unitatea 3.4: Selecţia variabilelor explicative.............................................................................................69
Aplicaţie privind selecţia variabilelor explicative.......................................................................................78
1
I. INFORMAŢII GENERALE
Obiective
Acomodarea studenților cu principalele concepte legate de tehnicile econometrice de bază.
Dobândirea cunoştintelor necesare analizei fenomenelor economico-financiare prin tehnicile
elementare ale econometriei. Insuşirea modului de organizare a bazelor de date necesare
prelucrărilor cantitative. Analiza, prelucrarea si interpretarea datelor in concordanţă cu teoria
economica.
Competenţe profesionale
- Utilizarea adecvată a conceptelor, teoriilor, metodelor şi instrumentelor de natură
financiară cu sprijin tehnic bazat pe modelare econometrica
Materiale bibliografice
1. ANDREI T., BOURBONNAIS R. – Econometrie, Ed. Economica, Bucuresti, 2008
2. DORMONT B. - Introduction à l'économétrie, Ed. Montchrestien, Paris, 2007
3. DRAGOS C. – Bazele econometriei si modelarii econometrice, Ed. Mediamira, Cluj N., 2008
2
4. GREENE W. – Econometric Analysis, Ed. Prentice Hall, 2011
5. WOOLDRIGE J.M. - Introductory Econometrics: A Modern Approach, Ed. South-Western
College Pub, 2008
6. ASHENFELTER O., LEVINE P., ZIMMERMAN D.J. - Statistics and Econometrics :
Methods and Applications, Ed. Wiley, 2006
7. MIGNON V. - Econométrie : Théorie et applications, Ed. Economica, Paris, 2008
3
Studenţi cu dizabilităţi
În vederea oferirii de şanse egale studenţilor afectaţi de dizabilităţi motorii sau intelectuale,
titularul de curs îşi manifestă disponibilitatea de a comunica cu studenţii prin intermediul
sistemelor informatice disponibile (spre exemplu: e-mail, website, blog, etc.). Astfel, studenţii cu
dizabilităţi vor putea adresa întrebări legate de tematica cursului pe adresa de email a titularului
de curs, menţionată la începutul acestui silabus, putând primi lămuririle necesare în maxim 48 de
ore de la primirea mesajului.
4
Modulul 1. LEGI DE PROBABILITATE
SI TEORIA ESTIMATIEI
Definiţie. O variabilă aleatoare este o funcţie definită asupra ansamblului rezultatelor posibile
ale unei experienţe aleatoare, astfel încât să fie posibil să determinăm probabilitatea ca ea să ia o
anumită valoare dată sau să ia o valoare situată într-un anumit interval.
La origine, o variabilă era o funcţie de câştig care reprezenta câştigul obţinut ca rezultat
al unui joc. De exemplu, presupunem că un jucător lansează un zar şi câştigă 10 lei dacă obţine
“şase” şi pierde 2 lei dacă obţine alt rezultat. Se poate defini o variabilă aleatoare a câştigului
care asociază valoarea 10 rezultatului “şase” şi valoarea -2 oricărui alt rezultat. În aplicaţii,
variabilele aleatoare sunt utilizate pentru a modela rezultatul unui mecanism nedeterminist sau al
unei experienţe nedeterministe care generează un rezultat aleator.
Definiţie. Inferenţa statistică constă în a induce caracteristicile necunoscute ale unei populaţii
pornind de la un eşantion extras din acea populaţie. Caracteristicile eşantionului (cunoscute)
reflectă cu o anumită marjă de eroare pe cele ale populaţiei.
unde
x 1 ,x 2 ,..., x n reprezintă valori numerice. Fie pi probabilitatea de realizare a fiecărui
eveniment (rezultat).
5
Definiţie. Numim variabilă aleatoare o aplicaţie f care asociază fiecărui eveniment elementar un
număr
xi .
X:
( x 1 .. .
p 1 .. .
xi . ..
pi . ..
xn
pn )
n
∑ pi =1
unde pi=Pr ( X=x i ) şi i=1 .
Definiţie. Fie
X:
()
xi
pi i=!,n
o variabilă aleatoare. Dacă pentru orice număr real x notăm cu F( x)
probabilitatea ca X să ia valori mai mici decât x, respectiv:
F( x )=Pr( X < x )= ∑ p i
x i <x
atunci funcţia F definită prin această egalitate se numeşte funcţia de repartiţie a variabilei
aleatoare X.
Legea Bernoulli
Admite două valori posibile: 0 şi 1, cu probabilităţile de realizare q şi respectiv p.
Se notează de obicei cu 1 cazul favorabil.
( )
Z ( p ): 0 1
q p
Deoarece q+ p=1 , cunoaştera lui p este suficientă pentru caracterizarea variabilei. Momentele
centrate şi necentrate până la ordinul 2 se deduc uşor:
E( Z )=0 q +1 p= p
2 2 2
V (Z )=E( Z )−[ E(Z ) ] = p−p =pq
O astfel de distribuţie apare în experienţe de tipul: cumpăr/ nu cumpăr un anumit produs, votez/
nu votez un anumit candidat, etc.
6
Legea Binomială
O variabilă binomială este suma a n variabile Bernoulli independente şi de acelaşi
parametru p.
X (n , p)=Z 1 ( p )+Z 2 ( p )+.. .+Z n ( p)
unde Z i ( p ) , i=1,n este o variabilă Bernoulli. O variabilă binomială poate lua valori de la 0 la
n. Probabilităţile fiecărei stări sunt:
n
p0 =Pr ( X =0 )=q
p1 =Pr ( X=1 )= pqn−1
……..
k k n−k
pk =Pr( X =k )=C n p q
……...
n
pn =Pr ( X =n )= p
Calculăm speranţa matematică şi varianţa teoretică a variabilei:
E( X )=E( Z 1 + Z 2 +.. .+ Z n )=E( Z1 )+ E( Z 2 )+. . .+ E(Z n )=np
7
0.35
0.3
0.25
0.2
0.15
0.1
0.05
p=0.30 . p=0.65
0.18
0.16
0.14
0.12
0.1
0.08
0.06
0.04
0.02
0
1 3 5 7 9 11 13 15 17 19 21 23 25
p=0.3 . p=0.65
Legea Poisson
Se mai numeşte şi legea evenimentelor rare. Este des întâlnită în teoria şirurilor de
aşteptare. O variabilă Poisson admite ca valori numere întregi pozitive, cu
probabilităţile de apariţie a stărilor conform relaţiei:
k
λ
Pr ( X =k )= e−λ
k!
unde λ este un parametru pozitiv. Sub formă generală, o variabilă ce urmează o distribuţie
Poisson se poate scrie:
8
( )
k
X ( λ ):
λk −λ
e
k ! k =0,1,.. .,∞
Se cunoaşte din matematică relaţia:
∞ k
λ
∑ k!
=e λ
k =0
0.2
0.18
0.16
0.14
0.12
0.1
0.08
0.06
0.04
0.02
lambda=5 . lambda=10
Legea geometrică
O variabilă este distribuită după o lege geometrică dacă admite ca valori numere
naturale nenule, cu probabilităţile de apariţie egale cu:
Pr( X =k )= pqk −1
Distribuţia se poate scrie:
9
X ( p): ( )k
pq k−1 k=1,2 ,. .. ,∞
unde p ,q ∈ [ 0 ,1 ] , iar p+q=1 . Suma probabilităţilor este egală cu 1 (se poate demonstra că
∞
∑ pqk−1=1
k=1 ).
Folosind funcţia generatoare de momente (vezi Florea & colab., 2000) se obţine:
1
E( X )=
p
q
V ( X )=
p2
Pentru a caracteriza total o distribuţie geometrică este suficientă cunoaşterea unuia din cei doi
parametri, p sau q.
Legea hipergeometrică
Presupunem o populaţie de volum N , împărţită în două subpopulaţii de volum
atunci numărul k de unităţi din cele extrase care aparţin primei subpopulaţii este o variabilă
hipergeometrică. O variabilă hipergeometrică admite ca valori posibile k numere întregi,
probabilităţile fiind date de formula:
CkN 1 Cn−k
N
2
Pr ( X =k )= n
CN
( )
k
k n−k
H ( N , n , p ): C N 1 C N 2
n
CN k =1,2 , ...
k n−k
C N1 C N2
Pr ( X =k )= n
Pentru a explicita probabilitatea CN , observăm că la numitor avem numărul
n C k Cn −k
total de cazuri posibile, respectiv C N . Numărul de cazuri favorabile este N 1 N 2 , deoarece celor
C kN N CnN−k
1 moduri de a alege k unităţi din cele 1 li se asociază 2 moduri de a alege restul de
n−k unităţi din cele N 2 .
10
Fără demonstraţie dăm expresiile speranţei matematice şi varianţei (se deduc din funcţia
generatoare de momente):
E( X )=np
N−n
V ( X )=npq
N−1
( )
1 2 k n−1
0 . .. .. .
X: n n n n
1 1 1 1 1
. .. .. .
n n n n n
Prin uşoare artificii de calcul (vezi Florea & colab., 2000) se obţine:
n−1
E( X )=
2n
(n−1)(n+1 )
V ( X )=
12 n2
F( x )=Pr( X <x )
11
Cele mai importante proprietăţi ale funcţiei de repartiţie F( x) sunt:
3) 0≤F ( x)≤1 , ∀ x ∈R
lim F ( x )=0 lim F ( x )=1
4) x →−∞ şi x→∞
12
Definiţie. Pentru o variabilă continuă X, de densitate de probabilitate f (x )
expresia:
∞
E( X )=∫−∞ x f ( x)dx
k k
k
respectiv speranţa matematică a variabilei X , reprezintă momentul de ordinul k.
k
respectiv speranţa matematică a variabilei ( X−E ( X )) , reprezintă momentul centrat de ordinul
k. Pentru k =2 vorbim de momentul centrat de ordinul 2, care se mai numeşte şi varianţă.
13
1
0,5
0
0
Figura 1.5 Densitatea de probabilitate a unei variabile normale centrate şi reduse
−∞ −1 1 ∞
Figura 1.6 Densităţile de probabilitate ale unor variabile normale de diverse medii şi varianţe
14
0 200 400 600 800 1000
Legea log-normală
O variabilă aleatoare Z de forma:
Z =eY
2
este o variabilă log-normală dacă Y este o variabilă normală de medie m şi de varianţă σ .
Astfel, Z este o variabilă log-normală dacă logaritmul natural al acesteia (adică ln( Z ) ) este o
variabilă normală.
2 2
E( Z )=E( eσX +m )=e m E (e σX )=e m e σ /2 =e
m+ σ /2
2 2
V (Z )=e 2m e σ (e −1 )
σ
15
0.007
0.006
0.005
0.004
0.003
0.002
0.001
0 1 2 3 4 5 6 7 8 9
Legea hi-patrat
( )
2
X i −m
U 2i =
σ , i=1,n
iar
X i sunt variabile normale şi independente, de medie m
2
şi varianţă σ , atunci variabila:
n
χ ( n)=∑ U 2i
2
i=1
Legea Student
O variabilă Student este raportul dintre o variabilă normală centrată şi redusă (U)
2
şi rădăcina patrată a unei variabile χ cu ν grade de libertate divizată prin
numărul gradelor de libertate:
U
t=
√ χ2( ν )
ν
Legea Fisher-Snedecor
16
2
O variabilă Fisher-Snedecor este raportul dintre două variabile χ divizate prin numărul
gradelor lor de libertate:
χ 2 ( ν1 )/ ν1
F=
χ 2 ( ν 2 )/ ν2
(
P lim X n =a →1
n→∞ )
ψ X ( t ) , ψ X ( t ) , .. . ,ψ X ( t )
şi ca funcţii generatoare de momente: 1 2 n
17
}
Fn ( x ) → F ( x )
n →∞ L
ψ X (t ) → ψ X (t ) X n → X [ F( x ), ψ X ( t ) ]
n n →∞ ⇒ n→∞
Există câteva cazuri particulare de convergenţă de la legi discrete la alte legi discrete, de
la legi discrete la legi continue sau de la legi continue la alte legi continue. Prezentăm sintetic în
tabelul următor câteva cazuri mai des utilizate în practică (pentru unele demonstraţii, a se vedea
Florea & colab., 2000).
Figura 1.8 Convergenţa distribuţiei binomiale (n=70, p=0.3) spre o distribuţie normală
18
0.12
0.1
0.08
0.06
0.04
0.02
0
1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 52 55 58 61 64 67 70
0.07
0.06
0.05
0.04
0.03
0.02
0.01
0
1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 52 55 58 61 64 67 70
Se observă că distribuţiile sunt aproape simetrice în jurul mediei, ceea ce nu este cazul şi pentru
distribuţiile binomiale cu valori mici ale lui n sau respectiv distribuţiile Poisson cu valori mici
ale lui λ (vezi figurile 1.1 şi 1.3).
19
Unitatea de curs 1.2
Teoria estimaţiei
În ştiinţele sociale în general şi în economie în particular, observarea unei populaţii întregi este
foarte rară. Observarea se face la nivel de eşantion iar rezultatele se extrapolează la întreaga
populaţie din care acesta a fost extras. Caracteristicile populaţiei sunt descrise de către diverşi
2
parametri: media variabilei ( X̄ ), varianţa ( σ X ), mediana M e ( X ) , etc. Toţi aceşti parametri
(notăm sub formă generală θ ) sunt observaţi la nivel de eşantion şi prin inferenţa statistică sunt
extrapolaţi la nivelul populaţiei.
E( θ^ )=θ
lim V ( θ^ )=0
n→∞
normală şi de aceeaşi parametri ∀i=1,n . Ca urmare, media de eşantionare X¯^ fiind o funcţie
( )
¯X−
^ X̄ 1 zα −t 2 /2
Pr −z α <
σ X¯^
< zα = ∫ e dt=φ( zα )=1−α
√ 2 π −zα
φ( z α )=1−α
α /2 α /2
−∞
−z α 0 zα ∞
21
n
1
s 2X = ∑ ( X − X¯^ )2
n−1 i =1 i
Ca urmare, variabila:
¯^ X̄
X−
t= 2
σX
este distribuită după o lege Student cu ν =n−1 grade de libertate. Rezultă astfel intervalul:
tα
Pr (−t α <t<tα )=∫−t f (t , ν )dt=1−α
α
( )
n ¯^
X i− X
2
∑ σX
i=1
2
este distribuită după o lege χ cu ν =n−1 grade de libertate. În acest caz este posibil să găsim
2 2
două valori numerice χ 1 şi χ 2 , pentru care pentru un prag de semnificaţie dat ( α ) să putem
scrie:
( )
n
∑ ( X i − X¯^ )2
i=1
Pr χ 12 < < χ 22 =1−α
σ 2X
de unde rezultă:
( )
n n
∑ ( X i− X¯^ )2 ∑ ( X i − ¯X^ )2
i=1
Pr <σ 2X < i=1 =1−α
χ 21 χ 22
22
Testele de semnificaţie constau în verificarea egalităţii unui parametru cu o valoare dată. Se
poate testa semnificaţia unei medii, proporţii, varianţe, etc.
¯^ )=E
E( X
[ 1
]
( X + X +. ..+ X n ) = X̄
n 1 2
[ ]
2
¯^ )=V 1 ( X + X +. ..+ X ) = σ X
V(X
n 1 2 n
n
σ 2X
¯ H
Ca urmare X^ se distribuie normal, de medie X̄ şi de varianţă n . Testarea ipotezei 0 se
2 2
face în funcţie de următoarele două situaţii posibile: a) σ X cunoscută; b) σ X necunoscută.
2
a) σ X cunoscută
Variabila Z este normală, centrată şi redusă:
¯X−x
^
0
Z= ∈ N (0,1 )
σX
√n
Dacă ipoteza
H 0 este adevărată, atunci există un prag de semnificaţie α căruia să-i corespundă
o valoare tabelată
z α astfel încât |Z|< z α cu o probabilitate P=1−α . Regula de decizie a
testului devine:
- dacă
|Z|< z α acceptăm
H 0 , adică X¯^ nu este diferit statistic faţă de x 0 (cu un prag de
semnificaţie α );
23
- dacă
|Z|≥z α H ¯ x
acceptăm H 1 şi respingem 0 , adică X^ este diferit statistic faţă de 0 (cu un
prag de semnificaţie α ).
2
b) σ X necunoscută
2
Deoarece varianţa σ X nu se cunoaşte, se estimează prin:
n
1 ¯^ )2
s 2X = ∑
n−1 i =1
( xi − X
2 2
Dacă înlocuim σ X prin s X , atunci raportul:
¯^ X̄
X−
t= ∈ S ν=n−1
sX
√n
Nu mai este o variabilă normală, ci una Student, cu ν =n−1 grade de libertate. Dacă ipoteza
nulă este adevărată, atunci:
¯^
X−x 0
t=
sX
√n
este tot o variabilă Student cu ν =n−1 grade de libertate.
Dacă ipoteza
H 0 este adevărată, atunci există un prag de semnificaţie α căruia să-i corespundă
o valoare tabelată
t α,ν astfel încât |t|<t α,ν cu o probabilitate P=1−α . Regula de decizie a
testului devine:
- dacă
|t|<t α,ν acceptăm
H 0 , adică X¯^ nu este diferit statistic faţă de x 0 (cu un prag de
semnificaţie α );
- dacă
|t|≥t α ,ν H ¯ x
acceptăm H 1 şi respingem 0 , adică X^ este diferit statistic faţă de 0 (cu un
prag de semnificaţie α ).
24
H 1 : p≠ p0
Dacă din populaţie s-au efectuat n extrageri independente, se vor extrage variabilele
Xi
independente, de acelaşi parametru p. Avem proporţia de eşantionare:
1
^p= ( X 1 + X 2 +. ..+ X n )
n
1 np
E( ^p )=
n
[ E( X 1 )+ E ( X 2 )+ .. .+ E( X n ) ]= = p
n
1 np ( 1− p) p(1− p )
2[
V ( ^p )= V ( X 1 )+V ( X 2 )+ .. .+V ( X n ) ] = =
n n2 n
Conform criteriilor de convergenţă, dacă n este mare proporţia de eşantionare va fi distribuită
(asimptotic) spre o lege normală:
(√
¯^p ∈ N p , p(1− p )
n )
Raţionând ca şi în cazul mediei, variabila Z este normală, centrată şi redusă:
^p− p 0
Z= ∈ N (0,1)
√ p (1− p)
n
Dacă ipoteza
H 0 este adevărată, atunci există un prag de semnificaţie α căruia să-i corespundă
o valoare tabelată
z α astfel încât |Z|< z α cu o probabilitate P=1−α . Regula de decizie a
testului devine:
- dacă
|Z|< z α acceptăm
H 0 , adică p^ nu este diferit statistic faţă de p0 (cu un prag de
semnificaţie α );
- dacă
|Z|≥z α H p
acceptăm H 1 şi respingem 0 , adică p^ este diferit statistic faţă de 0 (cu un
prag de semnificaţie α ).
25
Modulul 2. MODELUL LINIAR SIMPLU
Sub forma cea mai generală, un model liniar simplu se poate scrie:
y t =a 0 +a 1 xt + ε t t=1,...,T (2.1)
moment de timp, caz în care modelul este de tip « cross-section » sau « en coupe
instantanée ». Sau putem avea aceeaşi unitate observată la momente diferite de timp, ceea
ce ne dă o serie de timp sau cronologică.
26
2.1.2. Rolul termenului aleator
Termenul
ε t grupează trei tipuri de erori (Bourbonnais, 1998):
H1 : E(ε t )=0 ; variabila reziduală este de medie nulă. Ansamblul factorilor lui y t care nu au
fost reţinuţi în model este de speranţă matematică nulă. Avem astfel :
E( y t / x t )=a 0 +a 1 xt
H2 : y t şi x t reprezintă valori numerice observate fără erori. Termenul x t nu este deci
aleator, ci determinist. Modelul devine aleator prin intermediul lui
ε t . În acest caz,
speranţa condiţională considerată mai sus se reduce la:
E( y t )=a0 +a1 x t
Sensul acestei ipoteze este acela că X este o variabilă economică, la fel ca Y.
Considerând H2 adevărată înseamnă că încercăm să modelăm fenomenul descris de
yt
condiţionat de realizările
x t observate în eşantion.
H3 : Modelul este liniar în raport cu x t sau o transformare a lui x t (logaritm, inversiune, etc.)
27
2 2
H4 : E(ε t )=σ ∀t
Presupunem că varianţa perturbaţiilor este constantă, indiferent de t. Este cunoscută ca
ipoteza de homoscedasticitate a perturbaţiilor. Intuitiv, considerăm că amploarea
erorilor, deci aproximaţia efectuată de model este constantă în raport cu t.
H5 : cov (ε t , ε t ' )=0
sau E(ε t ,ε t ' )=0 deoarece E(ε t )=E( ε t ' )=0 ∀ t ,t '
Covarianţa perturbaţiilor este nulă, două erori cu privire la două observaţii diferite t şi t’
sunt independente între ele.
H6 : cov ( x t , ε t )=0
Perturbaţiile sunt independente în raport cu variabila explicativă.
H7 : Presupunem că primele momente empirice ale lui X sunt finite atunci când T este foarte
mare:
T
1
lim ∑ x t = x̄≠0
T →∞ T t=1 cantitate finită (media empirică)
T
1
lim
T →∞ T
∑ ( x t − x̄ )2=s 2≠0
t=1 cantitate finită (varianţa empirică)
2
Presupunem că varianţa empirică a lui X converge spre o valoare nenulă σ x . Ipoteza
poate fi verificată în cazul staţionar, adică dacă
x t sunt realizări ale unor variabile
2
aleatoare independente şi identic distribuite, de varianţe egale cu σ x . Important de
x
reţinut este că în această ipoteză, t conservă o oarecare varianţă când T →∞ , deci
observaţiile suplimentare ameliorează informaţia (Dormont, 1999).
2
H8 : ε t ≈ N (0 , σ ) ∀ t
Ipoteza permite efectuarea unor teste asupra modelului. Pertinenţa ei se datorează
teoremei limită-centrală. Nu este necesar să presupunem normalitatea componentelor lui
ε t , ci doar un număr mare de factori independenţi şi identic distribuiţi între care există o
relaţie de tip aditiv.
minime
În cvasi-totalitatea situaţiilor reale, datele utilizate pentru modelarea unui fenomen provin dintr-
realitate nu îi vom cunoaşte niciodată. Vom găsi doar nişte estimaţii ale acestora,
a^ 0 şi a^ 1 , pe
baza datelor din eşantion.
Ne propunem să determinăm
a^ 0 şi a^ 1 astfel încât valorile lor să minimizeze suma
patratelor erorilor:
28
T T
∑ ε 2t = ∑ ( y t −a 1 x t −a0 )2 =f ( a0 , a1 )
t =1 t =1 (2.2)
f (a0 , a 1 ) trebuie satisfăcută o condiţie necesară (sau condiţia de ordinul 1) şi una suficientă
(condiţia de ordinul 2). Condiţia necesară presupune anularea derivatelor în raport cu cei doi
parametri:
{
∂f
=0
∂ a1
∂f
=0
∂a 0
(2.3)
{
T
∑ ( y t −a1 x t −a0 ) x t =0
t =1
T
∑ ( y t −a 1 xt −a0 )=0
t =1
(2.4)
{
T T
1 1
∑
T t=1
y t x t −a1 ∑ xt −a 0 x̄=0
T t=1
2
ȳ−a 1 x̄−a0 =0
(2.5)
Considerând
a^ 0 şi a^ 1 soluţiile sistemului, obţinem:
{
T
∑ ( y t − ȳ )( x t − x̄ )
^ 1 = t =1
a T
∑ ( x t − x̄ )2
t =1
^ 0 = ȳ− a^ 1 x̄
a
(2.6)
Estimatorii
a^ 0 şi a^ 1 sunt variabile aleatoare, deoarece sunt funcţii de Y, care este o variabilă
aleatoare prin intermediul lui ε .
Vom demonstra în acest paragraf că ţinând cont de ipotezele din paragraful 2.3,
estimatorii obţinuţi prin metoda patratelor minime sunt nedeplasaţi şi convergenţi. Pentru
y t =a 0 +a 1 xt + ε t (2.8)
30
Înlocuind
y t − ȳ din expresia de mai sus în formula lui a^ 1 , avem :
T
∑ [ a1 ( x t − x̄ )+( ε t − ε̄ ) ]( x t − x̄ )
a^ 1 = t =1 T
∑ ( x t − x̄ )2
t=1 (2.11)
T
∑ ( x t − x̄ )( ε t −ε̄ )
a^ 1 =a 1 + t=1 T
∑ ( x t − x̄ )2
t =1 (2.12)
T
ε̄ ∑ ( x t − x̄ )=0
Din ipotezele asupra modelului, deducem că t =1 , deci putem scrie :
T
∑ ( x t − x̄ ) ε t
t=1
a^ 1 =a 1 + T
∑ ( x t − x̄ )2
t =1 (2.13)
{ ȳ=^a1 x̄ + a^ 0
ȳ =a1 x̄ +a0 + ε^
(2.14)
De unde deducem:
ii)
a^ 0 şi a^ 1 sunt estimatori nedeplasaţi ai lui a0 şi a1
( x t − x̄ )
ωt = T
∑ ( x t − x̄ )2
t=1 (2.16)
T
a^ 1 =a 1 + ∑ ω t ε t
t =1 (2.17)
31
De unde :
T
E( a^ 1 )=a1 + ∑ ωt E( ε t )
t=1
E( a^ 1 )=a1 (2.18)
T
1
E( ε̄ )= ∑ E (ε t )=0
Dar T t =1 ^
şi E( a 1−a1 )=0 , deci:
E( a^ 0 )=a0 (2.20)
iii)
a^ 0 şi a^ 1 sunt estimatori convergenţi ai lui a0 şi a1
Cunoaştem că dacă un estimator este nedeplasat, pentru ca el să fie convergent este necesar ca
varianţa lui să tindă la 0. În cazul nostru,
lim V ( a^ 0 )=0
T →∞
lim V ( a^ 1 )=0
T →∞
demonstra (Giraud şi Chaix, 1994, Green, 2007, Wooldridge, 2005) că varianţa lui a^ 1 se poate
scrie sub forma:
2
σε
V ( a^ 1 )= T
∑ ( xt − x̄ )2
t=1 (2.21)
2
σε
V ( a^ 1 ) → →0
T → ∞ Ts 2
(2.22)
P
a^ 1 → a1
T →∞ (2.23)
[ ]
1 x̄ 2
V ( a^ 0 )=σ 2ε +
T T
∑ (x t − x̄ )2
t=1
(2.24)
1
→0
Atunci când T →∞ , T şi în consecinţă :
1 1
T
→ →0
Ts 2
∑ ( x t − x̄ )2
t =1
deci :
V ( a^ 0 ) → 0
T →∞ (2.25)
şi
a^ 0 converge în probabilitate spre a0 :
P
a^ 0 → a0
T→∞ (2.26)
33
Cov( a^ 0 , a^ 1 )=E [( a^ 0 −a 0 )( a^ 1 −a1 )]
=E[( a^ 1 −a1 )( ε̄− x̄ ( a^ 1 −a1 ))]
=E[( a^ 1 −a1 ) ε̄− x̄ ( a^ 1−a1 )2 ]
^
Dar E[( a1 −a1 ) ε̄ ] , deci:
σ 2ε x̄
Cov( a^ 0 , a^ 1 )=− T
∑ ( x t − x̄ )2
t =1 (2.27)
Notăm
Ω(a^ , a^ )≡
0 1 ( V ( a^ 0 )
Cov ( a^ 0 , a^ 1 )
Cov ( a^ 0 , a^ 1 )
V ( a^ 1 ) ) a^
matricea de varianţe şi covarianţe a lui 0 şi a^ 1 .
( )
1 x̄ 2 x̄
+ −
T T T
2
∑ ( x t − x̄ )2 ∑ ( x t − x̄ )2
Ω(a^ =σ ε
t =1 t=1
0,a
^ 1)
x̄ 1
− T T
∑ ( x t − x̄ )2 ∑ ( x t − x̄ )2
t =1 t=1
(2.28)
T
1
σ^ 2ε = ∑ ^ε2
T −2 t=1 t (2.29)
2 2
^
Deoarece se poate arăta că E( σ ε )=σ ε , estimatorul este nedeplasat.
34
Ipoteza de normalitate a erorilor nu e absolut necesară pentru a obţine estimatori convergenţi, dar
ea permite construirea unor teste statistice privind validitatea modelului.
T
1
2 σ^ 2ε = ∑ ^ε 2t
Dacă ε t ≈ N (0 , σ ε ) şi T −2 t =1 atunci se pot deduce următoarele:
σ^ 2ε
(T −2) ≈ χ (2T −2) 2
1) σ 2ε (o distribuţie χ cu T-2 grade de libertate)
a^ 0 −a 0 a^ 1 −a1
≈N ( 0,1 ) ≈ N (0,1)
σ a^ σ a^
2) 0 şi 1 (o distibuţie normală de medie nulă şi varianţă unitară)
a^ 0 −a 0 a^ 1 −a1
σ^ a^ σ^ a^
3) 0 şi 1 urmează o distribuţie Student cu T-2 grade de libertate
1
F= ¿ ¿
4) 2 (o distribuţie Fisher-Snedecor cu 2 şi
respectiv T-2 grade de libertate).
Ţinând cont de de aceste distribuţii se pot construi teste şi regiuni de încredere pentru coeficienţi:
pentru
a0 (sau a1 ) :
Prob |
{ a^ 0 −a 0
σ^ a^
0
}
|≤t α =1−α
(2.30)
unde
t α este extras din distribuţia Student cu T-2 grade de libertate. Sau sub o formă echivalentă:
35
Prob ¿ ¿ (2.32)
¿
Pentru a testa simultan două valori oarecare
a0 şi a¿1 , anterior alese, le vom substitui lui a0 şi
a1 în expresia lui F. Dacă:
¿ ¿ α
F( a0 , a1 )≤F (2 ;T −2 ) (2.33)
Vom demonstra mai întâi două relaţii din care vom putea deduce ecuaţia de
analiză a varianţei:
T
∑ εt =0 y t =a^ 0 + a^ 1 xt + ε t ,
1) Suma reziduurilor este nulă, respectiv: t=1 . Pornind de la ecuaţia
din care însumând după t, obţinem:
T T T T
∑ y t =∑ a^ 0 +a^ 1 ∑ xt + ∑ εt
t =1 t=1 t=1 t=1
T T T
∑ y t −n a^ 0−a^ 1 ∑ x t =∑ ε t
t =1 t=1 t =1
36
T
2) Media (suma) seriei variabilei endogene este egală cu media (suma) seriei ajustate:
T T T T T T
∑ y t =∑ ^y t y − ȳ=ε t , ∑ y t −∑ ^y t =∑ ε t ∑ εt =0
t =1 t=1 şi t t =1 t=1 t=1 , dar t=1 , deci :
T T
∑ y t =∑ ^y t ȳ t = ^ȳ t
t=1 t =1 sau
T T T
∑ ( y t − ȳ)2=∑ ( ^yt − ^ȳ)2+∑ ε2t
t=1 t=1 t=1
SPT = SPE + SPR (2.34)
T T T
1 1 1
T
∑ ( y t − ȳ )2= T
∑ ( ^y t − ^ȳ )2 + T
∑ ε2t
t =1 t=1 t =1
VT = VE + VR (1.35)
Această ecuaţie ne permite să apreciem calitatea ajustării unui model. Cu cât varianţa
explicată este mai aproape de cea totală, cu atât norul de puncte este mai apropiat de dreapta de
regresie estimată prin metoda patratelor minime. Se calculează şi raportul dintre varianţa
explicată şi varianţa totală.
T T
∑ ( ^y t − ȳ )2 ∑ ε 2t
R2 = t =1
T
=1− T
t =1
∑ ( y t − ȳ )2 ∑ ( y t − ȳ )2
t =1 t =1 (2.36)
2
unde R se numeşte coeficient de determinaţie, iar R coeficient de corelaţie multiplă (coincide
cu coeficientul de corelaţie liniară simplă în cazul unei singure variabile explicative).
Analiza varianţei pentru o regresie liniară simplă se poate reprezenta schematic astfel:
37
Tabelul 2.1 : Analiza varianţei
Total SPT =∑ ( y t − ȳ )2 T −1
t =1
Numărul gradelor de libertate corespunde numărului de valori ce pot fi alese arbitrar (numărul de
valori minus numărul de restricţii).
SPE /1
F=
SPR/(T −2 ) (2.37)
2
R
F= 2
(1−R )/(T −2 ) (2.38)
0 ,05
Dacă de exemplu pentru un prag de semnificaţie α=0 ,05 avem
F>F (1 ,T −2 ) , respingem ipoteza
Dacă parametrii modelului au fost estimaţi, se pot realiza previziuni ale variabilei
endogene Y, pentru valori date ale variabilei exogene X. Presupunem că dorim să
38
realizăm o previziune la momentul t+1 sau pentru unitatea statistică t+1. Valoarea previzionată a
lui Y, conform modelului va fi:
p
y t+1 =a^ 0 + a^ 1 x t+1 (2.39)
p
ε t +1 = y t +1 − y t+1 =( a^ 0 −a0 )+( a^ 1 −a1 ) xt +1 −ε t+1 (2.41)
p
E( y t+1 − y t+1 )=0 (2.42)
p
V ( y t+1 − y t+1 )=E( y tp+1 − y t+1 )2
=E( a^ 0−a0 )2 +x 2t+1 E( a^ 1−a1 )2
+E (ε 2t+1 )+2 x t +1 E [( a^ 0 −a 0 )( a^ 1−a1 )] (2.43)
^ ^
deoarece Cov( a0 , ε t +1 )=0 şi Cov( a1 , ε t+1 )=0 .
2
^ ^ ^ σ
Înlocuind V ( a0 ) , V ( a1 ) şi Cov( a0 , a1 ) şi notând cu εt +1 varianţa erorii de previziune, după
^
[ ]
2
2 1 (x t +1 − x̄ )
2
σ ε =σ 1+ + T
ε
t +1 T
∑ ( xt − x̄)2
t =1
(2.44)
2
^2
Dar σ ε este necunoscut şi se estimează prin σ ε , deci varianţa erorii de previziune se estimează
prin:
[ ]
2
2 1 (x t +1 − x̄ )
2
σ^ ε =σ^ 1+ + T
ε
t +1 T
∑ ( xt − x̄ )2
t =1
(2.45)
39
Se observă că varianţa este cu atât mai redusă (şi implicit previziunea mai precisă) cu cât
y 18
16
14
ȳ 12
^y = a^ 0 + a^ 1 x
10
550 600 650 700 750 800 850 900 950 1000 1050
x̄ x t+1 x
Dacă
ε t are o distribuţie normală, şi a^ 0 −a0 , respectiv a^ 1 −a 1 sunt normal distribuite, deci:
p
y t +1− y t +1
≈ N (0,1)
σε
t+1 (2.46)
p
y t +1− y t +1
σε σ^ ε σ^ ε
Dar t +1 este înlocuit prin estimatorul său t +1 , deci expresia t+1 urmează o distribuţie
x
Student, cu T-2 grade de libertate. Pentru un prag de semnificaţie α şi o anumită valoare t+1
putem construi un interval de încredere a valorii previzionate a variabilei endogene:
(
Prob ^y t +1 −t Tα −2 σ^ ε ≤ y t +1 ¿ ^y t +1 +t αT −2 ^ σ ε
t +1 t+1 ) =1−α (2.47)
40
Aplicaţie privind modelul liniar simplu
Notăm:
y t = cererea (variabila endogenă) x 1t = venitul x 2t = preţul
1) În ipoteza unei legături liniare între cerere şi venit, să se calculeze estimatorii parametrilor
a^ 0
şi a^ 1 .
2) Parametrii
a0 şi a1 sunt semnificativ diferiţi de 0 ?
41
1) Un grafic adecvat, de exemplu norul de puncte permite evidenţierea legăturii dintre cele două
variabile:
20
18
16
14
12
cerere (Y)
10
0
400 500 600 700 800 900 1000 1100
venit (X1)
20 20 20
1 1
ȳ=
20
∑ y t =12,535 x̄=
20
∑ x t =791,65 ∑ ( xt − x̄ )2=435358,6
t=1 , t=1 , t =1 ,
20
∑ ( xt − x̄ )( y t − ȳ )=3396,345
t=1
20
∑ ( x t − x̄ )( y t − ȳ )
a^ 1 = t =1 20
=0 , 007801
⇒
∑ ( x t − x̄ ) 2
t =1
Desigur aceste calcule se pot face foarte repede, utilizând soft-ware adecvat de statistică şi
econometrie: SPSS, Stata, SAS, Eviews, Limdep, etc.
2) Este foarte important să testăm îndeosebi nulitatea parametrului a1 , deoarece dacă el nu este
semnificativ diferit de 0, variabila « venit » nu poate fi considerată explicativă pentru variabila
endogenă « cerere ». Formulăm o ipoteză nulă, cu alternativa ei:
H 0 :a 1=0
H 1 :a1 ≠0
42
Dacă respingem ipoteza
H 0 la un prag de semnificaţie α fixat, a1 este considerat semnificativ
diferit de 0. Pragul cel mai adesea utilizat este α=0 ,05 adică un risc de eroare de 5%.
a^ 1 −a1
σ^ a^
Cunoaştem că: 1 urmează o distribuţie Student cu T-2 grade de libertate
a^ 1 −0 a^ 1
= =t ^a
H 0 , relaţia devine: σ^ a^ σ^ a^ 1
Sub ipoteza 1 1 care urmează o distribuţie Student cu 20-2=18
σ^
grade de libertate. a^ 1 =0 , 0078 a fost calculat la punctul precedent, iar expresia lui ^a1 se
cunoaşte din relaţia 1.28, respectiv:
T
1
2
σ^ ε
∑
T −2 t =1
ε^ 2t
σ^ 2^a = T
= T
1
∑ ( x t − x̄ ) ∑ ( xt − x̄ )2
2
t=1 t =1
2
Nr. crt. yt ^y t =6, 359+0,0078⋅x t ε^ t ε^ t
1 11,7 12,42 -0,72 0,518
2 9,3 12,615 -3,315 10,989
3 13,4 11,312 2,088 4,36
4 16,1 13,785 2,315 5,359
5 14,5 14,143 0,357 0,127
6 11,9 14,065 -2,165 4,687
7 9,0 10,93 -1,93 3,725
8 16,1 11,491 4,609 21,243
9 11,0 10,415 0,585 0,342
10 15,8 13,847 1,953 3,814
11 11,0 12,708 -1,708 2,917
12 7,6 12,607 -5,007 25,07
13 12,6 12,349 0,251 0,063
14 16,4 13,886 2,514 6,32
15 9,4 14,081 -4,681 21,912
16 17,6 12,646 4,954 24,542
17 12,9 12,755 0,145 0,021
18 5,3 10,672 -5,372 28,858
19 14,6 11,694 2,906 8,445
20 14,5 12,256 2,244 5,036
20
∑ ε^ 2t
t =1 178,348
σ^ 2ε = = =9,9082
T −2 20−2
43
ceea ce ne permite să calculăm varianţa estimată a lui a^ 1 :
σ^ 2ε 9 , 9082
σ^ 2^a = T
= =0 , 0000 22759
1 435358,6
∑ ( x t − x̄ )2
t=1
σ^ ^a =√ 0 , 0000 22759=0,0047706
şi respectiv: 1
1. 95
1. 45
0. 95
α α
% %
0. 45
2 2
-0.05
−∞ ∞
a1
a^ 1 0 ,05
=t a^ ¿ t n−2
σ^ a^ 1
H 0 , coeficientul a1 este semnificativ diferit de 0
dacă 1 respingem ipoteza
a^ 1 0 , 007801
t ^a1 = = =1 , 64
σ^ a^ 0,0047706 t 180,05=2 ,101
1
t ^a1 ≤t 018, 05
ceea ce înseamnă că din punct de vedere statistic, a1 =0 .
44
3) Pentru construirea intervalului de încredere pentru a1 =0 , cunoaştem că:
[∑ ]
T T 2
∑ ( x t − x̄ )( y t − ȳ ) ( x t − x̄ )( y t − ȳ )
t =1 t =1
r= r2=
√
T T T T
∑ ( x t − x̄ )2⋅∑ ( y t − ȳ )2 ∑ ( x t − x̄ )2⋅∑ ( y t − ȳ )2
t =1 t =1 , de unde: t =1 t =1
T
∑ ( x t − x̄ )( y t − ȳ )
a^ 1 = t =1 T
∑ ( x t − x̄ )2
Dar: t =1
T
a^ 1 ∑ ( x t − x̄ )( y t − ȳ )
2 t =1 SPE
r = = =R 2
T SPT
∑ ( y t − ȳ )2
De unde putem deduce: t =1
deci pentru regresia liniară simplă, coeficientul de determinaţie este patratul coeficientului de
corelaţie liniară simplă.
2 2
R r
F= 2
= 2
=(t∗)2
(1−R )/(T −2 ) (1−r )/(T −2)
de unde deducem:
45
r √T −2
t∗¿
√ 1−r2 care urmează o distribuţie Student cu T −2 grade de libertate.
Aceasta permite să testăm dacă relaţia dintre Y şi X este semnificativă, sau în mod echivalent
dacă r este semnificativ diferit de 0.
r √ 18
t∗¿ 1 ,64=
√ 1−r2 ⇒
2
r =0 ,1293 ⇒ |r|=0,3596
5) Pentru tabloul de analiză a varianţei, calculăm:
20 20 20
SPE=∑ ( y^ i − ȳ ) =26,4957 SPR=∑
2
ε 2t =178,349 SPT =∑ ( y i− ȳ )2=204,845
t =1 t=1 t=1
SPE/1
F∗¿ =2 , 67
SPR/(20−2) . Din tabelele cu distribuţia Fisher-Snedecor avem:
0 , 05 0 , 05
F( 1; 18)=4 , 41 . F∗¿ F(1 ;18 ) deci variabila « venit » nu poate fi considerată ca fiind explicativă
Observaţie
46
H 0 :a 1=0 H 0 :r x, y=0 H 0 : SPE=0
| | |
H 1 :a1 ≠0 ⇔ H 1 :r x , y ≠0 ⇔ H 1 :SPE≠0
Problema a fost rezolvată până aici într-o manieră didactică, cu calcule făcute fără a utiliza
programe informatice de specialitate. Prin software-ul STATA, de exemplu, toate aceste
rezultate sunt furnizate imediat. Informaţiile de bază redate pentru o regresie simplă, fără a
utiliza opţiuni suplimentare sunt următoarele:
-------------------------------------------------------------
cerere | Coef. Std.Err. t P>|t| [95% Conf.Interv.]
---------+---------------------------------------------------
venit | .007801 .004770 1.64 0.119 -.00222 .01782
cons | 6.35913 3.84170 1.66 0.115 -1.7119 14.430
-------------------------------------------------------------
Prima linie a rezultatelor declară variabilele asupra cărora s-a efectuat regresia.
F(1, 18) = 2.67 este de asemenea o valoare calculată identică cu cea obţinută de noi anterior.
Prob > F = 0.1194 ne arată riscul cu care putem accepta SPE≠0 (respectiv în mod echivalent
R≠0 ). Riscul este mai mare decât acel 5% în general acceptat, similar cu ceea ce am
concluzionat anterior.
47
[ ] [ ]
2 20 2
1 (x t +1 − x̄ ) 1 1 ( x t +1− x̄ )
2
σ^ ε =σ^ 1+ + T
t +1 T
2
ε = ∑ ε ¿ 1+ T + T
2
T −2 t =1 t
∑ ( xt − x̄ ) 2
∑ ( x t − x̄ )2
t =1 t=1
[ ]
2
2 1 1 (600−791, 65 )
σ^ ε = ⋅178 ,349⋅ 1+ + =11,2396 σ^ =3,3525
t +1 20−2 20 435358,6 εt +1
(
Prob ^y t +1 −t Tα −2 σ^ ε ≤ y t +1 ¿ ^y t +1 +t αT −2 ^ σ ε
t +1 t +1 ) =1−α , ceea ce pentru o probabilitate de 95% devine:
Prob ( 11 , 0396−2 ,09⋅3 ,3525≤ y t+1 ≤11, 0396+ 2, 09⋅3 ,3525 ) =95 %
,
Prob ( 4 , 03≤ y t+1≤19, 05 ) =95 %
Intervalul de încredere este foarte larg, nesatisfăcător, datorită varianţei reziduale mari.
[ ]
2
1 1 (800−791 ,65 )
σ^ 2ε = ⋅178 ,349⋅ 1+ + =10,4053 σ^ =3,2257
t +2 20−2 20 435358,6 εt +2
Intervalul de încredere este mai îngust decât cel obţinut anterior, deoarece
x t+2=800 se apropie
mai mult de x̄=791,65 , dar este tot nesatisfăcător, datorită varianţei reziduale mari.
7) Pentru regresia liniară simplă dintre cerere şi preţ nu detaliem calculele, ci le lăsăm la
latitudinea cititorului. Prezentăm doar rezultatele estimaţiilor obţinute prin utilizarea programului
STATA.
48
Model | 49.3031 1 49.3031 Prob > F = 0.0281
Residual | 155.542 18 8.64124 R-squared = 0.2407
---------+------------------------ Adj R-squared = 0.1985
Total | 204.845 19 10.7813 Root MSE = 2.9396
-------------------------------------------------------------
cerere | Coef. Std.Err. t P>|t| [95% Conf.Interv.]
---------+---------------------------------------------------
pret |-1.18353 .4954869 -2.39 0.028 -2.2245 -.14255
cons | 20.8493 3.542316 5.89 0.000 13.407 28.291
-------------------------------------------------------------
49
Modulul 3. MODELUL LINIAR MULTIPLU
t indexează observaţiile
T numărul de observaţii
a0 ,a1 ,a2 ,...,ak parametrii de estimat ai modelului.
Sub forma din ecuaţia 3.1 modelul este greu de utilizatat, fapt pentru care vom prefera o
formă mai condensată, matricială. Dacă rescriem modelul observaţie cu observaţie, obţinem:
Y ¿ ¿
( T , 1) ¿ (3.2)
() ( ) () ()
y1 1 x 11 x 21 .. . xk 1 ε1
y2 1 x 12 x 21 .. . xk 2 a0 ε2
a1
Y = .. . X = . .. . . . .. . .. . . .. ε = . ..
yt 1 x 1t x 2 t .. . x kt a= a εt
2
.. . . .. . . . .. . .. . . .. . .. . ..
yT 1 x 1 T x2 T .. . x kT ak εT
unde:
Y = X⋅a+ ε
T
min ∑ ε 2t =min (ε ' ε )
t=1
=min (Y −Xa )' (Y −Xa )
=min (Y ' Y −Y ' Xa−a' X ' Y +a ' X ' Xa)
=min (Y ' Y −2 a ' X ' Y +a ' X ' Xa ) (3.3)
unde : ε ' este vectorul transpus al lui ε ; a' este vectorul transpus al lui a ; Y ' este vectorul
transpus al lui Y ; X ' este transpusa matricii X .
51
∂S
=−2 X ' Y +2 X ' X a^ =0
∂a (3.4)
−1
⇒ a^ =( X ' X ) X ' Y (3.5)
Această soluţie este realizabilă dacă matricea patratică X ' X este inversabilă. Matricea este este
neinversabilă doar în caz de coliniaritate perfectă între oricare două variabile explicative.
2
H7 : ε t ≈ N (0 , σ ) ∀t
Pe lângă aceste ipoteze întâlnite şi la modelul liniar simplu, mai avem şi ipoteze structurale, care
ţin de forma modelului:
H8 : variabilele explicative nu sunt coliniare. Aceasta implică existenţa matricei inverse a lui
−1
( X ' X ) , respectiv ( X ' X ) ;
(X' X)
H9 : T tinde spre o matrice finită nesingulară ;
H10 : T > k +1 , adică numărul de observaţii este mai mare decât numărul de variabile
explicative plus constanta.
În cazul T > k +1 s-ar obţine un sistem de ecuaţii nedeterminat.
52
În cazul T =k +1 s-ar obţine un sistem de T ecuaţii cu T necunoscute perfect
determinat.
Y = X⋅a+ ε
Y^ = X⋅a^
Obţinem:
−1
⇒ E( a^ )=a+( X ' X ) X ' E( ε)=a (3.7)
E( a^ )=a (3.8)
−1
Ωa^ =E [( a^ −a)( a−a
^ ) ] (3.9)
53
−1
a^ −a=( X ' X ) X ' ε
şi deci:
−1
( a^ −a )'=ε ' X ( X ' X )
−1
deoarece ( X ' X ) este o matrice simetrică.
−1 −1
( a^ −a )( a^ −a)'=( X ' X ) X ' εε ' X ( X ' X )
de unde obţinem:
−1 −1
Ωa^ =( a^ −a)( a−a
^ )'=( X ' X ) X ' E(εε ' ) X ( X ' X ) (3.10)
Notând cu: E(εε ' )=Ωε matricea varianţelor şi covarianţelor lui ε şi ţinând cont de ipotezele de
homoscedasticitate (varianţa erorilor constantă) şi de independenţa a erorilor, avem:
( )( )
E( ε 1 ε 1 ) E (ε 1 ε 2 ) . .. E ( ε1 ε T ) σ 2ε 0 ... 0
E( ε 2 ε 1 ) E (ε 2 ε 2 ) . .. E ( ε2 ε T ) 0 σ 2ε ... 0
Ωε =E ( εε ' )= =
.. . .. . . .. ... . .. . .. ... ...
E( ε T ε 1 ) E( ε T ε 2 ) . .. E ( εT εT ) 0 0 0 σ 2ε
de unde:
2 −1 −1
Ωa^ =σ ε ( X ' X ) X ' X ( X ' X )
Fără a prezenta aici calculele, se poate demonstra (vezi Dormont, 1999) că un estimator
2
nedeplasat al lui σ ε este:
ε' ε
σ^ 2ε =
T −k −1 (3.12)
Înlocuind varianţa erorilor prin estimatorul său în expresia matricei de varianţe şi covarianţe a
coeficienţilor (3.11), obţinem:
54
−1
Tot fără a demonstra aici, menţionăm că estimatorul obţinut prin a^ =( X ' X ) X ' Y este BLUE
(Best Linear Unbiased Estimator), adică este nedeplasat şi are varianţe minime ale estimatorilor.
a^ i−ai
2 ≈N (0,1)
σ a^
Din ipoteza de normalitate a erorilor ε t ≈ N (0 , σ ) rezultă : i
σ^ a^ i
2
2
(T −k −1) 2
¿ χ (T−k−1 )
σ a^
i ca fiind suma patratelor unei variabile aleatoare normale. Ca urmare,
a^ i−ai
σ^ a^
i este raportul dintre o variabilă normală şi rădăcina patrată a unei variabile care urmează
2
o distribuţie χ , deci:
a^ i−ai
≈Student (T−k−1 )
σ^ a^
i (3.14)
1 ^ −1
( a^ −a )' Ω ^a ( a^ −a )≈ χ ( k+1 ) şi k +1 ( a^ −a)' Ωa^ ( a^ −a)≈ Fisher(k +1 ;T −k−1)
−1 2
Testăm egalitatea unui coeficient cu o valoare dată a∗¿¿ (utilizăm această notaţie, deoarece am
notat cu a vectorul parametrilor.
H0:ai=a∗¿¿H1:ai≠a∗
55
a^ i−ai
≈Student (T−k−1 )
σ^ a^ H 0 , rezultă:
Ştim din 2.14 că i . Sub ipoteza
|^ai −a i| ¿
=t a^ i ¿ Student (T −k−1)
σ^ a^
i (3.15)
|^ai| ¿
=t ^ ¿ Student (T −k−1)
σ^ a^ ai
i (3.16)
Testăm simultan egalitatea unui ansamblu de coeficienţi din modelul de regresie cu un ansamblu
de valori fixate.
¿
H 0 :a m=a m
¿
H 1 :am ≠am
¿
Efectuăm testul cu privire la m a a
coeficienţi, deci m şi respectiv m sunt vectori de dimensiune
m :
¿
F¿^a ¿ F α(m ;T −k−1) H 0 , deci am nu este semnificativ diferit de am (cu un risc de
- dacă m acceptăm
α% )
56
¿
F¿^am ¿ F α(m ;T −k−1)
respingem 0 , deci m este semnificativ diferit de am (cu un risc de
- dacă
H a
α % ).
Desigur şi pentru testul cu privire la un ansamblu de coeficienţi, dorim să testăm cel mai adesea
nulitatea lor. Testul devine:
H 0 :a m=0m
H 1 :am ≠0m
unde
0m este vectorul nul de dimensiune m :
T
∑ εt =0
t=1 .
2) Media (suma) seriei variabilei endogene este egală cu media (suma) seriei ajustate:
T T
∑ y t =∑ ^y t ȳ = ^ȳ
t=1 t =1 , t t
T T T
∑ ( y t − ȳ)2=∑ ( ^yt − ^ȳ)2+∑ ε2t
t=1 t=1 t=1
SPT = SPE + SPR (3.20)
57
Suma patratelor totală (SPT) = Suma patratelor explicată (SPE) +
Ecuaţia ne permite să apreciem global calitatea ajustării modelului. Aceasta este cu atât
mai bună cu cât varianţa (suma patratelor) reziduală este mai mică. Pentru că valoarea ei depinde
de unitatea de măsură a variabilei, preferăm un parametru adimensionat:
T T
∑ ( ^y t − ȳ )2 ∑ ε 2t
t =1 t =1
R2 = T
=1− T
∑ ( y t − ȳ )2 ∑ ( y t − ȳ )2
t =1 t =1 (3.21)
2
care este de fapt raportul dintre varianţa explicată şi cea totală. R se numeşte coeficient de
determinaţie, iar R coeficient de corelaţie liniară multiplă.
Ştim că dacă numărul de observaţii T este egal cu numărul de variabile explicative plus
constanta (k+1) funcţia trece prin toate punctele de coordonate reprezentate de observaţii.
Abaterile fiind nule, coeficientul de determinaţie va fi egal cu 1, dar puterea explicativă a
modelului este nulă. Atunci când numărul de observaţii este relativ mic în raport cu numărul de
2 2
variabile explicative calculăm un R corectat, pe care îl notăm cu R̄ :
T −1
R̄2 =1− (1−R 2 )
T −k −1 (3.22)
model în care numai termenul constant este semnificativ nu are sens economic. Dacă ipoteza
H0
este acceptată înseamnă că nu există nici o relaţie liniară semnificativă între variabila endogenă
şi cele explicative, adică SPE nu este semnificativ diferită de 0. Pe baza ecuaţiei de analiză a
varianţei:
T T T
∑ ( y t − ȳ ) =∑ ( ^y t − ^ȳ )2 + ∑ ε 2t
2
t =1 t =1 t=1
58
construim tabloul de analiză a varianţei:
Total SPT =∑ ( y t − ȳ )2 T −1
t=1
Se construieşte raportul:
[ ]
T
∑ ( ^y t − ȳ )2 / k 2
t =1 R /k
F∗¿ =
[∑ ]
2
T ( 1−R )/( T −k −1)
ε 2t /( T −k−1 )
t =1 (3.23)
α
- dacă
F∗¿ F( k, T−k−1) respingem ipoteza H 0 , modelul este global explicativ;
α
- dacă
F∗¿ F( k, T−k−1) acceptăm ipoteza H 0 , modelul nu este global explicativ.
59
« bărbat / femeie » sau « a mai avut / nu a mai avut accident ». Pentru a modela astfel de
fenomene apelăm la variabile indicatoare, care pot lua doar două valori: 0 sau 1. Modelul de
regresie diferă după apariţia / neapariţia fenomenului doar prin valoarea unui coeficient, iar
ceilalţi coeficienţi rămân identici.
Putem scrie aceste două ecuaţii sub forma unei ecuaţii unice:
unde:
Dt =1 atunci când fenomenul există ;
ε t +1 = y t +1 − ^y t+1 (3.30)
60
Valoarea estimată
^y t+1 este nedeplasată dacă ipotezele modelului liniar multiplu sunt respectate.
Previziunea se poate realiza astfel doar dacă valorile variabilelor explicative sunt
cunoscute cu exactitate. În cazul în care acestea sunt probabiliste este necesară o altă abordare.
Este cazul seriilor de timp de exemplu pentru care s-a dezvoltat o teorie diferită.
()
1
x1 t+1
X t +1 = x2 t+1
.. .
x kt +1
unde este matricea (vectorul) valorilor variabilelor explicative pentru observaţia
t+1 .
Expresia varianţei erorii de previziune a fost dată fără demonstraţie. Pentru detalii privind
deducerea ei vezi Dormont (1998).
σ 2ε
Eroarea de previziune este distribuită normal de medie nulă şi varianţă t +1 :
ε t +1 ≈N ( 0 , σ 2ε )
t+1
2
Dacă înlocuim σ ε cu estimatorul său:
T
1
σ^ 2ε = ∑ ε2
T −k −1 t =1 t
atunci:
^y t+1 − y t +1
≈Student (T −k−1)
σ^ ε [1+ X ' t +1 ( X ' X )−1 X t +1 ]
2
(3.32)
Ca şi la modelul liniar simplu, varianţa erorii de previziune este cu atât mai mică cu cât varianţa
reziduală este mai mică şi valorile variabilelor explicative se apropie de mediile lor. Putem
construi şi un interval de încredere pentru valoarea previzionată a variabilei endogene:
(
Prob ^y t +1 −t Tα −k−1 σ^ ε ≤ y t +1 ¿ ^y t+1 +t αT−k−1 ^ σ ε
t+1 t +1 ) =1−α (3.33)
61
unde:
√
T
1
σ^ ε = ∑ ε 2t ¿ [ 1+ X ' t +1 ( X ' X )−1 X t+ 1 ]
t +1 T −k−1 t =1 (3.34)
62
Aplicaţie privind modelul liniar multiplu
Presupunem că o variabilă
y t este influenţată de factorii x 1t , x 2t , x 3t . Dispunem de 23 de
observaţii cu privire la realizările acestor variabile.
Tabelul 3.2
Nr. yt x 1t x 2t x 3t Nr. yt x 1t x 2t x 3t
crt. crt.
1 163 669 17,4 69 13 295 869 10,3 67
2 381 872 10,5 75 14 256 824 17,5 88
3 455 1191 14,3 64 15 309 676 13,0 64
4 451 933 12,5 85 16 286 885 13,2 67
5 373 668 15,3 90 17 379 1179 11,8 60
6 321 733 13,8 61 18 425 1161 13,9 86
7 316 933 15,0 85 19 404 1074 11,5 64
8 410 1165 10,7 74 20 330 775 16,0 89
9 348 932 8,2 70 21 354 752 8,9 76
10 383 840 8,1 66 22 384 740 15,1 85
11 386 901 12,0 87 23 233 590 9,3 62
12 163 669 17,4 64
Se cere:
2 2
5) Să se calculeze R şi R̄ .
63
1) Conform relaţiei 3.5 estimatorii parametrilor se obţin prin:
−1
a^ =( X ' X ) X ' Y
( )( ) ( )( )
1 x 11 x 21 x 31 1 669 17 , 4 69 y1 163
1 x 12 x 22 x 32 1 872 10 ,5 75 y 381
X= = Y= 2 =
. .. . . . .. . .. . .. . .. . .. . .. . .. . .. .
1 x 1 T x2 T x 3T 1 590 9,3 62 yT 233
, unde T =23 .
[( )] (
−1
)( )( )
1 1 ... 1 1 669 17,4 69 1 1 . .. 1 163
a^ = 669 872 ... 590 ⋅ 1 872 10,5 75 ⋅ 669 872 . .. 590 ⋅ 381
17 ,4 10 ,5 ... 9,3 ... ... ... ... 17,4 10, 5 . .. 9,3 ...
69 75 ... 62 1 590 9,3 62 69 75 . .. 62 233
( )
20,530
0,2643
a^ =
-11,065
3,1281
ε' ε
σ^ 2ε =
T −k −1
64
Tabelul 3.3 : Calculul reziduurilor din estimare
23 23
ε' ε 1 1
σ^ 2ε = = ∑
T −k −1 T −k−1 t =1
ε 2t = ∑ ε 2t 2
19 t =1 , σ^ ε =2494,055
[( )]
−1
)(
1 1 .. . 1 1 669 17 , 4 69
Ω^ a^ =σ^ 2ε ( X ' X )−1 =2494 , 055⋅ 669 872 .. . 590 ⋅ 1 872 10 , 5 75
17 , 4 10 , 5 .. . 9,3 . .. . .. . .. . ..
69 75 .. . 62 1 590 9,3 62
( )
9656,855 -3,557957 -137,9706 -63,33703
-3,557957 0,0035984 0,049006 -0,002791
Ω^ a^ =
-137,9706 0,049006 15,91290 -1,480421
-63,33703 -0,002791 -1 . 480421 1,148658
α 0, 05
t T −k−1 =t 23 =2 , 093
65
Pentru parametrul
a0 :
|^a 0| 20 , 53
= =0 , 21<2 ,093
σ^ a^ √ 9656 , 855 a0 nu este semnificativ diferit de 0.
0 şi acceptăm că
α
Prob( a^ i−t T −k −1 σ^ a^ i ≤ai ¿ a^ i +t T −k−1 ^ σ a^ i )=1−α
α
Prob( a^ 0 −t 0, 05
^ ^ 0 +t 019, 05 ^ σ a^ )=0 , 95
19 σ a^ 0≤a0 ¿ a 0
Pentru parametrul a1 :
|^a1| 0 , 2643
= =4 , 41>2 ,093
σ^ a^ √ 0 ,0035984
1 şi acceptăm că a1 este semnificativ diferit de 0.
Pentru parametrul a2 :
|^a 2| 11 , 065
= =2, 77>2 , 093
σ^ a^ √ 15,9129
2 şi acceptăm că a2 este semnificativ diferit de 0.
Pentru parametrul
a3 :
|^a 3| 3 , 1281
= =2 , 92> 2, 093
σ^ a^ √ 1,1486 a3 este semnificativ diferit de 0.
3 şi acceptăm că
66
Prob( 0,884≤a 3≤5,371 )=0 , 95
4) La latitudinea cititorului.
2
5) Pentru calculul lui R folosim formula:
T T T
∑ ( ^y t − ȳ )2 ∑ ε 2t ∑ ε 2t
47387,05
R2 = t =1 =1− t =1
R2 =1− t =1
=1− =0,6623
T T T 140311,2
∑ ( y t − ȳ )2 ∑ ( y t − ȳ )2 ∑ ( y t −339, 35 )2
t =1 t =1 , t =1
2 2
Pentru calculul lui R corectat, notat cu R̄ , folosim:
T −1 23−1
R̄2 =1− (1−R 2 ) R̄2 =1− (1−0 , 6623)=0 , 6089
T −k −1 23−3−1
23 23 20
SPE=∑ ( y^ i − ȳ ) =92924,15 2
SPR =∑ ε 2t =47387,05 SPT =∑ ( y i− ȳ )2=140311,2
t=1 , t =1 , t =1
[∑ ]
T
( ^y t − ȳ )2 / k
2
t =1 R /k
F∗¿ =
[∑ ]
T 2
( 1−R )/( T −k −1)
ε 2t /( T −k−1 )
t =1
67
SPE/3
F∗¿ =4,194
SPR/ 19
α 0 , 05
Din tabelele cu distribuţia Fisher-Snedecor avem:
F( k, T−k −1)=F( 3; 19)=3 ,13
α
F∗¿ F( k, T−k−1) ⇒ respingem ipoteza H 0 , modelul este global explicativ.
^y t+1 =20 ,530+0 ,2643⋅880−11 , 065⋅12 , 5+3 ,1281⋅75 , adică ^y t+1 =349 ,4
( )
α
Prob ^y t +1 −t Tα −k−1 σ^ ε ≤ y t +1 ¿ ^y t+1 +t T−k−1 ^ σ ε t +1 =1−α
t+1
√
T
1
σ^ εt +1=
T −k−1 ∑ e 2t ¿ [ 1+X 't +1 ( X ' X )−1 X t +1 ]
unde: t =1
[( )( )] ( )
−1
1 1 ... 1 1 669 17 ,4 69 1
669 872 ... 590 1 872 10 ,5 75 880
¿ ( 1 880 12 ,5 75 )⋅ ⋅ ⋅ =
17 , 4 10 ,5 ... 9,3 ... ... ... ... 12 ,5
69 75 ... 62 1 590 9,3 62 75
¿0,0453887
√ √
T
1 1
σ^ εt +1= ∑
19 t=1
ε 2t ¿(1+0 , 0453887 )=
19
⋅47387,05⋅1 ,0453887=51 , 061
α 0,05
t T −k−1 =t19 =2 , 09
68
Prob ( 349 , 4−2 , 09⋅51 , 061≤ y t +1 ≤349 , 4 +2 ,09⋅51 ,061 ) =95 %
Aceleaşi rezultate cu privire la model, obţinute prin software-ul STATA sunt următoarele:
. regress Y X1 X2 X3
------------------------------------------------------------
---------+--------------------------------------------------
------------------------------------------------------------
. regress Y X1
69
---------+------------------------ Adj R-squared = 0.4218
------------------------------------------------------------
--------+---------------------------------------------------
------------------------------------------------------------
. regress Y X2
------------------------------------------------------------
---------+--------------------------------------------------
------------------------------------------------------------
. regress Y X3
70
Total | 140311.2 22 6377.78 Root MSE = 78.971
------------------------------------------------------------
---------+--------------------------------------------------
------------------------------------------------------------
Fără a detalia calculele, prezentăm comparativ pentru cele trei modele simple şi pentru modelul
multiplu intervalele de încredere (95%) pentru estimarea variabilei endogene.
2
Variabila Variabile R Interval de Eroare limită Eroare limită
endogenă exogene încredere absolută relativă (%)
Y X1 0,4481 (212,4 ; 471,7) 129,7 37,9
Y X2 0,1451 (181,7 ; 504,5) 161,4 47,0
Y X3 0,0666 (173,0 ; 510,3) 168,6 49,4
Y X1 , X2 , X3 0,6623 (242,7 ; 456,1) 106,8 30,6
Se observă o eroare limită mai mică la modelul multiplu şi deci o estimare mai precisă a
2
variabilei endogene. La modelele simple se observă o precizie cu atât mai bună cu cât R este
2
mai mare. Acest fapt este perfect coerent, deoarece atât R cât şi eroare de estimare depind în
bună măsură de varianţa reziduală.
71
Unitatea de curs 3.4
Selecţia variabilelor explicative
Un alt exemplu: presupunem că dorim să studiem factorii care determină înscrierea sau
nu a unei persoane în sindicat. Constatăm că în care femeile sunt înscrise într-un sindicat este
mult mai mare decât al bărbaţilor şi concluzionăm că sexul are o influenţă foarte puternică.
Concluzia poate fi greşită, deoarece în sectoarele publice unde acţionează de obicei sindicatele,
procentajul de femei este mult mai mare decât al bărbaţilor şi deci acest factor (sectorul de
activitate) influenţează sau nu înscrierea în sindicat, nu sexul.
Sunt multe astfel de exemple, datorate faptului că în multe cazuri variabilele explicative
sunt corelate între ele. Pentru a estima influenţa fiecărui factor în explicarea rezultatului folosim
corelaţia parţială.
Coeficientul de corelaţie liniară simplă măsoară legătura dintre două variabile, atunci
când influenţa celei de a treia este eliminată.
şi două variabile explicative x 1 şi x 2 putem calcula trei coeficienţi de corelaţie liniară simplă.
R yx
1 - coeficientul de corelaţie liniară între y şi x 1
R yx
2 - coeficientul de corelaţie liniară între y şi x 2
72
Rx x
1 2 - coeficientul de corelaţie liniară între x 1 şi x 2
Dacă dorim să eliminăm influenţa unei variabile, calculăm coeficienţii de corelaţie parţială:
R yx . x
1 2 - coeficient de corelaţie parţială între y şi x 1 , influenţa lui x 2 fiind eliminată
R yx .x
2 1 - coeficient de corelaţie parţială între y şi x 2 , influenţa lui x 1 fiind eliminată
Dacă generalizăm la cazul mai multor variabile, considerăm coeficientul de corelaţie parţială ca
fiind legătura dintre două variabile atunci când influenţa uneia sau mai multor variabile este
eliminată (Bourbonnais, 1998).
respectiv numai
x 3 . Se pot calcula şase coeficienţi de corelaţie parţială de ordinul întâi, respectiv
Cu cât coeficientul de corelaţie parţială este mai mare, cu atât variabila în cauză
contribuie mai mult la explicarea modelului şi respectiv a variabilei dependente. Astfel, corelaţia
parţială ne permite să apreciem necesitatea de a include sau nu o variabilă explicativă în model.
2
2 ti
R yx . x x . . . . xk = 2
i 1 2
t i +(T −k−1 ) (4.1)
2
x
unde ti este t al lui Student corespunzător variabilei i din regresia liniară multiplă.
73
Particularizând pentru trei variabile y , x 1 , x 2 (Wooldridge, 2005) se obţine o relaţie
între coeficienţii de corelaţie simplă şi coeficienţii de corelaţie parţială:
R yx −R yx ¿ R x x
2 1 2 1 2
R yx =
1 . x2
√(1−R 2
yx
2
)(1−Rx x )
2
1 2 (4.2)
R yx −R yx ¿ R x
2 2 1 1 x2
R yx =
2.x1
√(1−R 2
yx
1
)(1−R2x x )
1 2 (4.3)
variabila reziduală obţinută prin regresia liniară simplă dintre variabila endogenă y şi
fiecare din celelalte k−1 variabile explicative;
ε y, x x
- calculăm valorile variabilei reziduale 1 3 :
ε y , x1 x3= y −( a^ 0 + a^ 1 x 1 + a^ 3 x 3 )
74
- estimăm parametrii regresiei:
x 2= b^ 0 + b^ 1 x 1 + b^ 3 x 3 +ε x
2 , x1 x3
εx
- calculăm valorile variabilei reziduale 2 ,x1 x3 :
εx ^ ^ ^
2
, x1 x3 =x2 −( b 0 + b1 x 1 + b3 x 3 )
ε y, x εx
- calculăm coeficientul de corelaţie simplă dintre 1 x3 şi 2 , x1 x3 :
2 2
R yx 2 . x 1 x 3 =R ε y , x x ,ε x , x x
1 3 2 1 3 (4.4)
2
R
şi x 2 şi notând y .x1 x2 coeficientul de determinaţie al regresiei, avem:
Descompunerea arată influenţa fiecărei variabile: a lui x 1 asupra y şi a lui x 2 asupra lui y când
x
2) Pentru un model cu o variabilă dependentă y şi trei variabile explicative x 1 , x 2 şi 3
2
R y .x1 x2 x3
şi notând coeficientul de determinaţie al regresiei, avem:
2 2 2 2
1−R y . x x x =(1−R yx )(1−R yx .x )(1−R yx .x x )
1 2 3 1 2 1 3 1 2 (4.6)
x
3) Pentru un model cu o variabilă dependentă y şi patru variabile explicative x 1 , x 2 , 3 şi
2
x 4 şi notând R y .x1 x2 x3 x 4 coeficientul de determinaţie al regresiei, avem:
Relaţia se poate generaliza pentru oricâte variabile dependente şi în orice ordine de succesiune a
variabilelor.
75
76
3.4.2. Identificarea, consecinţele şi corecţia multicolinearităţii
x x
Fie un model cu o variabilă dependentă y şi k variabile explicative: x 1 , x 2 ,..., i ,..., j
2
,...,
x k . Notăm R y k coeficientul de determinaţie al regresiei care include toate variabilele
Rx x x i şi x j ( i, j=1,k ; i≠ j ).
dependente şi i j coeficientul de corelaţie liniară simplă dintre
2 2
Dacă
Ry ¿ Rx x
k i j ∀i , j=1,k ; i≠j atunci există o suspiciune de multicolinearitate între
variabilele dependente.
1 Rx x . .. R x x
1 2 1 k
det M=|R x 2 x 1 1 . .. R x 2 x k |
. .. .. . . .. . ..
R x x Rx x . .. 1
k 1 k 2 (4.8)
77
Pentru a înţelege mai bine ce se întâmplă în cazurile extreme, luăm un exemplu un o variabilă
H 0 :det M=1
H 1 :det M <1
2
Se calculează o statistică χ calc pe baza datelor din eşantion:
[ 1
]
χ 2calc =− T −1− (2 k +7 ) ⋅ln(det M )
6 (4.9)
unde T reprezintă numărul de observaţii din eşantion, iar k numărul de variabile explicative (fără
2 2
constantă). Farrar & Glauber (1967) au demonstrat că χ calc urmează o distribuţie χ cu
1
k(k−1)
2 grade de libertate.
2 2
χ ≥χ H
dacă calc (α , k( k+1)/2) atunci ipoteza 0 este respinsă cu un prag de semnificaţie α , există
deci prezumţia de multicoliniaritate;
2 2
dacă
χ calc < χ ( α , k( k +1) /2) atunci ipoteza H 0 este acceptată cu un prag de semnificaţie α ,
considerăm că variabilele explicative nu sunt corelate (situaţie de ortogonalitate).
Problemele pe care le ridică multicolinearitatea sunt numeroase. Amintim doar trei dintre
ele:
78
în cazul extrem în care multicolinearitatea este maximă, toţi coeficienţii de corelaţie sunt
egali cu 1, deci det( X ' X )=0 şi coeficienţii regresiei nu pot fi estimaţi, iar varianţa lor este
infinită;
în caz de multicolinearitate oarecare, estimatorii coeficienţilor sunt foarte instabili o
modificare minoră a unei valori a unei variabile poate duce la modificarea importantă a
valorii unui estimator;
dacă coliniaritatea unor variabile creşte, varianţa estimată a unor coeficienţi va creşte
semnificativ.
Fără a intra în detalii vom aminti doar două tehnici privind posibile ameliorări în cazul
manifestării situaţiei de multicoliniaritate. Pentru o prezentare mai detaliată, a se vedea: Judge
(1985), Bourbonnais (2006), Dormont (1999) sau Green (2007).
“Ridge Regression” este o tehnică ce constă în transformarea matricii X ' X într-o matrice
( X ' X +cI ) unde c este o constantă, iar I este matricea unitate. Se cresc astfel valorile din
prima diagonală a matricei, reducându-se efectul multicoliniarităţii (din punct de vedere strict
numeric).
Creşterea volumului eşantionului. Această metodă este eficientă numai dacă observaţiile
adăugate diferă semnificativ faţă de cele deja existente.
Cele două tehnici amintite sunt strict numerice, ele nu înlătură cauza multicoliniarităţii. Singura
soluţie cu adevărat eficientă este eliminarea unor variabile dacă este probabil ca ele să reprezinte
acelaşi fenomen.
79
4.3. Metode de selecţie a variabilelor din model
k (k−1 )
C2k=
2 regresii cu 2 variabile explicative
................
k!
C kj=
j!( k− j)! regresii cu j variabile explicative
................
k
C k=1 regresie cu k variabile explicative.
k
În total există 2 −1 regresii posibile dacă avem la dispoziţie k variabile explicative. Soluţia
2
constă în efectuarea tuturor acestor regresii şi reţinerea aceleia pentru care R este cea mai mare.
O problemă este numărul mare de regresii posibile când k creşte. Chiar dacă această problemă ar
fi surmontată, ar fi greu de demonstrat că acel model ales reprezintă cel mai bine fenomenul şi
este în concordanţă cu teoria economică.
cel mai mic şi sub pragul critic ales (în general α=0,05 ).
80
3) “Forward Regression” - selecţia progresivă. Într-o primă etapă reţinem variabila pentru
care coeficientul de corelaţie liniară simplă în raport cu y este cel mai mare. Fie
x i acea variabilă
R yx =max R yx ; l=1, k
l
( i l ). În a doua etapă, calculăm coeficienţii de corelaţie parţială (
R yx .x ; j=1 ,k ; j≠i
i j ) şi reţinem variabila cu coeficientul cel mai mare. Continuăm procedeul
până începem să avem variabile nesemnificative (t Student este sub pragul critic ales, în general
α=0,05 ).
4) “Stepwise Regression” – regresia pas cu pas. Este o metodă asemănătoare cu cea
precedentă, cu deosebirea că după introducerea unei noi variabile explicative examinăm valorile
t Student ale fiecărei variabile deja selecţionate şi le eliminăm din model pe cele pentru care t
Student este sub pragul critic.
5) “Stagewise Regression” – regresia etajată. Procedeul ajută la minimizarea
intercorelaţiilor dintre variabilele explicative folosind studiul reziduurilor. Reţinem variabila
pentru care coeficientul de corelaţie liniară simplă în raport cu y este cel mai mare. Fie
x i acea
R yx =max R yx ; l=1, k
l
variabilă ( i l ). Efectuăm regresia simplă în raport cu acea variabilă.
Calculăm apoi coeficienţii de corelaţie liniară simplă dintre variabila reziduală obţinută ε 1 şi
Rε x ; l=1,k ; l≠i
celelalte variabile explicative ( 1 i ). Reţinem pe aceea cu coeficientul cel mai
mare, fie ea
x j ( Rε 1 x j =max
l
R ε x ; l=1 ,k ; l≠i
1 l
). Includem şi această variabilă în model,
extragem o nouă variabilă reziduală cu care calculăm coeficienţii de corelaţie în raport cu
variabilele rămase, etc. Procedeul se opreşte când coeficienţii de corelaţie obţinuţi nu mai diferă
semnificativ de zero.
81
Aplicaţie privind selecţia variabilelor explicative
1) Coeficienţii de ordinul 1.
. regress Y X1 X2
------------------------------------------------------------
---------+--------------------------------------------------
------------------------------------------------------------
2
2 ti
R yx . x x . . . . xk = 2
i 1 2
t i +(T −k−1 )
R2yx . x
Pentru calculul lui 1 2 :
2
2 3 , 87
R yx = =0 , 428
t 1 =3 ,87 şi 1 . x2 2
3 , 87 +(23−2−1)
82
R2yx 2 .x 1
Pentru calculul lui :
2
2 (−1 ,60 )
R yx . x = =0 , 113
t 2=−1 ,60 şi 2 1
(−1 , 60)2 +(23−2−1 )
x
Efectuăm regresia liniară multiplă a lui y asupra lui x 1 şi 3 (STATA 9.0):
. regress Y X1 X3
------------------------------------------------------------
---------+--------------------------------------------------
------------------------------------------------------------
R2yx . x
Pentru calculul lui 1 3 :
2
2 4 , 40
R yx . x = =0 , 492
t 1 =4 , 40 şi 1 3 2
4 , 40 +(23−2−1)
R2yx 3 .x1
Pentru calculul lui :
2
2 (1 , 81)
R yx = =0 , 141
t3 =1,81 şi 3 . x1
(1 , 81)2 +(23−2−1 )
x
Efectuăm regresia liniară multiplă a lui y asupra lui x 1 şi 3 (STATA 9.0):
. regress Y X2 X3
------------------------------------------------------------
---------+--------------------------------------------------
------------------------------------------------------------
83
R2yx 2 . x 3
Pentru calculul lui :
2
(−2 ,71 )
2
R yx . x = =0 , 269
t 2=−2 , 71 şi 2 3
(−2 , 71)2 +(23−2−1)
R2yx .x 2
Pentru calculul lui 3 :
2
2 (2 , 25)
R yx = =0 ,202
t3 =2 , 25 şi 3. x2
(2, 25 )2 +(23−2−1 )
2) Coeficienţii de ordinul 2.
x
Efectuăm regresia liniară multiplă a lui y asupra lui x 1 , x 2 şi 3 (utilizând STATA 9.0):
. regress Y X1 X2 X3
------------------------------------------------------------
---------+--------------------------------------------------
------------------------------------------------------------
2
2 ti
R yx . x x . . . . xk = 2
i 1 2
t i +(T −k−1 )
R2yx1 . x2 x3
Pentru calculul lui :
2
2 4 , 41
R yx1 . x2 x3 = =0 , 506
t1 =4 , 41 şi 2
4 , 41 +(23−3−1)
84
R2yx 2 . x 1 x 3
Pentru calculul lui :
2
2 (−2 , 77)
R yx . x x = =0 ,288
t 2=−2 , 77 şi 2 1 3
(−2 , 77 )2 +(23−3−1)
R2yx . x1 x2
Pentru calculul lui 3 :
2 , 922
R2yx = =0 , 310
t3 =2 , 92 şi 3 . x1 x2
2 , 922 +(23−3−1)
2
R yx . x
a) Ex: calculul lui 1 2
---------+--------------------------------------------------
------------------------------------------------------------
ε y , x = y −( 473 ,963−10 , 47 x 2 )
2
---------+--------------------------------------------------
------------------------------------------------------------
ε y, x εx , x
coeficientul de corelaţie liniară simplă dintre 2 şi 1 2
Nr. crt. ε y, x εx , x
2 1 2
1 -128,77 -144,47
2 16,98 -28,71
3 130,77 338,34
4 107,92 57,58
5 59,24 -172,02
6 -8,47 -125,99
7 -0,9 89,19
8 48,07 266,82
9 -40,1 2,22
10 -6,15 -91,05
11 37,68 19,26
12 -128,77 -144,47
13 -71,12 -34,23
14 -34,73 11,79
15 -28,85 -193,1
16 -49,75 18,43
17 28,59 294,73
18 96,58 303,28
19 50,45 185,94
20 23,57 -56,17
21 -26,77 -168,93
22 68,14 -102,55
23 -143,59 -325,88
2 2
Rε ε =0 ,654 R yx 1 . x2 =R ε y , x εx , x =0 , 428
y ,x 2 x 1 , x 2 , 2 1 2
R2yx 2 . x 3
b) Ex: calculul lui
x
regresia lui y asupra lui 3 :
. regress Y X3
------------------------------------------------------------
---------+--------------------------------------------------
x
regresia lui x 2 asupra lui 3 :
. regress X2 X3
------------------------------------------------------------
---------+--------------------------------------------------
------------------------------------------------------------
ε y, x εx , x3
coeficientul de corelaţie liniară simplă dintre 3 şi 2
2 2
Rε ε =−0 ,518 R yx 2 . x 3 =Rε y , x ε x , x =0 , 269
y ,x 3 x 2 , x 3 , 3 2 3
R2yx . x
c) În mod similar se calculează şi ceilalţi coedicienţi de ordinul 1 ai corelaţiei parţiale: 1 3 ,
R2yx R2yx R2yx
2. x 1 , 3 .x 1 , 3 .x 2 . Calculele rămân la latitudinea cititorului.
R2yx . x x
a) Ex: calculul lui 1 2 3
x
regresia lui y asupra lui x 2 şi 3 :
. regress Y X2 X3
------------------------------------------------------------
87
---------+--------------------------------------------------
------------------------------------------------------------
x
regresia lui x 1 asupra lui x 2 şi 3 :
. regress X1 X2 X3
------------------------------------------------------------
---------+--------------------------------------------------
------------------------------------------------------------
Nr. crt. ε y, x εx , x
2 x3 1 2 x3
1 -93,64 -136,29
2 3,18 -31,92
3 169,57 347,37
4 69,18 48,56
5 15,58 -182,18
6 38,24 -115,12
7 -29,16 82,61
8 38,45 264,58
9 -46,88 0,64
10 -0,01 -89,62
11 -9,82 8,2
12 -76,97 -132,42
88
13 -59,08 -31,43
14 -62,5 5,33
15 4,51 -185,34
16 -25,56 24,06
17 70,24 304,42
18 60,38 294,85
19 77,51 192,23
20 -13,83 -64,87
21 -50,61 -174,48
22 40,31 -109,03
23 -119,08 -320,17
2 2 2 2
R yx 2 . x 1 x 3 =R ε y , x x εx ,x x =0 , 288 R yx 3 . x1 x2 =R ε y ,x x εx ,x x =0 , 310
1 3 2 1 3 , 1 2 3 1 2
Remarcăm că rezultatele sunt similare cu cele obţinute la punctul 2 al problemei, prin testul t
Student.
2 2 2
(1−R yx1 )(1−R yx 2 . x 1 )(1−R yx 3 . x 1 x 2 )=
=(1−0,448)(1−0,113)(1−0,310)=
=0,338
2
⇒ R y . x1 x2 x3 =1−0 , 338=0 , 662
. regress Y X1 X2 X3
2
R =0 ,662
2 2
R > R xi x j ∀i , j=1,3 ; i≠j ⇒ nu există prezumţie de coliniaritate conform testului lui Klein.
( )(
1 Rx R x1 x3
)
1 x2 1 -0,202 -0,030
M = Rx x 1 R x 2 x 3 = -0,202 1 0,345
2 1
Rx 3 x1 R x3 x 2 1 -0,030 0,345 1
1 -0,202 -0,030
det M=|-0,202 1 0,345 |=0,843
-0,030 0,345 1
1
6 [ ,
]1
χ 2calc =− T −1− (2 k +7 ) ⋅ln(det M ) χ 2calc =− 23−1− (2⋅3+7 ) ⋅ln(0 , 843)
6 [ ]
2
χ calc =3 ,387
2
Din tabelele cu distribuţia χ avem:
90
2 2 2 2
χ (α , k(k+1)/2)= χ (0, 05 ; 6 )=12, 59 . χ calc < χ( 0 , 05; 6) atunci ipoteza
H 0 este acceptată cu un prag de
semnificaţie de 5%, considerăm că variabilele explicative nu sunt corelate (situaţie de
ortogonalitate).
91