Documente Academic
Documente Profesional
Documente Cultură
MODELE ECONOMETRICE
1.1. Generalităţi
7
variabilele C şi O sunt funcţii de variabila p şi că la echilibrul
pieţei, trebuie ca cererea să fie egală cu oferta. Se
construieşte astfel un model elementar de forma:
⎧C = f ( p)
⎪
[1] ⎨O = g ( p)
⎪ C=O
⎩
Oferta şi cererea dintr-un anumit bun depind şi
de alte variabile decât preţul. Astfel, cererea dintr-un bun
alimentar depinde şi de venitul disponibil, de preţul unor
produse analoage etc. La fel, dacă este vorba despre un bun
agricol (grâu,...) oferta depinde de preţul anului precedent.
Relaţia stabilită între variabile în modelul econometric este
dată, de regulă, la un anumit moment de timp t, caz în care
variabilele apar indiciate:
⎧ Ct = f ( pt , x1t , x2t ,..., x nt )
⎪
[2] ⎨Ot = g ( pt −1 , x1t , x2t ,..., x rt )
⎪ Ct = Ot
⎩
În modelul [2] s-au introdus mai multe variabile
care explică cererea şi oferta dintr-un bun şi s-a considerat
realizarea acestor variabile la momentul t sau t-1. Se observă
că modelul comportă mai multe relaţii. Se zice că avem un
model cu ecuaţii multiple. Evident, se va începe studiul cu un
model mai simplu, cu o unică ecuaţie.
8
Condensăm efectele acestor alţi factori într-unul singur,
aleator, notat εi. Se obţine astfel un model aleator:
[3] C i = f (Vi ) + ε i
Factorul aleator εi este o variabilă aleatoare care
urmează o anumită lege de probabilitate, ce va trebui să fie
specificată prin ipotezele făcute asupra modelului. Cel mai
frecvent, ipotezele se referă doar la momentele de ordinul I şi
II ale variabilei aleatoare εi. Urmează să ne asigurăm că
funcţia f (sau clasa de funcţii) aleasă nu contrazice rezultatele
experienţei. De exemplu, dacă s-a ales f ca o funcţie liniară
(adică f(Vi) = aVi+b), modelul econometric este:
[4] C i = aVi + b + ε i
şi variind pe i pentru diferitele familii studiate, ne vom
asigura că relaţia [4] este bine satisfăcută. Se spune că
„testăm” modelul. Dacă rezultatul obţinut este convenabil, se
va trece la „estimarea” parametrilor a şi b. Apoi, definind o
„regulă de previziune” se va putea determina consumul Ci
dacă se cunoaşte venitul Vi.
9
Distincţia între natura variabilelor este foarte
importantă şi va trebui precizată întotdeauna înainte de a
studia modelul. Când modelul econometric a căpătat
formularea matematică definitivă se spune că modelul a fost
„specificat”. Modelul [4] de mai sus este specificat. Se
cunoaşte forma funcţiei f din expresia Ci = f(Vi) + εi , adică
f(Vi) = aVi+b. Adăugarea variabilei exogene εi dă modelului
formularea definitivă [4].
Mulţimea parametrilor care definesc complet modelul
econometric constituie „structura” acestuia. De exemplu,
dacă a = 0,7 şi b = 23 iar ε urmează o lege de probabilitate
normală de medie (speranţă matematică) egală cu zero şi
dispersie (varianţă) egală cu 5, atunci mulţimea
⎨ a = 0,7; b= 23; σ = 5 ⎬
constituie structura modelului [4]. Scopul va fi acela ca,
plecând de la cuplurile (Ci,Vi) asociate diferitelor familii i, să
se determine structura adevărată a modelului. Cu alte cuvinte,
plecând de la un spaţiu eşantion definit de mulţimea
cuplurilor (Ci,Vi) să se determine structura adevărată a
modelului în spaţiul cu trei dimensiuni al structurilor
⎨ a , b, σ ⎬ . Aici intervine „inducţia”statistică.
10
valori reale ale acestor parametri. Aceste valori se vor
aprecia, în general, cu ajutorul unor „intervale de încredere”
construite la un prag de semnificaţie (α) dat. De exemplu, în
modelul [4] se va găsi că a∈[0,64;0,78] şi b∈[20;27] cu o
probabilitate de 95% (s-a considerat α=5%). Se poate estima
şi abaterea medie pătratică (σ) a variabilei aleatoare εi. Se va
vedea rolul important jucat de această variabilă aleatoare în
modelul econometric.
11
Problema identificării este importantă mai ales în cazul
modelelor cu ecuaţii multiple.
previziune.
Observaţie. Asupra valorii previzionate trebuie să remarcăm:
12
- valorile exogenelor x1θ, x2θ au fost alese arbitrar,
eventual ţinînd cont de evoluţia lor trecută;
- specificarea modelului nu poate fi perfectă,
forma funcţiei alese pentru a explica evoluţia lui
y neputînd fi suficient de precisă;
- este posibil ca variabilele explicative (exogene)
ale variabilei endogene (explicate), să nu mai
intervină în acelaşi mod ca în perioada 1990-
2005, cînd s-a studiat legatura dintre ele. Este
posibil să aibă loc un şoc, o ruptură care să
perturbe echilibrul dintre variabilele care explică
fenomenul, la momentul previziunii.
Este evident că toate aceste cauze pot constitui surse de
eroare a previziunii. Vom vedea care sunt metodele de a
minimiza eroarea de previziune.
***
Rezumatul capitolului I
13
Dacă sunteţi familiarizaţi cu statistica matematică, puteţi
trece la capitolul II. În caz contrar, vă reamintim aici cîteva noţiuni
de bază. Lectura acestui paragraf credem că vă va incita să
revedeţi cursul de Statistică matematică
14
în X. Se arată că panta (coeficientul director) acestei drepte
este a=cov(X,Y)/Var(X). Coeficientul b se obţine scriind că
dreapta de regresie trece prin punctul mediu: b = Y − aX .
Procedând la fel se găseşte dreapta de regresie de ecuaţie
X=a′Y+b′ , cu a′=cov(X,Y)/Var(Y) şi b′ = X − a ′Y . Cele două
drepte de regresie sunt, în general, distincte. Compararea lor
permite măsurarea nivelului de corelaţie al caracteristicilor X
şi Y. Corelaţia se măsoară cu coeficientul de corelaţie
ρ=cov(X,Y)/σ(X)σ(Y). Se constată că ρ2=aa′ şi că ρ variază
între –1 şi 1. ρ2 măsoară unghiul dintre cele două drepte de
regresie, care coincid dacă ρ2=1, adică ρ = 1 . Caracteristicile
X şi Y sunt corelate maximal când ρ este apropiat de 1).
În afara faptului de a da o reprezentare mai mult sau
mai puţin satisfăcătoare legăturii dintre X şi Y, importanţa
ajustării liniare este de a permite previziuni statistice,
asociind lui X o valoare probabilă a lui Y prin relaţia
Y=aX+b.
Probabilitate – Fiind dată o mulţime finită Ω, numim
probabilitate pe Ω orice aplicaţie p a lui P(Ω) – mulţimea
părţilor lui Ω - în intervalul [0,1] care verifică trei condiţii:
- p(A)≥0, pentru ∀ A∈ P(Ω)
- p(Ω)=1
- p(A∪B)= p(A)+ p(B), dacă A,B∈ P(Ω), A∩B=Φ
Ω se numeşte univers (sau univers de probabilităţi). Ω
înzestrat cu probabilitatea p se numeşte spaţiu probabilizat. Orice
parte a lui Ω este un eveniment. Un singleton (mulţime ce conţine
un singur element) al lui Ω se numeşte eveniment elementar sau
eventualitate. Ω este evenimentul cert. Φ este evenimentul
imposibil. A este evenimentul complementar lui A în Ω (se
numeşte eveniment contrar lui A). Dacă A∩B=Φ, evenimentele A
şi B sunt incompatibile.
Variabilă aleatoare – Dacă Ω este un univers finit, numim
„variabilă aleatoare” orice aplicaţie X: Ω →R ( a lui Ω în mulţimea
15
numerelor reale). Mulţimea valorilor lui X, adică X(Ω) se numeşte
universul imagine. Atenţie!- o variabilă aleatoare nu este o
variabilă, ci o aplicaţie! Se observă că nu este necesar să
cunoaştem o probabilitate pe Ω pentru a defini o variabilă aleatoare
pe Ω.
Legea de probabilitate a unei variabile aleatoare – Dacă
universul finit Ω este înzestrat cu o probabilitate p, iar X este o
variabilă aleatoare definită pe Ω, numim lege de probabilitate a
variabilei aleatoare X, aplicaţia px: X(Ω)→[0,1] care asociază
oricărui x∈X(Ω) probabilitatea evenimentului „mulţimea
antecedentelor lui x prin X”. Această mulţime X-1(x) este notată
(X=x). Legea de probabilitate a lui X, notată px este definită prin
px: X(Ω)→[0,1], x →p(X=x). A studia o variabilă aleatoare
înseamnă a-i descoperi legea sa de probabilitate.
Funcţie de repartiţie - Dacă universul finit Ω este înzestrat
cu o probabilitate p, iar X este o variabilă aleatoare definită pe Ω,
se asociază acestei variabile aleatoare funcţia F:R→[0,1] definită
prin F(x)=p(X<x) numită funcţie de repartiţie a variabilei aleatoare
X. Evenimentul (X<x) este imaginea intervalului (− ∞, x ) prin funcţia
X. Funcţia de repartiţie este o funcţie în scară.
Speranţa matematică – Dacă X este o variabilă aleatoare
definită pe universul finit Ω, înzestrat cu probabilitatea p, universul
imagine este o mulţime finită şi ia valorile xi, i=1,2,...,n. Legea de
probabilitate a lui X asociază fiecărui xi probalbilitatea pi=p(X=xi).
Se numeşte speranţă matematică a variabilei aleatoare X, numărul
n
16
n
Var ( X ) = ∑ pi ( xi − E ( X )) 2 . Varianţa este media în probabilitate a
i =1
17
Dacă M(X/Y)=aX+b sau M(Y/X)=cY+d se spune că regresia
este liniară
Repartiţía normală – Variabila aleatoare X urmează o
repartiţie normală de parametri m şi σ (se mai scrie şi X ∈ N (m,σ ) )
dacă densitatea ei de probabilitate (derivata funcţiei de repartiţie)
este:
1 ( x − m) 2
f ( x) = exp(− ), x ∈ R, m ∈ R, σ>0
σ 2π 2σ 2
Pentru m=0 şi σ =1 se obţine repartiţia normală „normată” N(0,1),
cu densitatea de probabilitate:
1 x2
f ( x) = exp(− ), x ∈ R,
2π 2
Se arată că parametri m şi σ2 sunt media, respectiv dispersia
variabilei aleatoare X ∈ N (m,σ ) .
Repartiţia χ2 (hi-pătrat) cu n grade de libertate –
Variabila aleatoare X urmează legea de repartiţie hi-pătrat cu n
grade de libertate (se mai scrie şi X ∈ H (n) ) dacă densitatea ei de
repartiţie este:
n
1 −1 x
f ( x) = n
x 2 exp(− ), x>0, n∈ N*
n 2
Γ ( )2 2
2
Dacă variabilele aleatoare X i ∈ N (0,1), i=1,2,...,n sunt
n
i =1
de repartiţie H(n).
Repartiţia Student cu n grade de libertate S(n) – Variabila
aleatoare X urmează legea de repartiţie Student cu n grade de
libertate dacă densitatea ei de repartiţie este:
n +1
−
1 ⎛ x2 ⎞ 2
f ( x) = ⎜⎜1 + ⎟⎟ , x ∈ R, n ∈ N *
⎛n 1⎞ n ⎠
nΒ⎜ , ⎟ ⎝
⎝2 2⎠
18
Dacă variabilele aleatoare X ∈ N (0,1), Y ∈ H (n) sunt
independente, atunci variabila aleatoare Z = X ∈ S (n) .
Y
n
Repartiţia Fisher-Snedecor F(n1,n2) – Variabila aleatoare X
urmează legea de repartiţie Fisher-Snedecor cu n1 şi n2 grade de
libertate dacă densitatea ei de repartiţie este:
n1
⎛ n1 ⎞ n21 −1
2
⎜⎜ ⎟⎟ x n +n
− 1 2
n ⎛ n ⎞ 2
f ( x) = ⎝ 2 ⎠ ⎜⎜1 + 1 x ⎟⎟ ,
⎛ n1 n2 ⎞ ⎝ n 2 ⎠ x>0, n1 , n 2 ∈ N *
Β⎜ , ⎟
⎝2 2⎠
Dacă variabilele aleatoare X 1 ∈ H (n1 ) şi X 2 ∈ H (n2 ) sunt
X1
n
independente, atunci variabila aleatoare X = 1 ∈ F (n1 , n 2 ) .
X2
n2
19
CAPITOLUL II
REGRESIA SIMPLĂ
Considerăm modelul:
20
X o variabilă exogenă;
ε o variabilă aleatoare ale cărei caracteristici vor fi
precizate prin ipoteze.
Se dispune de T observaţii asupra lui Y şi X, adică T cupluri
(xt, yt) care sunt realizări ale lui X şi Y. a şi b sunt parametri reali
necunoscuţi pe care dorim să-i estimăm cu ajutorul observaţiilor
(xt, yt) cunoscute.
Ipoteze fundamentale
Pentru a putea obţine rezultatele enunţate la început, vom
simplifica lucrurile impunînd o serie de ipoteze restrictive asupra
modelului. Ulterior, în alte capitole, se vor relaxa aceste restricţii,
discutînd implicaţiile abandonării unora din aceste ipoteze asupra
calităţii estimatorilor.
I1:
xt şi yt sunt mărimi numerice observate fără eroare;
X –variabila explicativă se consideră dată autonom în
model;
Y –variabila endogenă este o variabilă aleatoare, prin
intermediul lui ε.
I2:
a)- ε urmează o lege de distribuţie independentă de timp,
adică media şi dispersia lui ε nu depind de t:
21
E (ε t ) = 0, ∀t = 1,2,...,T ,
Observaţie:
S-au folosit aici, pentru medie şi dispersie, notaţiile E (•) ,
22
d)- Presupunem că ε urmează o lege de repartiţie normală ,
cu media 0 şi dispersia σ ε , ceea ce poate fi scris astfel:
2
ε ∈ N (0,σ ε2 ) .
I3:
Primele momente empirice ale variabilei X, pentru T
foarte mare, sunt finite:
1 T
∑ xt ⎯T⎯→⎯∞ → x0 (media empirică).
T t =1
1 T
∑
T t =1
( ) 2
xt − x ⎯T⎯⎯→ s 2 (varianţa empirică).
→∞
23
T T
∑ε = ∑ [ y t − axt − b] = ϕ (a, b ) .
2 2
t
t =1 t =1
∂ 2ϕ ∂ 2ϕ
∂ϕ 2
∂a 2 ∂a∂b > 0 .
2. condiţii suficiente: > 0,
∂a 2 ∂ 2ϕ ∂ 2ϕ
∂b∂a ∂b 2
∂ϕ T
= ∑ 2( yt − axt − b )(− 1) = 0
∂b t =1
∂ 2ϕ T
∂a 2
= 2∑t =1
xt2 >0
∂ 2ϕ
= 2T
∂b 2
∂ 2ϕ ∂ 2ϕ T
= = 2∑ xt .
∂a∂b ∂b∂a t =1
⎪∑ xt yt − a∑ xt − b∑ xt
(1)⎪⎨ tT=1 t =1 t =1
⎪ y − a x − Tb = 0 ,
T
⎪⎩∑
t =1
t ∑
t =1
t
24
iar condiţiile suficiente (de ordinul II) sunt verificate. Ecuaţiile
condiţii de ordinul I (numite ecuaţii normale, cu o justificare
geometrică elegantă în partea a II-a), le împărţim la T, rezultând:
⎧1 T 1 T 2
⎪ ∑ xt yt + a ∑ xt − b x = 0
⎨T t =1 T t =1 .
⎪y − ax − b = 0
⎩
∑ xt − x
2 2 2
t t
T
⎧
ˆ
a =
∑ ( )(
yt − y xt − x
,
)
⎪⎪
(2) ⎨ (
∑ xt − x
2
)
⎪
⎪⎩ bˆ = y − aˆ x
Observaţie:
â este o variabilă aleatoare pentru că e funcţie de yt, iar b̂
25
2.3. Proprietăţile estimatorilor
(2 ) y = ax + b + ε .
=a+
∑ ε (x − x ) − ∑ ε (x − x ) = a + ∑ ε (x − x )
t t t t t
∑ (x − x ) ∑ (x − x )
2 2
t t
(deoarece ∑ ε ( xt − x) =ε ∑ ( xt − x) = 0 ).
Din expresia lui b̂ , avem că bˆ = y − aˆ x , adică y = aˆ x + b , iar din
(2) y = aˆ x + b + ε , astfel că prin scădere rezultă: 0 = (aˆ − a )x + bˆ − b − ε sau
bˆ = b + ε − (aˆ − a )x . Am obţinut că:
26
aˆ = a +
∑ (
ε t xt − x )
∑ (x )
2
t −x
bˆ = b + ε − (aˆ − a )x .
aˆ = a + ∑ ε t wt
Rezultă:
E (aˆ ) = E (a ) + ∑ wt E (ε t ) = a , pentru că E(a)=a şi E(εt)=0.
() ()
E bˆ = E (b ) + E ε − xE (aˆ − a )
()
E (aˆ − a ) = E (aˆ ) − E (a ) = a − a = 0 , deci E bˆ = b .
varianţa estimatorilor â şi b̂ .
27
Ştim că aˆ = a + ∑ wt ε t , adică aˆ − a = ∑ wt ε t .
⎛ ⎞
Var (aˆ ) = E (aˆ − a ) = E (∑ wt ε t ) = E ⎜ ∑ wt2ε t2 + 2∑ wt wt 'ε t ε t ' ⎟ =
2 2
⎝ t <t ' ⎠
( )
= ∑ wt2 E ε t2 + 2∑ wt wt ' E (ε t ε t ' )
t <t '
σ ε2
Var (aˆ ) = 2
⎯T⎯⎯→ 0 .
→∞
Ts
P
Am obţinut că aˆ ⎯T⎯⎯→ a ( â este convergent în
→∞
28
( )
2
⎡1 ⎤ ⎡1 ⎛ ⎞⎤
E ε = E ⎢ ∑ ε t ⎥ = E ⎢ 2 ⎜ ∑ ε t + 2∑ ε t ε t ' ⎟ ⎥ =
2 2
⎣T ⎦ ⎣T ⎝ t <t ' ⎠⎦
Tσ ε2 σ ε2
T
1 2 2
T t <t '
( ) T
1
= 2 ∑ E ε t + 2 ∑ E (ε t ε t ' ) = 2 ∑Var (ε t ) = 2 =
T T
(deoarece E (ε t ε t ' ) = 0 ).
[ ]
⎡⎛ 1 ⎞ ⎤ 1 ⎡ 2 ⎤
E ε (aˆ − a ) = E ⎢⎜ ∑ ε t ⎟(∑ wt ε t )⎥ = E ⎢∑ wt ε t + ∑ wt ε t ε t ' ⎥ =
⎣⎝ T ⎠ ⎦ T ⎣ t <t ' ⎦
σ ε2
=
1
T
∑ t t T∑
w E ε 2
+
1
( )
wt E (ε ε
t t' ) =
1
T
∑ t
w Var (ε t ) =
T
∑w t
t <t '
∑ (x − x ) = 0 ,
T T
xt − x 1
dar ∑ wt = ∑ =
t =1
∑ (x − x )
t =1
∑ (x − x )t
2
t
2 t
adică E [ε (aˆ − a )] = 0 .
Folosind aceste rezultate parţiale, se obţine:
2
Var bˆ = () σ ε2
+ x E (aˆ − a ) =
2 2 σ ε2
+ x Var (aˆ ) =
2 σ ε2
+
x σ ε2
∑ (x )
2
T T T −x
t
⎡1 x
2
⎤
ˆ
Var (b) = σ ε ⎢ + 2
2⎥
⎢⎣ T ∑ ( xt − x) ⎥⎦
1 1 1
Cum însă ⎯⎯⎯→ 0 şi = ⎯⎯⎯→ 0 rezultă că
T T →∞
∑ (x − x ) Ts 2 T →∞
2
t
()
P
Var bˆ ⎯T⎯⎯→ 0 , adică bˆ ⎯T⎯
→∞
⎯→ b
→∞ ( b̂ converge în
probabilitate către b) .
29
2.3.1. Covarianţa estimatorilor â şi b̂
( ) [( ( ))] [ ( )]
cov aˆ , bˆ = E aˆ − E (aˆ )) bˆ − E (bˆ = E (aˆ − a ) bˆ − b =
= E [(aˆ − a )(ε − x(aˆ − a ))] = E [ε (aˆ − a ) − x(aˆ − a ) ] =
2
.
= E [ε (aˆ − a )]− xE (aˆ − a ) = − xVar (aˆ ) = −
2 xσ 2
ε
∑ (x − x )
2
t
este deci:
⎛ σ ε2 ⎞
xσ ε2
⎜ − ⎟
⎛ Var (aˆ ) ( )
cov aˆ , bˆ ⎞ ⎜ ∑ xt − x
⎟=⎜
2
( ) ∑ xt − x
2
(
⎟
⎟=
)
Ω (aˆ ,bˆ ) = ⎜⎜
ˆ ( )
⎝ cov b, aˆ ()
Var bˆ ⎟ ⎜
⎠ − xσ ε2 ⎡1
σ ε2 ⎢ +
x
2 ⎤
⎥
⎟
⎜ 2 ⎟
⎜ ∑ xt − x
⎝
2
( ) ⎢ T ∑ xt − x ⎥ ⎟
⎣ ⎦⎠ ( )
⎛ 1 ⎞
x
⎜ − ⎟
(
⎜ ∑ xt − x
= σ ε2 ⎜
2
) (
∑ xt −2 x ⎟⎟ )
2
⎜ x 1 x ⎟
⎜⎜ − +
⎝ ∑ x t −(x
2
) T ∑ x −x ⎟
t (
2 ⎟
⎠ )
Se remarcă faptul că Ω (aˆ ,bˆ ) conţine pe σ ε2 , adică varianţa lui εt
30
2.3.2. Determinarea unui estimator nedeplasat pentru
varianţa erorilor
Utilizând estimatorii â şi b̂ putem calcula estimaţia variabilei
endogene yt, notată ŷ t (se mai numesc şi valori ajustate ale
Dar: aˆ − a =
∑ ε (x − x ) , şi
t t
∑ (x − x )
2
t
∑ (x t )( ) [ ( ) ( )] ( )
− x ε t − ε = ∑ ε t xt − x − ε xt − x = ∑ ε t xt − x − ε ∑ xt − x = (aˆ − a )∑ xt − x ( ) ( )
2
31
pentru că ε ∑ (xt − x ) = 0 .
Înlocuind, rezultă:
1
T
∑
1
εˆt2 = ∑ ε t − ε
T
( ) 2
− (aˆ − a )
2 1
T
∑ ( 2
xt − x . )
Notăm cu σ =
2 1
T
∑ εt −ε ( ) 2
dispersia erorilor faţă de media
( ) ⎡1
(
2⎤
⎦
⎡1
⎣T
) 2 ⎤
⎦
⎡1
⎣T
(
2⎤
E σ 2 = E ⎢ ∑ ε t − ε ⎥ = E ⎢ ∑ ε t2 − 2ε ε t + ε ⎥ = E ⎢ ∑ ε t2 − ε ⎥ =
⎣T ⎦
)
( )
⎡⎛ 1 ⎞ ⎤
2
⎡1 ⎛ ⎞⎤
1
T
2
( )
= ∑ E ε t − E ε = σ ε − E ⎢⎜ ∑ ε t ⎟ ⎥ = σ ε2 − E ⎢ 2 ⎜ ∑ ε t2 + 2∑ ε t ε t ' ⎟⎥ =
2 2
( ) ⎛ 1⎞ σ
( )
2
⎛1 ⎞ 1 ⎛ 2⎞
E ⎜ ∑ εˆt2 ⎟ = E σ 2 − Var (aˆ ) ∑ xt − x = σ ε2 ⎜1 − ⎟ − ε = σ ε2 ⎜1 − ⎟ .
2
⎝T ⎠ T ⎝ T⎠ T ⎝ T⎠
⎛ 1 ⎞
Relaţia găsită se poate scrie şi astfel: σ ε = E ⎜
2
⎝T − 2
∑ εˆt2 ⎟ , aşa
⎠
T −2
32
Este de remarcat că modelul yt = axt + b + ε t presupune
aˆ =
∑ (y − y )(x − x )
t t
∑ (x − x )
2
t
bˆ = y − aˆ x
1
σˆ ε2 =
T −2
∑ εˆt2
⎛ ∧ ˆ
ˆ ˆ = ⎜ Var (a )
Ω
∧
( )⎞⎟ ,
cov aˆ , bˆ
unde:
(aˆ ,b ) ⎜ ∧
( )
ˆ
⎝ cov aˆ , b
∧
Var bˆ ( ) ⎟⎠
∧ σˆ ε2
Var (aˆ ) = ,
∑ (x − x )
2
t
⎡ ⎤
()
2
2 1 x
∧
ˆ
Var b = σˆ ε ⎢ + ⎥
2 ,
⎢ T ∑ xt − x
⎣ ( )⎥
⎦
33
∧
( ) ∧
cov aˆ , bˆ = − x Var (aˆ ) .
34
A
ε
B
Y X
Yˆ
H
U C
O
(L)
35
Observaţie:
Considerăm modelul yt = b + ε t . O reprezentare analogă celei
dinainte este:
A
0
U H
Ecuaţia varianţei
36
A
εˆ
B
X
Y
Yˆ
H
U C
O
(L) Y K
(1) AK 2
= KH
2
+ HA .
2
1 1
Ştim că yˆ t = aˆxt + bˆ şi
T
∑ yˆ t = aˆ ∑ xt + bˆ ,
T
adică:
yˆ = aˆ x + bˆ . Dar şi y = aˆ x + bˆ , rezultând că y = yˆ .
Deoarece: AK=0A-0K ( ΔA0 K dreptunghic în K)
HK=0H-0K ( Δ0 HK dreptunghic în K),
rezultă, folosind (1):
37
2.3.4. Coeficientul de corelaţie liniară
ρ=
∑ (y − y )(x − x ) .
t t
∑ (y − y ) ⋅ ∑ (x − x )
2 2
t t
cov( X , Y )
În general, ρ XY = , unde σX şi σY sunt abaterile
σ X ⋅σ Y
aˆ =
∑ (y − y )(x − x ) , astfel că putem scrie:
t t
∑ (x − x )
2
t
∑ (y − y )(x − x ) ⋅ ∑ (x − x ) ∑ (x − x ) . Am obţinut o
2 2
aˆ t
ρ= t t t
=
∑ (x − x ) ∑ (y − y ) ∑ (x ) ∑ (y − y )
2 2 2 2
t t t −x t
.
∑ (y )
2
t −y
∑ (yˆ ) = ∑ (y − y ) − ∑ εˆ ∑ εˆ
2 2
−y 2 2
ρ 2
=
t t t
= 1−
t
.
∑ (y − y) ∑ (y − y ) ∑ (y − y )
2 2 2
t t t
38
Pe de altă parte, utilizând figura geometrică şi notând cu α
∑ (yˆ )
2 2
KH KH −y
unghiul AKˆ H , avem cos α = , cos α =
2
=
t
, adică
∑ (y − y)
2 2
AK AK t
ρ = cos α = 1 −
2 2 ∑ εˆ t
2
∑ (y )
2 .
t −y
În mod necesar, 0 ≤ ρ2 ≤1 şi −1 ≤ ρ ≤ 1.
39
⎧⎪ 1 ∑ ε t2 ⎫⎪
T
⎛ 1 ⎞
(1) f (ε 1 , ε 2 ,..., ε t ) = ⎜⎜ ⎟ exp⎨−
⎟ 2 ⎬
σ
⎝ ε 2π ⎠ ⎪⎩ 2 σ ε ⎪⎭
Dar, ε t = yt − axt − b şi
(
yt − axt − b = yt − axt − b − aˆ xt + aˆ xt − bˆ + bˆ = yt − aˆxt − bˆ + (aˆ − a )xt + bˆ − b = ) ( )
= εˆ + ( aˆ − a) x + (bˆ − b)
t t
= ∑ ⎡εˆ + (aˆ − a ) x + (bˆ − b ) + 2εˆ (aˆ − a )x + 2εˆ (bˆ − bˆ) + 2(aˆ − a )(bˆ − b )x ⎤ =
2 2
2 2
⎢⎣ t t t t ⎥⎦ t t
( ( ))
= ∑ ⎡εˆt2 + (aˆ − a )xt + bˆ − b ⎤ = ∑ εˆt2 + ∑ (aˆ − a )xt + bˆ − b
⎢⎣
2
⎥⎦
[ ( )] 2
( (
2εˆt (aˆ − a )xt = 0 , 2εˆt bˆ − b = 0 ) pentru că aşa cum arată reprezentarea
grafică, vectorul εˆ este ortogonal la planul (L), prin urmare este
perpendicular pe orice vector din acel plan, deci şi pe X şi U.
Produsele scalare cu aceşti vectori vor fi nule, adică: < εˆ, X >= 0 şi
< εˆ,U >= 0 ).
40
⎧⎪ 1 ∑ ( y t − axt − b )2 ⎫⎪
T
⎛ 1 ⎞
ϕ ( y1 , y 2 ,..., yt ) = ⎜
⎜ ⎟
⎟ exp⎨⎪− 2 ⎬=
⎝ σ ε 2π ⎠ ⎩ σ ε2 ⎪⎭
⎧⎪ 1 ∑ εˆt2 ⎫⎪
T
⎧⎪ 1 ⎛ aˆ − a ⎞ ' 1 ⎛ x 2 T x ⎞⎛ aˆ − a ⎞⎫⎪
⎟⎟ 2 ⎜⎜ ∑ t
⎛ 1 ⎞
⎜
=⎜ ⎟ exp⎨− 2 ⎬
exp⎨− ⎜⎜ ˆ ⎟⎜ ⎟⎬
σ
⎝ ε 2π ⎟
⎠ ⎪
⎩ 2 σ ε ⎭ ⎪ 2
⎪⎩ ⎝ b − b ⎠ σε ⎝ T x T ⎟⎠⎜⎝ bˆ − b ⎟⎠⎪⎭
41
2. Folosind relaţile de calcul stabilite anterior, rezultă că
σˆ ε2 σˆ a2ˆ
=
σ ε2 σ a2ˆ
libertate);
bˆ − b
σ ∈ N (0,1) ;
bˆ
bˆ − b
σˆ ∈ S (T −2 ) .
bˆ
42
1 ⎧⎪⎛ aˆ − a ⎞ −1 ⎛ aˆ − a ⎞ ⎫⎪
'
aˆ − tα σˆ aˆ ≤ a ≤ aˆ + tα σˆ aˆ
ceea ce permite afirmaţia că adevărata valoare a parametrului real
a , se găseşte în intervalul de valori [aˆ − tα σˆ aˆ ; aˆ + tα σˆ aˆ ] cu
probabilitatea 1-α.
Când se doreşte testarea unei valori a0 a parametrului a, este
suficient, pentru a accepta această valoare cu riscul α, să ne
asigurăm că:
43
aˆ − a0
≤ tα .
σˆ aˆ
Altfel spus, este suficient ca a0 să aparţină intervalului de
încredere stabilit: a0 ∈ [aˆ − tα σˆ aˆ , aˆ + tα σˆ aˆ ] .
De asemenea, Prob{F ≤ F (α ,2, T − 2)} = 1 − α .
F = F (α ,2, T − 2) este ecuaţia unei elipse cu centrul în w(aˆ , bˆ ) care
b
B
’
w
b̂
A â A’
44
Dacă se doreşte testarea simultană a două valori a0, b0 alese
apriori, este suficient să înlocuim a şi b în expresia F prin a0 şi b0.
Dacă F (a0 , b0 ) ≤ F (α ,2, T − 2) se acceptă valorile, altfel ele
vor fi respinse. Altfel spus, pentru a accepta cuplul (a0, b0) la
nivelul de semnificaţie α este suficient ca punctul M0(a0,b0) să
aparţină elipsei de încredere asociată cuplului (a, b).
Observaţii:
1. Expresia ϕ ( y1 , y2 ,..., yT ) se descompune în doi factori (g şi h). g
se exprimă doar în funcţie de εˆt , adică în funcţie de yt, â , b̂ ; h
nu conţine decât pe â , b̂ , a şi b. Aceasta arată că, odată
cunoscută o realizare a cuplului (aˆ, bˆ), legea de probabilitate
condiţionată a lui yt (dată de factorul g) nu depinde decât de
valorile adevărate (dar necunoscute) ale parametrilor a şi b.
Se zice că (aˆ, bˆ) sunt estimatori „exhaustivi” pentru a şi b,
adică ei rezumă toată informaţia pe care eşantionul o poate
aduce despre a şi b.
2. Când ipoteza de normalitate asupra erorilor εt este realizată,
funcţia de verosimilitate relativă la eşantionul ( y1 , y2 ,..., yT ) este
chiar funcţia ϕ ( y1 , y2 ,..., yT ) . Pentru obţinerea de estimatori ai lui
a şi b prin metoda verosimilităţii maxime, este suficient să
maximizăm expresia ϕ ( y1 , y 2 ,..., yT ) , adică să minimizăm
45
∑ (y t − axt − b )
2
. Estimatorii (aˆ, bˆ) obţinuţi cu metoda celor mai
mici pătrate coincid, deci, cu cei obţinuţi prin metoda
verosimilităţii maxime.
3. Atunci când ipoteza de normalitate a erorilor nu se
realizează, se va arăta că estimatorii â şi b̂ obţinuţi prin
metoda celor mai mici pătrate au varianţa minimă printre toţi
estimatorii liniari centraţi în a şi b (se va da o demonstraţie
pe cazul general).
yθP = aˆxθ + bˆ ,
iar realizarea efectivă a lui Y este:
yθ = axθ + b + ε θ .
Eroarea de previziune se poate exprima prin variabila
aleatoare e P = yθP − yθ .
( )
yθP − yθ = (aˆ − a )xθ + bˆ − b − ε θ .
Se remarcă imediat că E (eP ) = 0 , iar varianţa erorii de
previziune este:
46
( )
Var (eP ) = E yθP − yθ = xθ2 E (aˆ − a ) + E bˆ − b + E ε θ2 +
2 2 2
( ) ( )
[ ( )]
+ 2 xθ E (aˆ − a ) bˆ − b − 2 xθ E ε θ (aˆ − a ) − 2 E ε θ bˆ − b [ ] [ ( )]
Ultimii doi termeni sunt nuli (s-a demonstrat anterior!) (ε şi
â , ca şi ε şi b̂ sunt necorelaţi).
Deci:
()
Var (eP ) = xθ2Var (aˆ ) + Var bˆ + Var (ε θ ) + 2 xθ cov aˆ , bˆ . ( )
Notăm varianţa erorii de previziune cu μθ2 = Var (eP ) şi folosind
relaţiile de calcul anterioare, rezultă:
σ ε2 ⎡ ⎤ 2
σ ε2 Tx 2 xθ xσ ε2
μθ = xθ
2 2
+ ⎢1 + ⎥ + σ 2
− =
∑ (x ) ( ) ( )
ε
∑ ∑ xt − x
2 2 2
−x T ⎢ x − x ⎥
t ⎣ t ⎦
⎡ 1
= σ ε ⎢1 + +
2 xθ − x ⎤
2
⎥
( )
⎢ T ∑ xt − x ⎥
⎣
2
⎦ ( )
σ ε2 este necunoscut, dar estimat prin σˆ ε2 şi varianţa estimată a
erorii de previziune este:
⎡ 1 x
μˆ θ2 = σˆ ε2 ⎢1 + + θ
− x
2 ⎤
⎥
( )
⎢ T ∑ xt − x ⎥
⎣
2
⎦ ( )
Această varianţă poate fi redusă, pe de o parte prin creşterea
numărului de observaţii (T), iar pe de altă parte, prin alegerea lui xθ
astfel încât (x θ −x )2
să nu fie prea mare (adică făcând o previziune
pe termen scurt).
47
Deoarece erorile sunt normal distribuite, ε t ∈ N (0,σ ε2 ) atunci şi
(aˆ − a ) ∈ N şi (bˆ − b)∈ N (urmează legi normale). Rezultă următoarele
distribuţii de probabilitate pentru variabilele:
yθP − yθ
9 ∈ N (0,1) .
μθ
yθP − yθ
9 μ̂ urmează o lege Student cu T-2 grade de
θ
⎧⎪ yθP − yθ ⎫⎪
P⎨ < tα ⎬ = 1 − α .
⎪⎩ μˆ θ 2 ⎪⎭
tα fiind luat din tabela distribuţiei Student. Pentru T dat, μ̂θ
2
ca funcţie de (xθ −x )
2
este minim pentru xθ = x . Punctele M1 şi M2
sunt deci situate, când θ variază, pe două arce de curbă (vezi
figura), care determină astfel regiunea căreia îi aparţine yθ pentru
xθ dat, cu o probabilitate egală cu (1-α).
48
y
M2 yˆ = aˆx + bˆ
P
yθP
M1
y
x xθ
Observaţii
1. „O variabilă aleatoare t este distribuită după o lege Student
t2
cu T-2 grade de libertate dacă expresia este raportul dintre o
T −2
(aˆ − a )2
t2
=
(aˆ − a ) = 2
σ a2ˆ
=
χ 2 cu un grad de libertate
T − 2 (T − 2)σˆ a2ˆ σˆ a2ˆ χ 2 cu (T - 2) grade de libertate .
(T − 2) 2
σ aˆ
49
Atunci:
⎛ aˆ − a ⎞ ⎛ ∑ xt2 T x ⎞⎛ aˆ − a ⎞
,
⎟⎟ ⎜⎜ ⎟⎜⎜
⎜⎜ ˆ
b − b T x T ⎟ bˆ − b ⎟⎟
2F
=
⎝ ⎠⎝ ⎠⎝ ⎠
=
T −2 (T − 2)σˆ ε
2
⎛ aˆ − a ⎞ ⎛ ∑ xt2
,
T x ⎞⎛ aˆ − a ⎞
⎜⎜ ˆ ⎟⎟ ⎜⎜ ⎟⎜ ⎟
⎝b − b⎠ ⎝ T x T ⎟⎠⎜⎝ bˆ − b ⎟⎠
σ ε2 χ 2 cu doua grade de libertate
= =
σˆ ε2 χ 2 cu (T - 2) grade de libertate
(T − 2) 2
σε
50
(aˆ − a ) ∈ N (0,1)
σ aˆ
(bˆ − b ) 2
∈ χ 2 (1)
σ 2
bˆ
σ ε2 , obţinem:
∑ε ∑ (εˆ ) 2
−ε (aˆ − a )2
∑ (x )
2
t t 2
= − −x
σ σ σ
2 2 2 t
ε ε ε
∑ (εˆ ) = ∑ εˆ
2 2
−ε
2
Tε
t t
− = χ (2T ) − χ (21) = χ (2T −1)
σ 2
ε σ 2
ε σ 2
ε
(aˆ − a )2 (aˆ − a )2 ∈ χ 2
∑ (x − x )
2
=
Var (aˆ )
(1)
σ ε2
t
Rezultă că:
∑ εˆ
2
σ ε2
51
2.6. Experienţă de calcul
Rezolvare:
52
t xt yt xtyt xt − x ( xt − x ) 2 y t − y ( y t − y ) 2 x t2 y t2 yˆ t = 1 , 28 x t + 31 , 67
yˆ − y ( yˆ − y ) 2 ε ˆ t = y t − yˆ t εˆ t2
1 15 48 720 -9,1333 83,4177 -14,5333 211,218 225 2304 50,8544 -11,6789 136,396 -2,8544 8,1479
2 8 43 344 -16,1333 260,284 -19,5333 381,551 64 1849 41,9034 -20,6298 425,59 1,0965 1,2023
3 36 77 2772 11,8666 140,818 14,4666 209,284 1296 5929 77,7073 15,174 230,251 -0,7073 0,5003
4 41 89 3649 16,8666 284,484 26,4666 700,484 1681 7921 84,1008 21,5675 465,16 4,8991 24,0012
5 16 50 800 -8,1333 66,1511 -12,5333 157,084 256 2500 52,1331 -10,4002 108,164 -2,1331 4,5503
6 8 40 320 -16,1333 260,284 -22,5333 507,751 64 1600 41,9034 -20,6298 425,59 -1,9034 3,6232
7 21 56 1176 -3,1333 9,8177 -6,5333 42,6844 441 3136 58,5267 -4,0066 16,053 -2,5267 6,3842
8 21 62 1302 -3,1333 9,8177 -0,5333 0,2844 441 3844 58,5267 -4,0066 16,053 3,4732 12,0637
9 53 100 5300 28,8666 833,284 37,4666 1403,75 2809 10000 99,4454 36,912 1362,5 0,5545 0,3075
10 10 47 470 -14,1333 199,751 -15,5333 241,284 100 2209 44,4609 -18,0724 326,613 2,539 6,4469
11 32 71 2272 7,8666 61,8844 8,4666 71,6844 1024 5041 72,5925 10,0591 101,187 -1,5925 2,536
12 17 58 986 -7,1333 50,8844 -4,5333 20,5511 289 3364 53,4118 -9,1214 83,201 4,5881 21,0509
13 56 102 5916 33,8666 1146,95 39,4666 1557,62 3364 10404 105,8389 43,3056 1875,38 -3,8389 14,7375
14 6 35 210 -18,1333 328,818 -27,5333 758,084 36 1225 39,346 -23,1873 537,649 -4,346 18,8883
15 20 60 1200 -4,1333 17,0844 -2,5333 6,4177 400 3600 57,248 -5,2853 27,9347 2,7519 7,5734
∑ 362 938 27437 - 3753,73 - 6269,73 12490 64926 - - 6137,72 - 132,0144
53
Pe baza elementelor din tabelul de calcul, se determină:
1 T 1 1 T 1
- x= ∑
T t =1
xt =
15
362 = 24,133 y = ∑
T t =1
yt = 938 = 62,533
15
- aˆ =
∑ (y − y )(x − x ) = ∑ x y − Tx. y = 27437 − 15(24,133)(62,533) = 1,28
t t t t
∑ (x − x ) ∑ x − Tx 12490 − 15(24,133)
2 2 2 2
t t
ρ=
∑ (y t − y xt − x )( ) =
27437 − 15(24,133)(62,533)
= 0,9894
∑ (y )
− y ⋅ ∑ xt − x ( ) 6269.733 3753,733
2 2
t
ρ =
2
(
aˆ 2 ∑ x t − x ) = ∑ (aˆx
2
t − aˆx ) 2
=
∑ ( yˆ t − yˆ ) 2
∑ (y ) ∑ (yˆ ) ∑ εˆ
2 2
t −y = t −y + t
2
54
vectorii X şi U (vectorul unitar), deci cu cât variabilitatea reziduală
este mai mică faţă de variabilitatea empirică totală. Aceasta face ca
raportul dintre variabilitatea explicată prin model şi variabilitatea
totală, adică ρ2, să fie apropiat de 1.
- estimaţiile varianţelor reziduurilor şi ale estimatorilor:
1 132,0144
σˆ ε2 =
T −2
∑ t 15 − 2 = 10,15
ε
ˆ 2
=
∧ σˆ ε2 10,15
Var (aˆ ) = = = 0,0027; σˆ aˆ = 0,0027 = 0,052
∑ (x )
2
−x 3753,733
t
⎡ ⎤
()
2
∧
ˆ 2 1 x ⎡ 1 (24,133) 2 ⎤
Var b = σˆ ε ⎢ + ⎥ = 10,15⎢ + ⎥ = 2,25
⎢ T ∑ xt − x
⎣ ( )2
⎥
⎦ ⎣15 3753,733 ⎦
σˆ bˆ = 2,25 = 1,5
- calculul intervalelor de încredere pentru estimatori:
(aˆ − a ) (bˆ − b)
Variabilele aleatoare σˆ aˆ şi σˆ bˆ urmează fiecare o repartiţie
55
a ∈ [aˆ − tα σˆ aˆ ; aˆ + tα σˆ aˆ ] = [1,28-(2,16)(0,052) ; 1,28+(2,16)(0,052)]=
= [1,17 ; 1,39]
[ ]
b ∈ bˆ − tα σˆ bˆ ; bˆ + tα σˆ bˆ = [31,67 –(2,16)(1,5) ; 31,67+(2,16)(1,5)]=
=[28,43 ; 34,91]
Prin urmare, putem afirma că valorile parametrilor reali a şi b se
găsesc în aceste intervale cu o probabilitate de 95%.
Stabilim acum un interval de încredere pentru estimatorul varianţei
σˆ ε2 ⎛ 1 2⎞
erorilor. Am văzut că variabila aleatoare (T − 2 ) ⎜
2 ⎜
= ∑ ε
ˆ ⎟
t ⎟
σε ⎝ σε 2
⎠
urmează o lege de repartiţie hi-pătrat cu (T-2) grade de libertate. În
tabelele legii hi-pătrat vom găsi, pentru un nivel de semnificaţie α
dat, două valori: v1 având probabilitatea (1-α/2) de a fi depăşită,
respectiv v2 având probabilitatea (α/2) de a fi depăşită, astfel că
⎡ σˆ ε2 ⎤
Pr ob ⎢v1 ≤ (T − 2) 2 ≤ v 2 ⎥ = 1 − α
⎣ σε ⎦
Se obţine astfel intervalul de încredere:
⎡ (T − 2)σˆ ε2 (T − 2)σˆ ε2 ⎤
σε ∈⎢
2
; ⎥
⎣ v 2 v1 ⎦
pentru α=0,05 şi 13 grade de libertate extragem din tabelă v1=5,01
şi v2=24,7 rezultând intervalul:
⎡ (15 − 2)10,15 (15 − 2)10,15 ⎤
σ ε2 ∈ ⎢ ; ⎥ = [5,34 ; 26,34]
⎣ 24,7 5,01 ⎦
56
- testăm dacă parametrii a şi b ai modelului sunt semnificativ
diferiţi de zero la pragul de semnificaţie α=0,05.
aˆ bˆ
Variabilele aleatoare σˆ şi σˆ urmează legi de probabilitate
aˆ bˆ
aˆ − 0
< t tab . Este exact acelaşi lucru cu a spune că 0 să aparţină
σ aˆ
ˆ
57
e p = yθP − yθ , este o variabilă aleatoare distribuită normal, cu
media zero şi varianţa estimată a erorii de previziune:
⎡ 1
μˆθ = σˆ ε ⎢1 + +
2
(
xθ − x ⎤ ) ⎡ 1 (48 − 24,133) 2 ⎤
⎥ = 10,15⎢1 + + ⎥ = 12,366
2 2
⎢ T ∑ xt − x ⎥
⎣
2
⎦( ⎣ ) 15 3753 , 733 ⎦
μˆ θ = μˆ θ2 = 12,366 = 3,5164
yθP − yθ
Deoarece variabila aleatoare μ̂θ
este distribuită Student cu
58
CAPITOLUL III
REGRESIA MULTIPLĂ
59
⎛ y1 ⎞ ⎛ ε1 ⎞
⎜ ⎟ ⎛ x11 x 21 ... x p1 ⎞ ⎛ a1 ⎞ ⎜ ⎟
⎜ y2 ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ε2 ⎟
⎜ . ⎟ ⎜ x12 x 22 ... x p 2 ⎟ a ⎜ . ⎟
Y = ⎜ ⎟, X = ⎜ ⎟ , a = ⎜⎜ 2 ⎟⎟ , ε = ⎜ ⎟
⎜ . ⎟ ... ... ... ... ... ⎜ . ⎟
⎜ ⎟ ⎜ ⎟
⎜ . ⎟ ⎜x x 2T ... x pT ⎟⎠ ⎜a ⎟ ⎜ . ⎟
⎜y ⎟ ⎝ 1T ⎝ p⎠ ⎜ε ⎟
⎝ T⎠ ⎝ T⎠
(2) Y = Xa + ε .
Ipoteze fundamentale
Ipotezele I1, I2 din capitolul II rămân valabile: ceea ce era
adevărat pentru xt este acum valabil pentru xit, i=1,2,...,p.
Ipoteza I3 referitoare la variabilele exogene se modifică
astfel:
a. absenţa coliniarităţii variabilelor exogene:
Nu există nici o mulţime de p numere reale λi ,
p
60
3.2. Determinarea estimatorilor parametrilor
t =1
εˆ
Xp
Y
X2
Yˆ
H
O X1
(L)
⎛ a1 ⎞
⎜ ⎟
⎜ a2 ⎟
Vectorul Xa = (X 1 , X 2 ,..., X p )⎜ ⎟ aparţine subspaţiului (L)
...
⎜ ⎟
⎜a ⎟
⎝ p⎠
61
⎧< Y − a1 X 1 − a 2 X 2 − ... − a p X p , X 1 >= 0
⎪
⎪< Y − a1 X 1 − a 2 X 2 − ... − a p X p , X 2 >= 0
⎨
⎪...............
⎪< Y − a1 X 1 − a 2 X 2 − ... − a p X p , X p >= 0
⎩
Efectuînd produsele scalare, rezultă sistemul de ecuaţii:
(4)
= (X ' X ) ( X ' X )a + ( X ' X )−1 X 'ε = a + ( X ' X )−1 X 'ε
−1
62
Dar, E (ε ) = 0 conform I2, deci E (aˆ ) = a , adică â este estimator
nedeplasat pentru a.
b. Prin definiţie:
Ω aˆ = E ((aˆ − a )(aˆ − a )') .
Din (4) rezultă: aˆ − a = ( X ' X ) X ' ε şi ( aˆ − a) ′ = ε ' X ( X ' X ) pentru că
−1 −1
rezultă:
Ω aˆ = ( X ' X ) X 'σ ε2 X ( X ' X ) = σ ε2 ( X ' X ) ( X ' X )( X ' X )−1 = σ ε2 ( X ' X )−1
−1 −1 −1
63
E (a *) = ME (Y ) = ME( Xa + ε ) = a
(a * −a )' = ε ' M ' şi Ω a* = E (Mεε ' M ') = ME (εε ')M ' = σ ε2 MM ' . Pentru ca a* să fie
de varianţă minimă, trebuie ca „urma” matricei (MM’) să fie
minimă, sub restricţia (MX)=I. Urma unei matrici este, prin
definiţie, suma elementelor de pe diagonala principală. Notăm
Ur(X) urma matricei X. Ur este un operator liniar (demonstraţi!).
Rezolvând problema de extremum condiţionat:
⎧MinUr (MM ')
⎨
⎩s.r.MX = I
se obţine soluţia M = (X ' X ) X ' , adică a* = MY = ( X ' X ) X 'Y . Am găsit
−1 −1
că a* = aˆ .
64
3.4. Determinarea unui estimator nedeplasat al varianţei σ ε2
Avem că: Y = Xa + ε ;
Yˆ = Xaˆ ;
εˆ = Y − Yˆ = Xa + ε − Xaˆ ;
εˆ = ε − X (aˆ − a ) .
Dar: aˆ − a = ( X ' X ) X ' ε şi εˆ = ε − X ( X ' X )−1 X ' ε
−1
[
εˆ = I − X ( X ' X )−1 X ' ε . ]
Notăm: Γ = I − X (X ' X ) X ' .
−1
∑ εˆ t
2
= εˆ '⋅εˆ = ε ' Γ' Γε = ε ' Γε = ∑ γ ii ε i2 + ∑ γ ij ε i ε j , unde γij este elementul
i i≠ j
65
Însă, E (ε i ε j ) = 0 conform I2 şi
E (∑ εˆ ) = ∑ γ E (ε ) = ∑ γ σ
t
2
ii i
2
ii ε
2
= σ ε2Ur (Γ ) .
i i
Arătăm că Ur (Γ ) = T − p .
( )
Ur (Γ ) = Ur I − X ( X ' X ) X ' = Ur (I ) − Ur X ( X ' X ) X '
−1
( −1
)
Ur (I ) = T
( )
Ur X ( X ' X ) X ' = Ur X ' X ( X ' X )
−1
( −1
)= p
(permutarea între X (X ' X ) şi este posibilă datorită
−1
X'
E (∑εˆ ) = (T − p )σ
t
2
ε , σε =
2 2 1
T−p
E (∑ εˆ ) = E ⎡⎢T −1 p ∑ εˆ
t
2
t
2 ⎤
⎥ , astfel că
⎣ ⎦
1
σˆ ε2 =
T−p
∑ εˆt2 este estimator nedeplasat al lui σ ε2 .
66
aˆ i − ai
(*) urmează o lege normală redusă N(0,1);
σ aˆ i
grade de libertate.
(***) ai − ai urmează o lege Student cu (T-p) grade de
ˆ
σˆ aˆ i
libertate.
Legea Student este utilizată în mod curent pentru a aprecia
validitatea estimatorului unui coeficient ai. De exemplu, dacă se
testează ipoteza (H0:ai=0) contra ipotezei (H1:ai ≠ 0), pentru a
aˆ i
accepta H1 trebuie ca ≥ tα , unde tα este valoarea tabelată a
σˆ aˆi 2 2
Observaţie:
aˆ i
Pentru T>30 şi α=0,05, tα ≅ 2 . Deci, dacă ≥ 2 se acceptă H1, adică ipoteza
2 σˆ aˆi
aˆ i − ai0
valoare particulară ai0 , se calculează raportul t = şi se compară cu tα .
σˆ aˆi 2
67
Considerăm acum toţi estimatorii aˆ1 ,..., aˆ p :
aˆi − ai
≥ tα
σˆ aˆi 2
aˆ i − ai
− tα ≤ ≤ tα
2 σˆ aˆi 2
− σˆ aˆi tα ≤ aˆ i − ai ≤ σˆ aˆi tα
2 2
aˆ i − σˆ aˆi tα ≤ ai ≤ aˆ i + σˆ aˆi tα
2 2
iar pentru ansamblul coeficienţilor, ecuaţia elipsoidului de
încredere este: F=F(α,p,T-p).
Aceleaşi principii conduc la determinarea de regiuni de
încredere relative la un număr oarecare de coeficienţi din model.
68
Dacă q este numărul coeficienţilor reţinuţi, în spaţiul ℜq , avem
ecuaţia F1=F(α,q,T-p), unde:
F1 =
1
(aˆ q − aq )' Ωˆ −aˆ1q (aˆq − aq ) .
q
Observaţie:
Se observă că valoarea tabelată F depinde de (α , q, T − p ) şi nu
qF χ (q )
2
σˆ ε2
numitor (T − p ) 2 distribuită χ2 cu (T-p) grade de libertate.
σε
69
Eroarea de previziune va fi variabila aleatoare:
Yθp − Yθ = (aˆ1 − a1 )x1θ + ... + (aˆ p − a p )x pθ − ε θ .
Se constată că media erorii de previziune este zero:
(
E Yθ p − Yθ = 0 , )
iar varianţa erorii de previziune este:
( )
Var Yθp − Yθ = E Yθ p − Yθ [( ) ] = E ⎡⎢∑ (aˆ
2
p
i
⎤
− ai ) xi2θ + 2∑ (aˆ i − ai )(aˆ j − a j )xiθ x jθ + ε θ2 ⎥
2
⎣ i =1 i< j ⎦
t=1,2,...,T şi T<θ.
Deducem că:
[(
E Yθ − Yθ p
) ]= ∑ x
2
p
i =1
2
iθ Var (aˆi ) + 2∑ xiθ x jθ cov(aˆ i , aˆ j ) +σ ε2 ,
i< j
[( ) ] = X Ω X + σ , adică:
E Yθ p − Yθ
2 '
θ aˆ θ
2
ε
70
3.7. Coeficientul de corelaţie multiplă R. Analiza varianţei
∑ (y − y ) ∑ (yˆ − y ) ∑ εˆ
2 2
t = t + t
2
∑ (yˆ − y ) ∑ εˆ
2 2
t t
R 2
= = 1−
∑ (y − y ) ∑ (y )
2 2 .
t t −y
71
necentrate pe media lor, poate conduce la valori ale lui R2 care ies
din intervalul (0,1).
R2 =
(Yˆ − Y )(' Yˆ − Y ) , dar (Yˆ − Y ) = (X − X )aˆ .
(Y − Y )(' Y − Y )
aˆ = [(X − X )( ' X − X )] (X − X )( ' Y − Y ) şi coeficientul devine:
−1
aˆ ' (X − X )( ' Y −Y )
R =
(Y − Y )(' Y − Y ) .
2
72
O definire mai precisă a lui R2 , care ţine cont de T şi p este:
T −1
2
R =1−
T−p
(
1− R2 ).
2
R se numeşte coeficient de corelaţie multiplă corectat.
2
1. dacă p=1, atunci R = R2 ;
2
2. dacă p>1, atunci R < R2 ;
2
3. R poate scădea prin introducerea în model a unei noi
variabile exogene;
2 p −1
4. R poate lua şi valori negative, dacă R2 < .
T −1
Analiza varianţei
73
Fie:
εˆ
Xp
ξˆ Xq
Hp
ηˆ
O Hq
(L)
X1
Ştim că 2
0 A = 0H
2
+ HA
2
, adică Y 'Y = Yˆ 'Yˆ + εˆ'εˆ .
Rezultatele se grupează, adesea, într-un tabel de analiză a
varianţei:
74
CAPITOLUL V
MODELE CU ECUAŢII MULTIPLE
111
9 Stabilitatea curbei cererii şi ofertei când t variază.
C Ot
Ct
t
O
xxxx
xxxxx
x
pt
xxxxxxxxxxxxx
x
xxxxxxxxxxxxx
pt
112
Pentru numeroase produse agricole, de exemplu,
cererea scade dacă preţurile cresc. Această legătură
între preţ şi cerere depinde de comportamentul
consumatorilor. Oferta, dimpotrivă, se deplasează în sus
sau jos după cum a fost recolta. Punctele norului sunt
acum dispuse de o parte sau alta a curbei cererii, care
poate fi estimată.
9 Stabilitatea legii ofertei.
Ct
C Ot
t Ct
O Ct
xxxxxx
x
xxxxxx
x
pt
113
Ot Ot
C Ct
Ct Ct
t Ot
O
xxxx
xxxxxxxx
x
xxxxxxx
pt
114
văzut, orice posibilitate de estimare sub această formă
(există, totuşi, o excepţie asupra căreia vom reveni).
De exemplu, un sistem de două ecuaţii pentru cerere şi
ofertă sub formă structurală este:
⎧qt = a1 pt + b1Vt + c1 + ε 1t
⎨
⎩qt = a 2 pt + b2 xt + c2 + ε 2t
unde Vt este venitul consumatorilor, o variabilă exogenă care
influenţează cererea de bunuri, alături de preţ pt, iar xt este o
variabilă exogenă care influenţează oferta de bunuri. În
model, qt şi pt sunt variabile endogene.
Forma redusă se obţine pornind de la forma
structurală, exprimând fiecare variabilă endogenă în funcţie
de exogenele modelului. În exemplul precedent, se obţine:
⎧ b1 b2 c1 − c2 ε 1t − ε 2t
⎪ p t = Vt − x t + +
⎪ a 2 − a1 a 2 − a1 a 2 − a1 a 2 − a1
⎨
⎪q = a 2 b1 V − a1b2 x + a 2 c1 − a1c2 + a 2ε 1t − a1ε 2t
⎪⎩ t a 2 − a1 t a 2 − a1 t a 2 − a1 a 2 − a1
⎧ pt = α1Vt − β1 xt + γ 1 + η1t
(*) ⎨q = α V − β x + γ + η
⎩ t 2 t 2 t 2 2t
b1 b2 c1 − c2 ε 1t − ε 2t a 2b1
unde: α1 = , β1 = , γ1 = , η1t = , α2 = ,
a 2 − a1 a 2 − a1 a 2 − a1 a 2 − a1 a 2 − a1
β2 =
a1b2
, γ2 =
a2 c1 − a1c2
, η 2t = a2ε 1t − a1ε 2t .
a 2 − a1 a2 − a1 a 2 − a1
115
(*) este forma redusă a modelului. În această formă nu mai
este vorba nici de ecuaţia cererii, nici de ecuaţia ofertei. O
regresie a lui pt şi qt asupra Vt şi xt este posibilă, dar
parametrii estimaţi α1, α2, β1, β2 nu mai au nicio
semnificaţie economică. Problema care se pune este, deci, de
a determina parametrii formei structurale pornind de la
estimaţiile obţinute pe forma redusă. Aceasta este problema
„identificării” modelului econometric.
c. Funcţia consumului în modelul Keynes
Sub formă structurală, un model keynesian elementar este
dat de sistemul de ecuaţii:
⎧C t = aRt + b + ε t
(I) ⎨ R = C + I
⎩ t t t
116
Înainte de a studia modelele cu ecuaţii multiple, vrem să
comparăm direct estimatorii obţinuţi pe cele două forme:
structurală şi redusă.
aˆ =
∑ (C − C )(R − R )
t t
∑ (R − R )
. 2
t
Ct − C =
a
1− a
(
ε −ε
It − I + t
1− a
)
Rt − R =
a
1− a
(
ε −ε
It − I + t
1− a
)
9 Înlocuim în expresia lui â :
aˆ =
( ) (
a∑ I t − I + (a − 1)∑ I t − I ε t − ε + ∑ ε t − ε
2
)( ) ( )2
∑ (I ) ( )(
− I + 2∑ I t − I ε t − ε + ∑ ε t − ε ) ( )
2 2
t
117
aμ 2 (I ) + (a − 1)μ11 (I , ε ) + μ 2 (ε )
aˆ =
μ 2 (I ) + 2μ11 (I , ε ) + μ 2 (ε ) .
Dar, pentru T (număr de observaţii) suficient de mare:
1
(
μ 2 (I ) = ∑ I t − I
T
)
2
T
1
(
, μ 2 (ε ) = ∑ ε t − ε )
2
μ11 (I , ε ) =
1
T
(
∑ It − I εt − ε )( )
tinde către zero pentru că I şi ε sunt independente.
Atunci, pentru T suficient de mare, şi ţinând cont că
0<a<1 (a este înclinaţia marginală spre consum,
consumatorul este prudent, nu alocă tot venitul pentru
consum) se obţine:
aμ 2 (I ) + μ 2 (ε )
aˆ ≅ >a
μ 2 (I ) + μ 2 (ε )
însemnând că â supraestimează pe a.
Concluzie
O regresie directă pe forma structurală introduce o
deplasare sistematică a estimatorului a.
La fel se poate arăta că b̂ obţinut pe forma structurală
subestimează pe b.
118
5.2. Estimarea pe forma redusă şi trecerea la forma
structurală. Regresia indirectă
Notăm cu: α=
1
, β=
b
, ηt = ε t şi forma redusă (II) se
1− a 1− a 1− a
scrie:
⎧Ct = (α − 1)I t + β + η t
⎨ .
⎩Rt = αI t + β + η t
Aplicând MCMMP celor două ecuaţii, determinăm
estimatorii α̂ şi βˆ . Ştim că aceşti estimatori sunt nedeplasaţi
şi convergenţi şi cunoaştem distribuţia lor pentru T suficient
de mare, dacă η t nu urmează o lege normală.
ˆ βˆ 1
Rezultă: aˆ = 1 − , b = ˆ cu â şi convergenţi în
α̂ α b̂
expresiile T (αˆ − α ) şi (
T βˆ − β ) au o distribuţie limită
normală, de medie egală cu zero. T este un factor de
119
normalizare care evită, pentru T suficient de mare, să avem o
distribuţie degenerată.
Putem scrie că:
⎡αˆ − 1 α − 1⎤ ⎡αˆ − α ⎤
T (aˆ − a ) = T ⎢ − = T
⎣ αˆ α ⎥⎦ ⎢⎣ ααˆ ⎥⎦
( )
T bˆ − b ⎯⎯→
P
⎡ βˆ − β β
T⎢
⎤
− 2 (αˆ − α )⎥ .
⎣ α α ⎦
Concluzie: Corespondenţa între parametrii formei structurale
şi cei ai formei reduse este foarte rar, dacă nu niciodată, aşa
de simplă ca în exemplul studiat. Se impune deci, studierea
cazului general al unui model cu ecuaţii multiple.
120
probleme apar în legătură cu formularea generală? Răspunsul la
astfel de întrebări e dat în continuare.
⎛ y1t ⎞ ⎛ x1t ⎞ ⎛ ε 1t ⎞
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜y ⎟ ⎜ x2t ⎟ ⎜ε ⎟
Yt (nx1) = ⎜ 2t ⎟ X t (mx1) = ⎜ ⎟ ε t (nx1) = ⎜ 2t ⎟
... ... ...
⎜ ⎟, ⎜ ⎟, ⎜ ⎟.
⎜y ⎟ ⎜x ⎟ ⎜ε ⎟
⎝ nt ⎠ ⎝ mt ⎠ ⎝ nt ⎠
121
Se ştie că nu putem estima matricile B şi C sub forma
structurală (1), variabilele endogene figurând împreună cu
exogenele în fiecare ecuaţie.
Dacă vom presupune că B este inversabilă, atunci obţinem:
Yt = (− B −1C )X t + B −1ε t
(2) Yt = AX t + η t .
(2) este forma redusă a modelului general cu ecuaţii multiple. Sub
această formă redusă vom putea estima matricea A, bineînţeles cu
unele ipoteze ce vor fi precizate. Dar, pentru a avea estimatori cu o
semnificaţie economică, trebuie să revenim la matricile B şi C.
5.3.2. Estimarea matricii A
Presupunem că dorim să aplicăm MCMMP fiecărei ecuaţii
din modelul (2). Ipotezele modelului liniar general de regresie vor
trebui să fie îndeplinite pentru fiecare ecuaţie.
Prezentăm ipotezele referitoare la erorile ηt (ele vor fi
valabile şi pentru erorile εt pentru că η t = B −1ε t . Aceste ipoteze sunt:
- erorile în ecuaţia i (i=1,...,n) sunt independente:
E (ηit ⋅η it ' ) = 0 , t ≠ t '
- erorile relative la două ecuaţii i şi j şi două momente t şi t’
sunt independente:
E (η it ⋅η jt ' ) = 0
122
Altfel spus, presupunem independenţa erorilor relative la observaţii
diferite.
- matricea de varianţă şi covarianţă a erorilor ηt , este la
momentul t:
⎛ E η12t
⎜
( ) E (η η )
1t 2t ... E (η1tη nt ) ⎞
⎟
⎜ E (η ) 2
... E (η 2tη nt )⎟
Ωηt = ⎜ 2t
⎟
⎜ ... ... ⎟
⎜
⎝ ( )
E η nt ⎟⎠
2
123
Matricea B are n2 elemente, iar C are nm elemente. Se obţine
un sistem de nxm ecuaţii cu n2+nm necunoscute. Această problemă
nu poate fi rezolvată, în general, decât dacă între parametrii formei
structurale există, apriori, n2 relaţii sau restricţii.
Să remarcăm că împărţind succesiv membrul al doilea al fiecărei
ecuaţii din forma structurală prin b11, b22, ...,bnn se obţine matricea
B cu diagonala având doar elemente egale cu 1, ceea ce reduce
numărul de restricţii apriori la n2-n=n(n-1). Aceste restricţii pot fi
de excludere (unele variabile absente în ecuaţiile formei
structurale, însemnînd că parametrii corespunzători sunt nuli) sau
de legături apriori între elementele matricilor B şi C.
5.3.4. Identificarea
124
d. O ecuaţie a modelului este supra-identificată când
singurele restricţii care o afectează sunt suficiente
pentru ca modelul să fie supra-identificat.
e. O ecuaţie supra-identificată este şi identificabilă în
„aproape toate” structurile modelului.
f. Un model supra-identificat poate conţine una sau mai
multe ecuaţii neidentificabile.
125
- dacă Si este a i-a linie a matricii S şi Rih este a h-a coloană a
matricii Ri (corespunzătoare la a h-a restricţie din ecuaţia i),
atunci:
SiRih=0.
De exemplu, dacă restricţia constă în excluderea celei de a k-a
variabile din ecuaţia i (adică egalitatea cu zero a coeficientului sik),
126
apriori la care sunt supuşi coeficienţii ecuaţiei să fie
cel puţin n1+n2-1. Această condiţie este necesară, dar
nu şi suficientă, şi se numeşte „condiţia de ordin”.
3. Fie γi numărul de restricţii apriori care afectează
ecuaţia i.
a. Dacă γ i < n1 + n2 − 1 , atunci ecuaţia a i-a nu este
identificată (se spune şi că este sub-
identificată);
b. Dacă γ i > n1 + n2 − 1 atunci ecuaţia i este supra-
identificată. Ea este, totodată identificabilă în
„aproape toate” structurile modelului.
c. Dacă γ i = n1 + n2 − 1 , atunci a i-a ecuaţie nu este
supra-identificată. Ea poate fi identificabilă în
„aproape toate” structurile.
Observaţie:
Rezultă din definiţiile date că un model este supraidentificat
dacă există mai mult de n1+n2-1 restricţii asupra oricărei ecuaţii
din forma structurală.
Exemple
I. Fie un model cu 3 variabile endogene Y1, Y2, Y3 şi două
exogene X1, şi X2. La momentul t, avem forma structurală:
127
⎧ y1t + c12 x 2t = ε 1t
⎪
⎨b21 y1t + y 2 t + c 21 x1t = ε 2 t
⎪b y + y + c x = ε
⎩ 31 1t 3t 32 2t 3t
128
variabile endogene şi exogene sunt în model (în ordinea Y1, Y2, Y3,
X1, şi X2), adică (n+m). Prima coloană din matricea R1 are
elementele egale cu 0, în afară de al doilea element, egal cu 1, care
corespunde excluderii variabilei Y2 din ecuaţia (1) (prima
restricţie). A doua coloană are toate elementele 0, în afară de al
treilea, egal cu 1, corespunzând excluderii variabilei Y3 din ecuaţia
(1) (a doua restricţie). La fel, coloana a treia este 0, în afara
elementului al patrulea, egal cu 1, corespunzând excluderii
variabilei X1 din ecuaţie (a treia restricţie).
În mod similar se obţin matricile R2 şi R3 corespunzatoare
restricţiilor asupra coeficienţilor din ecuaţiile a 2-a şi a 3-a.
⎛0 0⎞ ⎛0 0⎞
⎜ ⎟ ⎜ ⎟
⎜0 0⎟ ⎜1 0⎟
R2 = ⎜ 1 0 ⎟ , R3 = ⎜ 0 0 ⎟ .
⎜ ⎟ ⎜ ⎟
⎜0 0⎟ ⎜0 1⎟
⎜0 1 ⎟⎠ ⎜0 0⎟
⎝ ⎝ ⎠
129
- pentru a treia ecuaţie:
⎛0 0 ⎞
⎜ ⎟
R = SR3 = ⎜ 1 c21 ⎟
⎜0 0 ⎟
⎝ ⎠
Concluzii:
¾ Prima ecuaţie: γ1 = 3, n1+n2-1=2 (n2=0, nu avem identităţi în
model). Deoarece γ 1 > n1 + n2 − 1 , ecuaţia este supra-identificată
(şi modelul, de asemenea). Matricea R are rangul egal cu 2,
deci rangR=n1+n2-1. Ecuaţia este identificabilă în toate
structurile, adică oricare ar fi valorile atribuite coeficienţilor
care figurează în matricea de structură S;
¾ A doua ecuaţie γ2 = 2, deci γ 2 = n1 + n2 − 1 . Ecuaţia a doua poate
fi identificată, rangul matricii R este 2, în afara cazului când
c12=0. Ea este identificabilă în „aproape toate” structurile (cu
excepţia structurii pentru care c12=0).
¾ A treia ecuaţie: γ3 = 2, deci γ 3 = n1 + n2 − 1 . Dar cum rangul
matricii R este egal cu 1, această ecuaţie nu este niciodată
identificabilă. Tot modelul, în ansamblu, este neidentificabil,
deci, unele elemente ale matricilor B şi C nu vor putea fi
niciodată estimate.
130
II. Fie următoarea formă structurală:
131
⎛1 0 0⎞
⎜ ⎟
⎜0 0 0⎟
⎜0 1 0⎟
R2 = ⎜ ⎟.
⎜0 0 1⎟
⎜0 1 0 ⎟⎟
⎜
⎜0 0 0 ⎟⎠
⎝
132
numai două endogene. Concluziile ar fi fost aceleaşi pentru prima
ecuaţie (ea rămâne neschimbată dacă eliminăm pe y2t, de exemplu).
Adesea este preferabil să păstrăm modelul iniţial, inclusiv
identitatea, pentru că altfel ajungem din nou la combinaţii între
coeficienţii formei structurale. Ori, în toate cazurile trebuie să
revenim la estimarea coeficienţilor formei iniţiale pornind de la
aceste combinaţii.
***
Metodele de estimare utilizate până acum nu se mai aplică la
fel pe ecuaţiile supra-identificate ale unui model cu ecuaţii
multiple. Existenţa restricţiilor asupra matricii A a formei reduse
nu permite determinarea prin MCMMP a unei soluţii unice pentru
estimatorii coeficienţilor. Prin urmare, dacă ecuaţiile sunt simplu
identificabile întoarcerea la coeficienţii formei structurale pornind
de la estimaţiile obţinute pe forma redusă necesită adesea calcule
laborioase. Vom vedea în continuare cum estimăm astfel de
modele.
133
de a trece la estimarea modelului, dacă toţi coeficienţii care apar în
fiecare ecuaţie pot fi determinaţi.
Vrem să vedem ce metode de estimare pot fi aplicate în cazul
modelelor ce ecuaţii multiple.
Se disting patru cazuri:
1. Modelul este sub-identificat. Nu există metode de
estimare în acest caz. Trebuie construit un nou model
care să fie mai bine specificat.
2. Modelul este identificabil. În acest caz se poate
aplica, printre altele, metoda regresiei indirecte
(regresia pe forma redusă a modelului), revenind apoi
la coeficienţii formei structurale.
3. Modelul este supra-identificat. În acest caz nu se mai
poate aplica regresia indirectă. Pentru această situaţie
există alte metode de estimare, ca: MCMMP în două
faze, MCMMP în trei faze, metoda verosimilităţii
maxime cu informaţie incompletă ş.a. Evident, aceste
metode pot fi aplicate şi în cazul modelelor
identificabile.
4. Pentru unele modele particulare, numite modele
recursive, regresia directă pe o ecuaţie a formei
structurale este o metodă satisfăcătoare.
134
5.4.1. Regresia indirectă
scrie: Yt = AX t + η t ,
unde: A = − B −1C şi η t = B −1ε t .
În cazul în care fiecare ecuaţie din model este identificabilă,
se pot estima coeficienţii matricei A din forma redusă (prin
MCMMP) şi în baza relaţiilor de legătură între coeficienţi se
determină estimatorii parametrilor formei structurale. Sub
ipotezele precizate anterior estimatorii obţinuţi sunt convergenţi.
Singurul incovenient este că determinarea coeficienţilor
matricilor B şi C pornind de la coeficienţii estimaţi în matricea A
poate presupune uneori calcule laborioase chiar şi pentru modele
foarte simple.
Exemplu: Fie modelul cu ecuaţii multiple (o variantă a
modelului Keynes):
⎧Ct = α + βYt + ε t
⎨
⎩Yt = Ct + Z t
135
în care Ct şi Yt sunt variabile exogene, iar Zt este o exogenă.
Modelul conţine, deci, o singură ecuaţie veritabilă (n1=1) şi o
identitate (n2=1). Analizăm dacă modelul este identificabil
aplicând criteriile de identificare din paragraful 5.3.5. Matricile B
şi C din forma structurală generală conduc la matricea de structură:
⎛1 − β 0 −α ⎞
S = ( BC ) = ⎜⎜ ⎟ .
⎝1 − 1 1 0 ⎟⎠
136
Să presupunem că dispunem de T=7 observaţii anuale:
t Ct Zt Yt
1 90 20 110
2 95 23 118
3 100 25 125
4 110 26 136
5 112 30 142
6 115 32 147
7 120 33 153
aˆ =
∑Y Z − T Y Z ˆ
t t
, b = Y − aˆ Z .
∑
2
Z − + 2T Z
t
2
137
5.4.2. MCMMP în două faze
⎧ y 2t = yˆ 2t + ηˆ2t
⎪
⎨ y 3t = yˆ 3t + ηˆ3t
(2)
⎪....................
⎩
Faza a doua: Înlocuim variabilele endogene din ecuaţia (1)
cu expresiile lor date de (2). Obţinem:
138
(3) y1t = −b12 yˆ 2t − b13 yˆ 3t ... − c11 x1t − ... − c1m xmt + μ1t ,
unde μ1t = ε 1t − b12ηˆ2t − b13ηˆ3t − ... ..
∑ (Y − Y )− (Z − Z )
bˆ = Y − aˆ Z , ηˆt = Yt − Yˆt , sau
t t
aˆ =
∑ (Z − Z )t
, 2
Yt = Yˆt + η̂t .
139
ˆ ∑ (C − C )(Yˆ − Yˆ )
(4) β =
t t
αˆ = C − βˆYˆ . Dar, ţinând cont că
( ˆ − Yˆ )
, 2
∑ Y t
β̂ =
(
aˆ ∑ Ct − C Z t − Z )( ) = 1 ∑ (C t )(
− C Zt − Z )=
aˆ 2 ∑ Z t − Z ( )
2
aˆ
∑ (Z t −Z )
2
∑ (Z )
∑ (C − C )(Z − Z ) =
2
t −Z t t
=
∑ (Y − Y )(Z − Z ) ∑ (Z − Z )
t t t
2
=
∑ (C − C )(Z − Z ) = ∑ C Z − T C Z
t t t t
∑ (Y − Y )(Z − Z ) ∑ Y Z − T Y Z
t t t t
∑C Z
t t = 20345 , C = 106 şi:
20345 − 7 ⋅106 ⋅ 27 311
βˆ = = = 0,689 , αˆ = 106 − 0,689 ⋅133 = 14,27 ,
25588 − 7 ⋅133 ⋅ 27 451
adică am obţinut acelaşi rezultat ca şi prin regresie indirectă.
***
140
5.4.3. MCMMP în trei faze
141
⎧μˆ1t = y1t − yˆˆ1t
⎪⎪
ˆ
⎨μˆ 2t = y 2t − yˆ 2t
⎪.................
⎪⎩
Acest lucru permite obţinerea unei estimaţii pentru matricea
de varianţă şi covarianţă a erorilor:
⎛ ∑ μˆ12t ∑ μˆ μˆ ... ∑ μˆ μˆ nt ⎞
⎜ 1t 2t 1t
⎟
ˆ = 1⎜
Ω
∑ μˆ 2
2t ... ∑ μˆ μ
2 t nt ⎟
ˆ
μt ⎜ ⎟
T⎜ ... ... ⎟
⎜
⎝ ∑ μˆ nt ⎟⎠
2
la 1 la T) astfel: Y1 = Z1 D1 + μ1 , unde:
⎛ b12 ⎞
⎜ ⎟
⎛ y11 ⎞ ⎜ b13 ⎟ ⎛ μ11 ⎞
⎜ ⎟ ⎛ yˆ 21 yˆ 31 ... x11 ... xm1 ⎞ ⎜ ⎟ ⎜ ⎟
⎜ y12 ⎟ ⎜ ⎟ ... ⎜ μ12 ⎟
Y1 = ⎜ , Z = −⎜ ... ... ⎟ , D1 = ⎜ ⎟ , μ1 = ⎜ ⎟.
... ⎟
1
⎜ c ⎟ ...
⎜
⎜y ⎟
⎟ ⎜ yˆ
⎝ 2T yˆ 3T ... x1T ... xmT ⎟⎠ 11
⎜ ... ⎟ ⎜
⎜μ ⎟
⎟
⎝ 1T ⎠ ⎜ ⎟ ⎝ 1T ⎠
⎜c ⎟
⎝ 1m ⎠
142
(2) Y = ZD + μ
⎛ Y1 ⎞ ⎛ D1 ⎞ ⎛ μ1 ⎞
⎜ ⎟ ⎛ z1 0 ... 0⎞
⎜ ⎟ ⎜ ⎟
⎜ ⎟
⎜Y ⎟ ⎜ D2 ⎟ ⎜ μ2 ⎟
Y = ⎜ 2 ⎟ Z = ⎜ 0 z2 ... 0 ⎟
D = μ =
Unde: ... , ⎜ ... ... ... ... ⎟
, ⎜ ... ⎟ , ⎜ ... ⎟ şi
⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎜Y ⎟ ⎜ 0 ... ... z n ⎟⎠ ⎜D ⎟ ⎜μ ⎟
⎝ n⎠ ⎝ ⎝ n⎠ ⎝ n⎠
⎛Ω ˆ ... 0 ⎞
⎜ μ1 ⎟
ˆ
Ω μ = ⎜ ... ... ... ⎟
⎜⎜ .
0 ... ˆ ⎟⎟
Ω
⎝ μT ⎠
(
Dˆ = Z ' Ω
ˆ −1 Z
μ ) (Z ' Ωˆ )Y .
−1 −1
μ
143
a erorilor Ω̂ μ . În general ei posedă bune proprietăţi asimptotice
(nedeplasare şi convergenţă).
144
CAPITOLUL VI
ALTE TIPURI DE MODELE ECONOMETRICE
6.1.1.Introducere
Liniaritatea în modelele studiate consta în faptul că
variabila endogenă Y se exprima în funcţie de parametri de
estimat printr-o relaţie de gradul I.
De exemplu, modelele:
(1) y t = a1 x1t + a 2 x 2 t + ... + a p x pt + ε t
(3) y t = e
− at
+ εt
(4) y t = a1e 1 1t + a 2 e 2 2 t + ε t
bx b x
145
În aceste cazuri MCMMP conduce la calcule laborioase. De
exemplu, pe modelul (3), suma pătratelor erorilor este expresia:
ϕ (a) = ∑ ( y t − e − at ) 2
t
146
modelului. Proprietăţile estimatorilor obţinuţi prin această
procedură nu prezintă însă garanţii.
Studiul modelelor neliniare pune, deci, o serie de probleme
referitoare la calitatea estimatorilor, la validitatea previziunilor
făcute.
147
Studiem această serie cronologică a vânzărilor cu ajutorul
A
modelului y t = (curba logistică), în care A este o
1 + a.e bt
constantă (vânzările potenţiale maxime), iar a şi b sunt
parametri de estimat.
A
Liniarizarea modelului. Modelul y t = se scrie sub
1 + a.e bt
A A
forma 1 + a.e bt
= a.e bt
= − 1 . Prin logaritmare rezultă
yt , sau yt
⎛ A ⎞
modelul liniar z t = α + β .t , unde: z t = log⎜⎜ − 1⎟⎟ , α = log a ,
⎝ yt ⎠
148
t yt ⎛ 22000 ⎞
z t = log⎜⎜ − 1⎟⎟
⎝ yt ⎠
1 1500 1,13663
2 1700 1,077047
3 1850 1,037103
4 2050 0,988189
5 2250 0,943385
6 2500 0,892095
7 2700 0,854194
8 3110 0,783472
9 3500 0,723104
10 4000 0,653213
11 4500 0,589826
12 5000 0,531479
13 5550 0,471873
14 6150 0,411154
15 7000 0,330993
16 8000 0,243038
17 8800 0,176091
18 9500 0,119186
19 10000 0,079181
βˆ − 0,0604 − 0604
β = b log e , rezultă bˆ = = = = −0,139 .
log e log( 2,71) 0,4329
22000
yˆ t =
1 + 17,39e −0,139 t .
149
6.2. Modele autoregresive
Considerăm modelul:
(1) yt = ayt −1 + ε t , t=1,2,...,T
şi modelul regresiei simple:
(2) yt = bxt + ε t , t=1,2,...,T
Presupunem că erorile εt verifică condiţiile clasice:
E (ε t ) = 0, Var (ε t ) = σ ε2 , ∀t , E (ε t1 .ε t 2 ) = 0 , dacă t1 ≠ t 2 .
150
MCMMP aplicată modelului (1) în care yt-1 este considerată ca o
variabilă exogenă, conduce la estimatorul:
∑ y .y t t −1
aˆ = t
∑y t
2
t −1
∑ y .x t t
bˆ = t
∑x t
t
2
151
- dacă |a|>1, procesul se numeşte exploziv.
Cel mai adesea se studiază cazul stabil, dar nici cazul exploziv
nu trebuie neglijat, atunci când se studiază în economie
fenomene în expansiune.
152
Calculăm acum E ( y t2 ) :
[ ]
E ( y t2 ) = E ( ay t −1 + ε t ) 2 = a 2 E ( y t2−1 + 2 aE ( y t −1 .ε t ) + E (ε t2 )
Ştiind că y t +θ = ay t +θ −1 + ε t +θ rezultă:
E ( y t . y t +θ ) = E [y t ( ay t +θ −1 + ε t +θ )] = aE ( y t . y t +θ −1 ) ,pentru că yt şi ε t +θ
autocovarianţa γ θ = a E ( y t ) .
θ 2
Demonstraţie
153
Am văzut anterior că procesul autoregresiv de ordinul întâi se
poate dezvolta în forma (3). Aplicând operatorul de medie
expresiei (3), rezultă:
E ( yt ) = a t . y0
Cum |a|<1, rezultă că a t . y 0 → 0 când T → ∞ , adică E ( y t ) → 0.
1 − a 2t
E( y ) = σ ε
2
t
2
+ a 2t y 02
1− a 2
σ ε2
Dar y0 = constant, |a|<1 şi atunci lim E ( y )= , adică exact
2
t
t →∞ 1− a2
154
c) Expresia ∑ yt2−1 (aˆ − a) are o distribuţie limită normală ( în ambele
t
tipuri de procese).
Aceste proprietăţi sunt demonstrabile în cazul y0= constant.
Interesul pentru procesele autoregresive de ordinal întâi este
generat de faptul că atunci când se studiază modele econometrice
cu erori corelate, de regulă, erorile urmează un process
autoregresiv.
155
Regresia multipla cu Excel
In tabelul urmator se prezinta nivelul indicele bursier S&P 500,
rata somajului si rata inflatiei (%) pentru perioada ianuarie 2014-februarie 2016.
Rata Rata Rata Rata
Perioada S&P 500 somajului inflatiei Perioada S&P 500 somajului inflatiei
ian.14 1822,36 8,18 1,58 feb.15 2082,20 5,47 -0,03
feb.14 1817,03 7,83 1,13 mar.15 2079,99 5,43 -0,07
mar.14 1863,52 8,21 1,51 apr.15 2094,86 5,2 -0,2
apr.14 1864,26 8,25 1,95 mai.15 2111,94 5,46 -0,04
mai.14 1889,77 8,43 2,13 iun.15 2099,28 5,42 0,12
iun.14 1947,09 8,17 2,07 iul.15 2094,14 5,47 0,17
iul.14 1973,10 8,19 1,99 aug.15 2039,87 5,3 0,2
aug.14 1961,53 7,8 1,7 sept.15 1944,40 5,06 -0,04
sept.14 1993,23 7,56 1,66 oct.15 2024,81 5,17 0,17
oct.14 1937,27 7,46 1,66 nov.15 2080,62 5,5 0,5
nov.14 2044,57 7,12 1,32 dec.15 2054,08 5,73 0,73
dec.14 2054,27 6,36 0,76 ian.16 1918,60 6,27 1,37
ian.15 2028,18 5,61 -0,09 feb.16 1904,42 5,92 1,02
SUMMARY OUTPUT
Regression Statistics
Multiple R 0,742268585
R Square 0,550962652
Adjusted R Square 0,511915926
Standard Error 64,02005519
Observations 26
Multiple R – coeficientul multiplu de corelaţie.
R Square – coeficientul de determinare (este egal cu pătratul coeficientului de corelaţie multiplă).
Poate fi gândit, exprimat procentual, drept proporţia din variaţia variabilei dependente explicată de
variaţia variabilelor independente: 60,7% din variaţia lui Y este explicată de variabilele X.
Adjusted R Square – valoarea corectată a coeficientului de determinare.
Este introdusă pentru a contracara (parţial) efectul creşterii mecanice a
lui R patrat o dată cu numărul variabilelor independente.
Standard Error – eroarea standard a estimaţiei. Se calculează ca abaterea standard a reziduurilor
(pentru numărul gradelor de libertate utilizat se va vedea tabloul ANOVA, în continuare)
şi este estimaţia abaterii standard a erorilor ε (în ipoteza normalităţii acestora).
Observations – numărul de observaţii din eşantion.
ANOVA
50
0
Residuals
0 1 2 3 4 5 6 7 8 9
-50
-100
-150
X Variable 1
Formele de distribuire a reziduurilor duc la concluzii importante pentru adecvanţa
modelului în privinţa variabilei independente implicate:
X Variable 2 Residual Plot
100
50
0
Residuals
-50
-100
-150
X Variable 2
Regresia simpla cu Excel
In tabelul urmator se prezinta nivelul PIB-ului/locuitor calculat prin metoda paritatii
puterii de cumparare, exprimat in euro/locuitor si nivelul coruptiei in anul de referinta
N, exprimat prin indicele de perceptie a coruptiei (IC) elaborat de Transparency International.
Regression Statistics
Multiple R 0,474274141
R Square 0,224935961
Observations 29
2
Residuals
0
0 10000 20000 30000 40000 50000 60000
-1
-2
-3
X Variable 1
Formele de distribuire a reziduurilor duc la concluzii importante pentru adecvanţa
modelului în privinţa variabilei independente implicate:
X Variable 1 Line Fit Plot
12
10
6
Y
Y
Predicted Y
4
0
0 10000 20000 30000 40000 50000 60000
X Variable 1