Sunteți pe pagina 1din 43

ACADEMIA DE STUDII ECONOMICE

FACULTATEA DE ECONOMIE AGROALIMENTARĂ ŞI A MEDIULUI

Prof. univ. dr. MIRCEA GHEORGHIŢĂ

ECONOMETRIE
AVANSATĂ
(note de curs)

BUCUREŞTI
-2010-

1
CUPRINS
INTRODUCERE
SCURTĂ RECAPITULARE A ECONOMETRIEI DE LICENŢĂ

CAPITOLUL I: Modele econometrice cu ecuaţii multiple


I.1. Introducere ............................................................ pg. 3
I.2. Estimarea pe forma structurală .......................... pg. 10
I.3. Estimarea pe forma redusă şi trecerea la forma structurală.
Regresia indirectă ...................................... pg. 11
I.3.1. Distribuţia limită a estimatorilor â şi b̂ obţinuţi
prin regresie indirectă ..................pg. 12
I.4. Modele cu ecuaţii multiple. Cazul general ....... pg. 13
I.4.1. Modelul general ....................................... pg. 14
I.4.2. Estimarea matricii A ................................ pg.15
I.4.3. Întoarcerea la matricile B şi C ............. .pg. 16
I.4.4. Identificarea ........................................... pg. 17
I.4.5. Criterii de identificare ...................... .....pg. 18
I.5. Metode de estimare în modele cu ecuaţii multiple .....pg.26
I.5.1. Regresia indirectă .......................... ..........pg. 28
I.5.2. MCMMP în două faze ............................ pg. 31
I.5.3. MCMMP în trei faze .............................. pg. 34

2
CAPITOLUL II: Modele econometrice neliniare

II.1. Introducere
II.2. Liniarizarea. Estimarea parametrilor
II.3. Exemple
CAPITOLUL III: Econometria seriilor de timp
III.1. Modelarea econometrică a seriilor cronologice
(incomplet !!)

CAPITOLUL IV: Modele autoregresive


IV.1. Introducere
IV.2. Procesul autoregresiv de ordinul întâi
IV.3. Stabilitate şi staţionaritate
IV.4. Proprietăţile estimatorilor
IV.5. Previziunea cu modele autoregresive
IV.6. Modele autoregresive cu erori corelate
IV.7. Exemple
BIBLIOGRAFIE

CAPITOLUL I
MODELE ECONOMETRICE CU ECUAŢII MULTIPLE
I.1. Introducere
În modelele econometrice elementare se studiază dependenţa unei variabile
endogene de o unică variabilă exogenă. Astfel de modele conţin o singură ecuaţie.
Pentru studierea unor fenomene economice mai complexe este necesară
3
introducerea în model a unor ecuaţii suplimentare. Se obţin astfel modele cu mai
multe ecuţii, numite modele cu ecuaţii multiple sau simultane. Procedurile de
estimare vor fi în acest caz mai complicate, dar se bazează pe aceleaşi principii
generale ca şi modelele cu o singură ecuaţie, studiate în ciclul de licenţă.
Câteva exemple:
a. Estimarea unei legi a cererii de bunuri.
În acest caz, modelul va conţine trei ecuaţii: una pentru cerere, una pentru
oferta de bunuri şi o ecuaţie de echilibru cerere-ofertă:

 C t = f ( pt )

 Ot = g ( pt )
C = O
 t t
A estima o lege a cererii înseamnă ca, pornind de la observaţiile ( Ct , pt ) , t =
1,2,...,T să determinăm parametrii necunoscuţi din prima ecuaţie. În funcţie
de dispunerea norului de puncte observate privind cererea de bunuri şi
preţurile acestora, întâlnim următoarele situaţii:
 Stabilitatea curbei cererii şi ofertei când t variază.

4
Ot
Ct Ct
Ot

xxxx
xxxxxx
xxxxxx
xxxx

pt

Norul de puncte observate este în vecinătatea intersecţiei celor două


curbe, care pot avea deplasări mici, independent una de alta. Nu putem
asocia punctele observate uneia sau celeilalte curbe. În acest caz
estimarea nu este posibilă.
 Stabilitatea curbei cererii.
Ot
Ct Ct Ot
Ot Ot

xxxxxxxxxxxxxx
xxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxxxx
xxxxxxxxxxxxxxx

pt

5
Pentru numeroase produse agricole, de exemplu, cererea scade dacă
preţurile cresc. Această legătură între preţ şi cerere depinde de
comportamentul consumatorilor. Oferta, dimpotrivă, se deplasează în
sus sau în jos după cum a fost recolta. Punctele norului sunt acum
dispuse de o parte sau alta a curbei cererii, care poate fi estimată.
 Stabilitatea curbei ofertei.
Ct
Ot
Ct
Ct
Ot Ct

xxxxxxx
xxxxxxx
xxxxxxxx
xxxxxxxx
xxxxxx

pt

Este posibil ca datorită creşterii veniturilor, de exemplu, curba cererii


să se deplaseze, iar cea a ofertei să rămână stabilă. Se obţine o
reprezentare analogă celei dinainte şi legea ofertei poate fi estimată în
acest caz.
 Curba cererii evoluează în funcţie de venituri, curba ofertei
evoluează în funcţie de progresul tehnic şi există o deplasare
simultană a celor două curbe.

6
Ot Ot
Ct
Ct Ct Ct
Ot
Ot

xxxx
xxxxxxxxx
xxxxxxxxxx
xxxxxxxxx
xxxx

pt

În acest caz nu putem estima nici cererea, nici oferta de bunuri.


Ajustarea va conduce la curba care trece prin punctele de intersecţie,
care nu are nicio semnificaţie.
Concluzie: Se pot obţine estimaţii eronate dacă se încearcă estimarea
parametrilor curbei cererii, fără a ţine cont de curba ofertei de bunuri.
Este necesar, deci, să precizăm ambele legi prin introducerea în model
a unor variabile exogene noi, atât în legea cererii, cât şi în legea
ofertei.
b. Forma structurală şi forma redusă
Forma structurală reproduce legile pieţei aşa cum sunt ele propuse de
teoria economică. În această formă, variabilele endogene şi exogene intervin
fără ca endogena să se exprime unic în funcţie de exogenă. Aceasta exclude,
după cum s-a văzut, orice posibilitate de estimare sub această formă (există,
totuşi, o excepţie asupra căreia vom reveni).
De exemplu, un sistem de două ecuaţii pentru cerere şi ofertă sub formă
structurală este:

7
 qt = a1 pt + b1Vt + c1 + ε 1t

 qt = a2 pt + b2 xt + c2 + ε 2t
unde Vt este venitul consumatorilor, o variabilă exogenă care influenţează
cererea de bunuri, alături de preţ pt, iar xt este o variabilă exogenă care
influenţează oferta de bunuri. În model, qt şi pt sunt variabile endogene.
Forma redusă se obţine pornind de la forma structurală, exprimând
fiecare variabilă endogenă în funcţie de exogenele modelului. În exemplul
precedent, se obţine:

 b1 b2 c1 − c2 ε 1t − ε 2t
 t a −a t a −a t a −a + a −a
p = V − x +
 2 1 2 1 2 1 2 1

 q = a2b1 V − a1b2 x + a2 c1 − a1c2 + a2ε 1t − a1ε 2t
 t a2 − a1 t a2 − a1 t a2 − a1 a2 − a1
sau scris sub altă formă:

 pt = α 1Vt − β 1 xt + γ 1 + η 1t
(*) 
 qt = α 2Vt − β 2 xt + γ 2 + η 2t
b1 b2 c1 − c2 ε 1t − ε 2t a 2 b1 a1b2
unde: α1 = , β1 = , γ1 = , η1t = , α2 = , β2 = ,
a 2 − a1 a 2 − a1 a 2 − a1 a 2 − a1 a 2 − a1 a 2 − a1

a 2 c1 − a1c 2 a 2ε 1t − a1ε 2t
γ2 = , η 2t = .
a 2 − a1 a 2 − a1

(*) este forma redusă a modelului. În această formă nu mai este vorba nici
de ecuaţia cererii, nici de ecuaţia ofertei. O regresie a lui pt şi qt asupra Vt şi
xt este posibilă, dar parametrii estimaţi α 1, α 2, β 1, β 2 nu mai au nicio
semnificaţie economică. Problema care se pune este, deci, de a determina

8
parametrii formei structurale pornind de la estimaţiile obţinute pe forma
redusă. Aceasta este problema „identificării” modelului econometric.
c. Funcţia consumului în modelul Keynes
Sub formă structurală, un model keynesian elementar este dat de sistemul
de ecuaţii:

 Ct = a tR+ b + ε t
(I) 
 Rt = Ct + I t
unde Ct este consumul menajului t şi reprezintă o variabilă endogenă, Rt este
venitul disponibil al menajului, considerat o variabilă exogenă. Prima relaţie
exprimă consumul menajului ca o funcţie de venitul disponibil, iar a doua
relaţie arată că menajul partajează venitul disponibil Rt între consum Ct şi
economisire (investiţii) It. Forma redusă asociată acestui model este:

 a b εt
 t 1 − a t 1 − a + 1 − a
C = I +
(II) 
R = 1 I + b + εt
 t 1 − a t 1 − a 1 − a
Înainte de a studia modelele cu ecuaţii multiple, vrem să comparăm direct
estimatorii obţinuţi pe cele două forme: structurală şi redusă.
I.2. Estimarea pe forma structurală
O regresie prin metoda celor mai mici pătate (MCMMP) pe ecuaţia
Ct = aR t + b + ε t , conduce la estimatorul â :

aˆ =
∑ (C t )(
− C Rt − R )
.
∑( R ) 2
t −R

9
Utilizând forma redusă pentru a calcula (C t −C ) şi ( R
t −R ) , putem exprima â

în funcţie de a. Procedăm în felul următor:


 În forma redusă centrăm variabilele:

Ct − C =
a
1− a
( ε −ε
It − I + t
1− a
)

Rt − R =
1
1− a
( ε −ε
It − I + t
1− a
)
 Înlocuim în expresia lui â :

aˆ =
(
a∑ I t − I ) 2
( )(
+ ( a + 1) ∑ I t − I ε t − ε + ∑ ε t − ε ) ( ) 2

∑(I ) ( )(
+ 2∑ I t − I ε t − ε + ∑ ε t − ε ) ( )
2 2
t −I

sau, notând momentele empirice corespunzătoare cu µ2 ( I ) , µ 2 ( ε ) şi


µ11 ( I , ε ) rezultă:
aµ 2 ( I ) + ( a + 1) µ11 ( I , ε ) + µ 2 ( ε )
aˆ =
µ 2 ( I ) + 2µ11 ( I , ε ) + µ 2 ( ε ) .

Dar, pentru T (număr de observaţii) suficient de mare:

∑( I ) , ( )
1 1
µ2 ( I ) = µ2 ( ε ) = ∑ εt − ε
2 2
t −I
T T

tind spre limite finite, în timp ce covarianţa empirică:


µ11 ( I , ε ) =
1
T
(
∑ I t − I εt − ε )( )
tinde către zero pentru că I şi ε sunt independente. Atunci, pentru T
suficient de mare, şi ţinând cont că 0<a<1 (a este înclinaţia marginală
spre consum, consumatorul este prudent, nu alocă tot venitul pentru
consum) se obţine:
aµ 2 ( I ) + µ 2 ( ε )
aˆ ≅ >a
µ 2 ( I ) + µ 2 (ε )

însemnând că â supraestimează pe a.
Concluzie

10
O regresie directă pe forma structurală introduce o deplasare
sistematică a estimatorului parametrului a.
La fel se poate arăta că b̂ obţinut pe forma structurală subestimează
pe b.

I.3. Estimarea pe forma redusă şi trecerea la forma structurală.


Regresia indirectă
1 b εt
Notăm cu: α=
1−a
, β=
1−a
, ηt =
1− a
şi forma redusă (II) se scrie:

 Ct = ( α − 1) I t + β + η t
 .
 Rt = α I t + β + η t
Aplicând MCMMP celor două ecuaţii, se determină estimatorii α̂ şi β̂. Se
ştie (vezi cursul de econometrie din ciclul de licenţă) că aceşti estimatori
sunt nedeplasaţi şi convergenţi şi se cunoaşte distribuţia lor pentru T
suficient de mare (chiar şi atunci când η nu urmează o lege normală). t

1 βˆ
Rezultă: aˆ = 1 −
α̂
, bˆ =
αˆ
cu â şi b̂ convergenţi în probabilitate către a şi b

deoarece α̂ şi β̂ sunt ei înşişi convergenţi. Se spune că am obţinut â şi b̂

prin „regresie indirectă”.


I.3.1. Distribuţia limită a estimatorilor â şi b̂ obţinuţi prin
regresie indirectă.
Se ştie că oricare ar fi distribuţia erorilor εt , deci şi ηt , expresiile
T (α
ˆ −α) şi (
T βˆ − β ) au o distribuţie limită normală, de medie egală cu zero.
T este un factor de normalizare care evită, pentru T suficient de mare, să
avem o distribuţie degenerată.

11
Putem scrie că:
αˆ −1 α −1 αˆ − α 
T ( aˆ − a ) = T  −  = T
 αˆ α   ααˆ 

 αˆ − α  P  αˆ − α 
Pentru T suficient de mare αˆ  → α şi P
T  → T  2  .
 αˆα   α 

Caracteristicile distribuţiei T ( aˆ −a ) se deduc, deci, din cele ale lui T (α


ˆ −α) .
T ( aˆ −a ) are o distribuţie limită normală de medie zero şi ecart-tip dedus din
cel al lui T (α
ˆ −α) împărţit la α2 . Se arată că:

( )
T bˆ − b →
P
 βˆ − β β
T

− 2 ( αˆ − α )  .
 α α 

Concluzie: Corespondenţa între parametrii formei structurale şi cei ai


formei reduse este foarte rar, dacă nu niciodată, aşa de simplă ca în
exemplul studiat.
Se impune deci, studierea cazului general al unui model cu ecuaţii
multiple.

I.4. Modele cu ecuaţii multiple. Cazul general


Am văzut anterior necesitatea introducerii mai multor ecuaţii în modelele
econometrice. Cum tratăm astfel de modele? Ce probleme apar în legătură cu
formularea generală? Răspunsul la astfel de întrebări este dat în continuare.

I.4.1. Modelul general


Considerăm n variabile endogene Y1, Y2,..., Yn şi m variabile exogene X1,
X2,..., Xm, pentru care se cunosc realizările lor în decursul a T perioade. La
momentul t, vom avea:

12
 b1 1y1t + b1 2 y2t + ...+ b1n yn t + c1 1x1t + ...+ c1m xm t = ε 1t
 b y + b y + ...+ b y + c x + ...+ c x = ε
 2 1 1t 2 2 2t 2n n t 2 1 1t 2m m t 2t
(1) 
 ..........
....
 bn1 y1t + bn 2 y2t + ...+ bn n yn t + cn1 x1t + ...+ cn mxm t = ε n t

sau, sub formă matricială:


BY t + CX t = ε t

Unde:
 y1t   x1t   ε 1t 
 b11 ... b1n   c11 ... c1m       
     y2t   x2t   ε 2t 
B( nxm ) =  ... ... ...  , C ( nxm ) =  ... ... ...  , Yt ( nx1) =  , X = , ε =  ...  .
...  ( )  ...  ( )
t mx 1 t nx1
b ... bnn  c ... cnm       
 n1  n1 y  x  ε 
 nt   mt   nt 

Nu se pot estima matricile B şi C sub forma structurală (1), variabilele


endogene figurând împreună cu exogenele în fiecare ecuaţie.
Dacă vom presupune că B este inversabilă, atunci obţinem:
Yt = ( − B −1C ) X t + B −1ε t

sau, notând A = −B −1C şi ηt = B −1ε t , atunci:


(2) Yt = AX t +ηt .

(2) este forma redusă a modelului general cu ecuaţii multiple. Sub această formă
redusă vom putea estima matricea A, bineînţeles cu unele ipoteze ce vor fi
precizate. Dar, pentru a avea estimatori cu o semnificaţie economică, trebuie să
revenim la matricile B şi C.
I.4.2. Estimarea matricii A
Presupunem că dorim să aplicăm MCMMP fiecărei ecuaţii din modelul (2).
Ipotezele modelului liniar general de regresie vor trebui să fie îndeplinite pentru
fiecare ecuaţie.

13
Prezentăm ipotezele referitoare la erorile ηt (ele vor fi valabile şi pentru
erorile εt pentru că ηt = B −1ε t . Aceste ipoteze sunt:
- erorile în ecuaţia i (i=1,...,n) sunt independente:
E (η it ⋅η it ' ) = 0 , t ≠ t '

- erorile relative la două ecuaţii i şi j şi două momente t şi t’ sunt


independente:
E (ηit ⋅η jt ' ) = 0

Altfel spus, presupunem independenţa erorilor relative la observaţii diferite.


- matricea de varianţă şi covarianţă a erorilor η , este la momentul t: t

 E (η 12t ) E (η 1tη 2t ) ... E (η 1tη nt ) 


 
 E (η 22t ) ... E (η 2tη nt ) 
Ω ηt =  
 ... ... 

 E (η 2
nt ) 

Ca şi în cazul modelului liniar general, presupunem că matricea de varianţă şi


covarianţă empirică a variabilelor exogene tinde către o matrice finită când T →∞.

Dacă aceste condiţii sunt îndeplinite, se poate estima fiecare ecuaţie din
modelul sub formă redusă. Estimatorii obţinuţi sunt nedeplasaţi şi au varianţa
minimală. Obţinem astfel matricea  care are ca elemente estimatori nedeplasaţi
ai parametrilor formei reduse şi care converg în probabilitate către valorile
adevărate ale acestor parametri.

I.4.3. Întoarcerea la matricile B şi C


Cunoscând  , estimator al lui A, vrem să ne întoarcem la matricile B şi C.
Dar A are n x m elemente, deci vom avea n x m relaţii între coeficienţi.
Matricea B are n2 elemente, iar C are nm elemente. Se obţine un sistem de
nxm ecuaţii cu n2+nm necunoscute. Această problemă nu poate fi rezolvată, în
14
general, decât dacă între parametrii formei structurale există, apriori, n2 relaţii sau
restricţii.
Să remarcăm că împărţind succesiv membrul al doilea al fiecărei ecuaţii din
forma structurală prin b11, b22, ...,bnn se obţine matricea B cu diagonala având doar
elemente egale cu 1, ceea ce reduce numărul de restricţii apriori la n2-n=n(n-1).
Aceste restricţii pot fi de excludere (unele variabile absente în ecuaţiile formei
structurale, însemnînd că parametrii corespunzători sunt nuli) sau de legături
apriori între elementele matricilor B şi C.

I.4.4. Identificarea
Precizăm câteva definiţii relative la model în general şi la fiecare
ecuaţie în particular.
a. un model se spune că este identificat dacă se pot estima toţi
coeficienţii din matricile B şi C cu ajutorul coeficienţilor matricii A.
b. Un model este supra-identificat atunci când există restricţii asupra
matricii A.
c. O ecuaţie a modelului este identificată atunci când se pot estima toţi
coeficienţii din acea ecuaţie.
d. O ecuaţie a modelului este supra-identificată când singurele restricţii
care o afectează sunt suficiente pentru ca modelul să fie supra-
identificat.
e. O ecuaţie supra-identificată este şi identificabilă în „aproape toate”
structurile modelului.
f. Un model supra-identificat poate conţine una sau mai multe ecuaţii
neidentificabile.

15
I.4.5. Criterii de identificare
Reluăm modelul sub forma structurală, cu ipotezele anterioare (vom
presupune, între altele, absenţa coliniarităţii variabilelor exogene în fiecare
ecuaţie). Precizăm noţiunea de restricţie relativă la o ecuaţie din forma
structurală.
a. Fiecare restricţie pe forma structurală se traduce printr-o relaţie
liniară omogenă între coeficienţii unei ecuaţii.
b. Definim o matrice a restricţiilor Ri relativă la ecuaţia a i-a şi o
matrice de structură S obţinută prin juxtapunerea matricilor B şi C:
S=(BC)
Matricea Ri va fi construită astfel:
- dacă Si este a i-a linie a matricii S şi Rih este a h-a coloană a matricii Ri
(corespunzătoare la a h-a restricţie din ecuaţia i), atunci:
SiRih=0.
De exemplu, dacă restricţia constă în excluderea celei de a k-a variabile din
ecuaţia i (adică egalitatea cu zero a coeficientului sik), atunci: Rih = ( rihl ) , cu rihl =0
dacă l ≠ k , rihk = 1 ceea ce înseamnă relaţia: Si Rih = sik ⋅1 + 0 = 0 .

Construcţia matricii Ri va fi exemplificată imediat.


Notăm cu:
-n1 numărul de ecuaţii veritabile din modelul cu ecuaţii multiple;
-n2 numărul de identităţi din model;
-n = n1 + n2 numărul de variabile endogene;
şi enunţăm următoarele criterii de identificare:

16
1. Fie un model cu ecuaţii multiple care satisface ipotezele precedente.
A i-a ecuaţie este identificată dacă şi numai dacă rangul matricii
R = S ⋅ Ri este egal cu n1+n2-1. Aceasta este o condiţie necesară şi
suficientă pentru identificare şi se numeşte „condiţia de rang”.
2. Pentru ca o ecuaţie a modelului în forma structurală să fie
identificată trebuie ca numărul restricţiilor apriori la care sunt
supuşi coeficienţii ecuaţiei să fie cel puţin n1+n2-1. Această condiţie
este necesară, dar nu şi suficientă, şi se numeşte „condiţia de
ordin”.
3. Fie γi numărul de restricţii apriori care afectează ecuaţia i.
a. Dacă γ i < n1 + n2 −1 , atunci ecuaţia a i-a nu este
identificată (se spune şi că este sub-identificată);
b. Dacă γ i > n1 + n2 −1 atunci ecuaţia i este supra-
identificată. Ea este, totodată identificabilă în „aproape toate”
structurile modelului.
c. Dacă γ i = n1 + n2 −1 , atunci a i-a ecuaţie nu este
supra-identificată. Ea poate fi identificabilă în „aproape toate”
structurile.

Observaţie:
Rezultă din definiţiile date că un model este supraidentificat dacă există mai
mult de n1+n2-1 restricţii asupra oricărei ecuaţii din forma structurală.

Exemple

17
I. Fie un model cu 3 variabile endogene Y1, Y2, Y3 şi două exogene X1, şi X2.
La momentul t, avem forma structurală:

 y1t + c1 2x2t = ε 1t

 b2 1y1t + y2t + c2 1x1t = ε 2t
b y + y + c x = ε
 3 1 1t 3t 3 2 2t 3t
Pentru a identifica uşor matricile B şi C scriem modelul înlocuind
variabilele absente cu zero şi respectând forma structurală generală (ordinea
variabilelor este Y1, Y2, Y3, X1, şi X2):

 y1t + 0 + 0 + 0 + c1 2x2t = ε 1t

 b2 1y1t + y2t + 0 + c2 1x1t + 0 = ε 2t ,
b y + 0 + y + 0 + c x = ε
 3 1 1t 3t 3 2 2t 3t

astfel că matricile coeficienţilor sunt:


1 0 0  0 c12 
   
B =  b21 1 0  , C =  c 21 0 ,
b 0 1   0 c32 
 31 

iar matricea de structură S este:


 1 0 0 0 c12 
 
S =  b21 1 0 c21 0 .
b 0 1 0 c32 
 31

Scriem acum matricile R1, R2, R3 ale restricţiilor asociate celor trei ecuaţii
din model.
Matricea R1 este:
0 0 0
 
1 0 0
R1 = 0 1 0 .
 
0 0 1
0 0 0
 

18
Matricile Ri, i=1,2,3 au atâtea coloane câte restricţii asupra coeficienţilor
sunt în ecuaţia respectivă ( γ ) şi atâtea linii câte variabile endogene şi exogene
i

sunt în model (în ordinea Y1, Y2, Y3, X1, şi X2), adică (n+m). Prima coloană din
matricea R1 are elementele egale cu 0, în afară de al doilea element, egal cu 1,
care corespunde excluderii variabilei Y2 din ecuaţia (1) (prima restricţie). A doua
coloană are toate elementele 0, în afară de al treilea, egal cu 1, corespunzând
excluderii variabilei Y3 din ecuaţia (1) (a doua restricţie). La fel, coloana a treia
este 0, în afara elementului al patrulea, egal cu 1, corespunzând excluderii
variabilei X1 din ecuaţie (a treia restricţie).
În mod similar se obţin matricile R2 şi R3 corespunzatoare restricţiilor asupra
coeficienţilor din ecuaţiile a 2-a şi a 3-a.
0 0 0 0
   
0 0 1 0
R2 =  1 0 , R3 =  0
 0.
   
0 0 0 1
0 
1 0 0
  

Calculăm acum matricile R corespunzătoare:


- pentru prima ecuaţie:
0 0 0
 
 1 0 0 0 c12 1 0 0  0 0 0 
   
R = SR1 = b21 1 0 c21 0  0 1 0  = 1 0 c 21 
 
b c32  1  0 
 31 0 1 0  0 0 0 1 
0 0 0

- pentru a doua ecuaţie:


 0 c12 
 
R = SR2 =  0 0 
1 c 
 32 

- pentru a treia ecuaţie:

19
0 0 
 
R = SR 3 =  1 c 21 
0 0 

Concluzii:
 Prima ecuaţie: γ1 = 3 , n1+n2-1=2 (n2=0, nu avem identităţi în model).
Deoarece γ 1 > n1 + n2 −1 , ecuaţia este supra-identificată (şi modelul, de
asemenea). Matricea R are rangul egal cu 2, deci rangR=n1+n2-1. Ecuaţia
este identificabilă în toate structurile, adică oricare ar fi valorile atribuite
coeficienţilor care figurează în matricea de structură S;
 A doua ecuaţie γ2 = 2, deci γ 2 = n1 + n2 −1 . Ecuaţia a doua poate fi identificată,
rangul matricii R este 2, în afara cazului când c12=0. Ea este identificabilă în
„aproape toate” structurile (cu excepţia structurii pentru care c12=0).
 A treia ecuaţie: γ3 = 2 , deci γ 3 = n1 + n2 −1 . Dar cum rangul matricii R este egal
cu 1, această ecuaţie nu este niciodată identificabilă. Tot modelul, în
ansamblu, este neidentificabil, deci, unele elemente ale matricilor B şi C nu
vor putea fi niciodată estimate.

II. Fie următoarea formă structurală:

 y1t − a y3t − b x1t − c = ε 1t



 y2t − d ( y3t − x2t ) − e = ε 2t ,
y + y = y
 1t 2t 3t

20
adică un model cu trei ecuaţii, dintre care două veritabile şi ultima, o identitate.
Rescriem modelul pentru a pune în evidenţă matricile B şi C, introducând o
variabilă auxiliară u t =1, ∀t ca factor pentru fiecare constantă.

 y1t + 0 − a y2 t − b x1 t + 0 - c ut = ε 1t

 0 + y2t − d y3t + 0 + d x2 t - e ut = ε 2t .
 y + y - y + 0 + 0+ 0 = 0
 1t 2t 3t
Matricea de structură este:
1 0 −a −b 0 −c 
 
S = 0 1 −d 0 d −e 
1 1 −1 0 0 0 
 

Matricea restricţiilor referitoare la prima ecuaţie este:


0 0
 
1 0
0 0
R1 =  
0 0 .
0 1
 
0 0
 

Singurele restricţii relative la prima ecuaţie sunt două restricţii de excludere.


Matricea restricţiilor aferente celei de a doua ecuaţii veritabile este:
1 0 0
 
0 0 0
0 1 0
R2 =  
0 0 1 .
0 1 0
 
0 0 0
 

În a doua ecuaţie există trei restricţii: două de excludere a variabilelor Y1 şi


X1 şi una referitoare la faptul că variabilele Y3 şi X2 au acelaşi coeficient (d), cu
semne contrare, deci suma celor doi coeficienţi este nulă. Din acest motiv, pe a
doua coloană a matricii R2 apare 1 în dreptul variabilelor Y3 şi X2.
Matricile produs SR1 şi SR2 sunt:
21
0 0 1 −a −b 
   
S ⋅ R1 =  1 d  , S ⋅ R2 = 0 0 0 .
1 0 1 −1 0 
   

- prima ecuaţie: γ 1 = 2 ; n1 + n2 −1 = 2 , rg ( SR1 ) = 2 , în afara cazului d = 0 . Ecuaţia este


identificabilă în „aproape toate” structurile;
- a doua ecuaţie: γ 2 = 3 ; γ 2 > n1 + n2 −1 , rg ( SR2 ) = 2 , în afara cazului a=1. Această
ecuaţie este supraidentificată. Ea este identificabilă în aproape toate structurile.
Să remarcăm faptul că a treia relaţie în model este o identitate. Ea a fost
tratată în matricea de structură S ca o ecuaţie. Variabilele absente au fost înlocuite
cu 0 în matrice. Putem utiliza această identitate pentru a ajunge la un model cu
două ecuaţii şi numai două endogene. Concluziile ar fi fost aceleaşi pentru prima
ecuaţie (ea rămâne neschimbată dacă eliminăm pe y2t, de exemplu).
Adesea este preferabil să păstrăm modelul iniţial, inclusiv identitatea, pentru
că altfel ajungem din nou la combinaţii între coeficienţii formei structurale. Ori,
în toate cazurile trebuie să revenim la estimarea coeficienţilor formei iniţiale
pornind de la aceste combinaţii.

III. UN MODEL ECONOMETRIC AL PIEŢEI LEGUMELOR

Pentru a studia piaţa legumelor, vom face ipoteza că cererea de legume este
formată din două componente: consumul de legume în stare proaspătă al
menajelor şi cererea de legume pentru industrializare (conservare). Consumatorii
de legume, indiferent de destinaţie, se întîlnesc pe aceeaşi piaţă.
Consumul de legume în stare proaspătă al menajelor în perioada t, notat cu
Cmt, depinde de preţul legumelor (pt) şi de venitul disponibil (Vt). Cererea de
legume pentru conservare în perioada t, notată cu Cct este funcţie de preţul
legumelor (pt) şi de cererea de conserve din perioada precedentă (Ct-1). Oferta de
legume în perioada t, notată cu Ot, este funcţie de preţul legumelor din perioada
anterioară (pt-1). Rezultă următorul model econometric în formă structurală al
pieţei legumelor:
1. Ecuaţia ofertei de legume:
22
Ot = a1 pt −1 + a 2 +εt
2. Ecuaţia cererii de legume în stare proaspătă:
Cm t = a3 pt + a 4Vt + a5 + ξt
3. Ecuaţia cererii de legume pentru conservare:
Cc t = a6 pt + a7 Ct −1 + a8 + µt
4. Ecuaţia de echilibru a pieţei legumelor:
Ot = Cm t + Cc t
unde ai, i=1,2,...,8 sunt parametri reali necunoscuţi, ce urmează a fi estimaţi, iar ε,
ξ, μ sunt variabilele reziduale corespunzătoare. Este convenabil să reducem
numărul ecuaţiilor din model prin înlocuirea variabilei „oferta de legume” cu
suma cererilor, conform ecuaţiei de echilibru. Obţinem astfel modelul:

 Cmt + Cct = a1 pt −1 + a2 + ε t

 Cmt = a3 pt + a4Vt + a5 + ξ t
Cc = a p + a C + a + µ
 t 6 t 7 t −1 8 t

Pentru a studia posibilităţile de identificare ale acestui model econometric al


pieţei legumelor, este de preferat o scriere matricială a modelului. În acest scop
introducem o variabilă auxiliară, X =1, ∀t . Rezultă următoarea formă matricială a
t

modelului:
p 
1 1 0  Cmt   − a1 0 0 − a2  t −1   ε t 
     V   
 1 0 − a3  Cct  +  0 − a4 0 − a5  t  =  ξ t 
 0 1 − a  p   0 C
 6  t   0 − a7 − a8  t −1   µ t 
 Xt 
Utilizînd notaţiile:
1 1 0   − a1 0 0 − a2   Cmt 
     
A =  1 0 − a3 , B =  0 − a4 0 − a5 , Y =  Cct 
0 1 − a   0 0 − a7 − a8   p 
 6   t 
 pt −1 
   εt 
 Vt   
X = , Ψ =  ξt 
Ct −1  µ 
   t
X 
 t 
modelul devine: AY + BX = Ψ , a cărui formă redusă este:
 pt −1 
 Cmt   a1 a3 a 4 a6 − a3 a7 a2 a3 + a5 a6 − a3 a8   ε 
  1   Vt   t 
 Cct  =  a1a6 − a 4 a6 a3 a7 a 2 a6 − a5 a6 + a3 a8  +  ξt 
 p  a3 + a 6  a  Ct −1   
 t   1 − a4 − a7 a 2 − a 5 − a8  X   µ t 
 t 
Forma redusă a modelului se poate scrie şi astfel:

23
Cm t = γ 11 pt −1 + γ 12Vt + γ 13 Ct −1 + γ 14 + ε t

Cc t = γ 21 pt −1 + γ 22Vt + γ 23 Ct −1 + γ 24 + ξt
 p = γ p +γ V +γ C +γ + µ
 t 31 t −1 32 t 33 t −1 34 t

unde:
a1a3 a 4 a6 − a3 a7 a a + a 5 a 6 − a 3 a8
γ 11 = , γ 12 = , γ 13 = , γ 14 = 2 3
a3 + a 6 a3 + a 6 a3 + a 6 a3 + a 6
aa − a 4 a6 aa a a − a5 a6 + a3 a8
γ 21 = 1 6 , γ 22 = , γ 23 = 3 7 , γ 24 = 2 6
a3 + a 6 a3 + a 6 a3 + a6 a3 + a 6
a1 − a4 − a7 a −a −a
γ 31 = , γ 32 = , γ 33 = , γ 34 = 2 5 8
a3 + a 6 a3 + a6 a3 + a 6 a3 + a 6
Condiţiile de identificare a ecuaţiilor formei structurale sunt:
a) condiţia de ordin: în acest model avem n=3. Fie ni şi mi numărul de
variabile endogene, respectiv exogene, absente în ecuaţia i. Atunci:
1. Prima ecuaţie: n1=1, m1=2 şi n1 + m1  n − 1
2. A doua ecuaţie: n2=1, m2=2 şi n2 + m2  n −1
3. A treia ecuaţie: n3=1, m3=2 şi n + m  n −1 3 3

b) condiţia de rang: condiţiile necesare de identificare fiind


îndeplinite, trebuie studiată condiţia de rang. Aplicarea sa conduce
la constatarea că modelul este supraidentificat, pentru că cele trei
ecuaţii ale formei structurale sunt supraidentificate.
Se pot estima cei 12 parametri ai formei reduse. Cu aceştia va trebui să
deducem în mod univoc pe cei opt parametri ai formei structurale pentru ca
modelul să fie bine identificat. Dar, relaţiile anterioare dintre coeficienţii formei
reduse şi cei ai formei structurale, fac acest lucru imposibil. Cei 12 parametri nu
sunt independenţi, între ei există unele relaţii ca:
γ = −γ , γ 12 = −γ 22 , −γ γ = γ γ , etc.
13 23 31 23 11 33

Cei 12 parametri nu pot fi estimaţi, cu ajutorul metodei celor mai mici pătrate,
ecuaţie cu ecuaţie. Este nevoie să se aplice metoda celor mai mici pătrate în două
stadii pentru a estima coeficienţii ecuaţiilor supraidentificate, lucrînd direct pe
forma structurală a modelului. Informaţiile asupra „sistemului” şi a mediului său
sunt supra-abundente. Forma redusă obţinută corespunde la mai multe forme
structurale. Cea reţinută aici nu este decît o formulare particulară a funcţionării
„sistemului”. Alte formulări ar putea conduce la aceeaşi formă redusă.

24
Metodele de estimare utilizate în mod uzual nu se mai aplică la fel pe
ecuaţiile supraidentificate ale unui model cu ecuaţii multiple. Existenţa
restricţiilor asupra matricii A a formei reduse nu permite determinarea prin
MCMMP a unei soluţii unice pentru estimatorii coeficienţilor. Prin urmare, dacă
ecuaţiile sunt simplu identificabile întoarcerea la coeficienţii formei structurale
pornind de la estimaţiile obţinute pe forma redusă necesită adesea calcule
laborioase. Vom vedea în continuare cum estimăm astfel de modele.

I.5. Metode de estimare în modele cu ecuaţii multiple


Criteriile de identificare aplicate fiecărei ecuaţii dintr-un model econometric
cu ecuaţii multiple permit să apreciem, înainte de a trece la estimarea modelului,
dacă toţi coeficienţii care apar în fiecare ecuaţie pot fi determinaţi.
Vrem să vedem ce metode de estimare pot fi aplicate în cazul modelelor ce
ecuaţii multiple.
Se disting patru cazuri:
1. Modelul este sub-identificat. Nu există metode de estimare în acest
caz. Trebuie construit un nou model care să fie mai bine specificat.
2. Modelul este identificabil. În acest caz se poate aplica, printre altele,
metoda regresiei indirecte (regresia pe forma redusă a modelului),
revenind apoi la coeficienţii formei structurale.
3. Modelul este supra-identificat. În acest caz nu se mai poate aplica
regresia indirectă. Pentru această situaţie există alte metode de
estimare, ca: MCMMP în două faze, MCMMP în trei faze, metoda
verosimilităţii maxime cu informaţie incompletă ş.a. Evident, aceste
metode pot fi aplicate şi în cazul modelelor identificabile.

25
4. Pentru unele modele particulare, numite modele recursive, regresia
directă pe o ecuaţie a formei structurale este o metodă satisfăcătoare.

I.5.1. Regresia indirectă


Fie modelul cu ecuaţii multiple, în scriere matricială, sub forma structurală:
BY t + CX t = ε t .

În cazul în care matricea coeficienţilor variabilelor endogene, B, este


inversabilă, atunci forma redusă asociată modelului se scrie: Yt = AX t +ηt ,

unde: A = −B −1C şi ηt = B −1ε t .

În cazul în care fiecare ecuaţie din model este identificabilă, se pot estima
coeficienţii matricei A din forma redusă (prin MCMMP) şi în baza relaţiilor de
legătură între coeficienţi se determină estimatorii parametrilor formei structurale.
Sub ipotezele precizate anterior estimatorii obţinuţi sunt convergenţi.
Singurul incovenient este că determinarea coeficienţilor matricilor B şi C
pornind de la coeficienţii estimaţi în matricea A poate presupune uneori calcule
laborioase chiar şi pentru modele foarte simple.
Exemplu: Fie modelul cu ecuaţii multiple (o variantă a modelului Keynes):

 Ct = α + β Yt + ε t

 Yt = Ct + Z t
în care Ct şi Yt sunt variabile exogene, iar Zt este o exogenă. Modelul conţine,
deci, o singură ecuaţie veritabilă (n1=1) şi o identitate (n2=1). Analizăm dacă

26
modelul este identificabil aplicând criteriile de identificare din paragraful I.4.5.
Matricile B şi C din forma structurală generală conduc la matricea de structură:
1 − β 0 −α 
S = ( BC ) = 
1 −1  .
 1 0 

În singura ecuaţie veritabilă (prima ecuaţie) există o singură restricţie


referitoare la coeficienţi (restricţia de excludere a variabilei exogene Zt). Prin
urmare, γ1 =1 , iar matricea R1 este:
0 
 
0  0
R1 =   , rezultând că matricea R = S ⋅ R1 =   are rangul egal cu 1.
1 1 
 
0 
 

Deoarece n1 + n2 −1 = 1 , rezultă că este îndeplinită condiţia de rang, iar pentru


că γ 1 = n1 + n2 −1 este îndeplinită şi condiţia de ordin. Modelul este, deci,
identificabil şi putem aplica metoda regresiei indirecte.
Scriem forma redusă a modelului:

 Ct = ( a − 1) Zt + b + η t
 ,
 Yt = a Zt + b + η t
1 α ε
unde: a= , b= , ηt = t .
1 −β 1 −β 1− β

Să presupunem că dispunem de T=7 observaţii anuale:


t Ct Zt Yt
1 90 20 110
2 95 23 118
3 100 25 125
4 110 26 136
27
5 112 30 142
6 115 32 147
7 120 33 153

Aplicarea MCMMP celei de a doua ecuaţii din forma redusă conduce la


estimatorii:

aˆ =
∑Yt Z t −T Y Z
, bˆ =Y −aˆ Z .
∑Z t2 −T Z
2

Cu datele din tabel, obţinem: ∑Y Z t t = 25588 , ∑Z t


2
= 5243 , Z = 27 , Y =133 şi
aˆ =3,221 , bˆ =46 ,033 .
Determinăm estimatorii parametrilor din forma structurală, cu ajutorul
relaţiilor dintre coeficienţi:
1 1 α
ˆ. bˆ
aˆ = βˆ = 1 − = 0,69 bˆ =
1 − β̂ , aˆ 1 − βˆ
, α
ˆ=

=14 ,29 .

I.5.2. MCMMP în două faze


Această metodă se aplică atunci când ecuaţiile sunt supra-identificate.
Desigur, dacă ecuaţia este identificabilă, metoda conduce la aceleaşi rezultate ca
şi regresia indirectă.
Reluăm modelul sub forma structurală BY t + CX t = ε t şi presupunem că prima
ecuaţie este supra-identificată. Această primă ecuaţie poate fi scrisă sub forma:
(1) y1t = −b12 y 2t −... −b1n y nt − c11 x1t −... − c1m x mt +ε1t .
Este clar că datorită restricţiilor care afectează această ecuaţie, unele
variabile endogene şi exogene pot lipsi din ecuaţie.
28
Faza întâi: Se estimează prin MCMMP ecuaţiile din forma redusă
corespunzătoare variabilelor endogene care figurează în partea dreaptă a ecuaţiei
(1). Aceste ecuaţii se scriu astfel:

 y 2t = λ 2 1x1t + ...+ λ 2m xm t + η 2t

 y3t = λ 3 1x1t + ...+ λ 3m xm t + η 3t .
 ..........
..........

După efectuarea acestor regresii, obţinem:

 y 2t = yˆ 2t + ηˆ2t

(2)  y3t = yˆ 3t + ηˆ3t
 ..........
..........

Faza a doua: Înlocuim variabilele endogene din ecuaţia (1) cu expresiile lor
date de (2). Obţinem:
(3) y1t = −b12 yˆ 2 t −b13 yˆ 3t ... −c11 x1t −... −c1m x mt + µ1t ,

unde µ1t = ε1t − b12ηˆ 2t − b13ηˆ3t −... ..

Aplicăm din nou MCMMP ecuaţiei (3) şi obţinem estimatorii b̂12 , b̂13

,...nedeplasaţi şi convergenţi pentru parametri b12, b13...


Pentru exemplificare, aplicăm MCMMP în două faze pe exemplul anterior
şi arătăm că se obţin aceleaşi estimaţii ca şi prin metoda regresiei indirecte.
Faza întâi: Prima ecuaţie a modelului, C t = α + βYt + ε t conţine, în partea
dreaptă, variabila endogenă Yt. Vom aplica, în această fază, MCMMP pe ecuaţia
corespunzătoare lui Yt din forma redusă, adică Yt = aZ t + b +ηt şi obţinem:

aˆ =
∑ (Y − Y ) − ( Z − Z ) ˆ
t t
, b =Y −aˆ Z , ηˆ =Y −Yˆt , sau Yt =Yˆt +η̂t .
∑( Z − Z )
2 t t
t

29
Cu datele din tabel, rezultă aˆ =3,221 şi bˆ =46 ,033 şi se pot calcula valorile
ajustate Yˆt şi erorile η̂ . t

Faza a doua: Înlocuim Yt cu Yˆt +η̂t în ecuaţia C t = α + βYt + ε t , rezultând:


Ct = α + βYˆt + µt , unde µt = ε t + βηˆt şi aplicăm MCMMP acestei ecuaţii, rezultând
estimatorii:

βˆ = ∑
(C t )(
− C Yˆt − Yˆ )
∑(Yˆ −Yˆ )
(4) 2 , α ˆ Yˆ .
ˆ = C −β Dar, ţinând cont că Yˆt = aˆZ t +bˆ şi Yˆ = aˆ Z + bˆ
t

rezultă că Yˆt − Yˆ = aˆ Z t − Z ( ) , care înlocuită în (4) conduce la:


β̂ =
(
aˆ ∑ Ct − C Z t − Z )( ) = 1 ∑(C t )(
−C Zt − Z )=
aˆ 2 ∑ Z t − Z ( ) 2
aˆ ∑( Z t −Z ) 2

∑( Z − Z ) ∑(C − C )( Z − Z ) =
2
t t t
=
∑(Y − Y )( Z − Z ) ∑( Z − Z )
t t t
2

=
∑(C − C )( Z − Z ) = ∑C Z − T C Z
t t t t

∑(Y − Y )( Z − Z ) ∑Y Z − T Y Z
t t t t

Cu datele din tabel, avem că ∑Y Z t t = 25588 , Z = 27 , Y =133 , ∑C Z t t = 20345 ,


C =106 şi:
20345 − 7 ⋅106 ⋅ 27 311
βˆ = = = 0,689 , α
ˆ =106 −0,689 ⋅133 =14 ,27 , adică am obţinut
25588 − 7 ⋅133 ⋅ 27 451

acelaşi rezultat ca şi prin regresie indirectă.

MCMMP în două faze evită calculele laborioase de întoarcere la coeficienţii


formei structurale, pornind de la estimarea formei reduse. Ea conduce la
estimatori cu proprietăţi asimptotice destul de bune, dar pe eşantioane mici nu
oferă garanţii prea mari asupra acestor proprietăţi.

I.5.3. MCMMP în trei faze


30
Metoda celor mai mici pătrate în trei faze porneşte de la modelul
econometric în forma structurală BY t + CX t = ε t a cărui formă redusă este Yt = AX t +ηt

(unde A = −B −1C şi ηt = B −1ε t ) şi parcurge următoarele faze:


Faza întâi: Se estimează prin MCMMP obişnuită forma redusă, adică se
regresează fiecare variabilă endogenă din model pe toate variabilele exogene şi se
obţin estimaţiile preliminare ale endogenelor, notate ŷ it .
Faza a doua: Cu estimaţiile endogenelor ŷ it înlocuite în forma structurală,
fiecare ecuaţie se poate scrie astfel:

 y1t = − b1 2yˆ 2t − b1 3yˆ 3t ...− c1 1x1t − ...− c1m xm t + µ 1t



(1)  y 2t = − b2 1yˆ1t − b2 3yˆ 3t ...− c2 1x1t − ...− c2 m xm t + µ 2t
 ..........
......

Se aplică din nou MCMMP obişnuită acestor ecuaţii rezultând estimatorii
coeficienţilor matricilor B şi C. Până aici s-a procedat exact ca în MCMMP în
două faze.
Faza a treia: Folosind estimatorii parametrilor ( bˆ 12 ,..., cˆ11 ,... ) determinaţi în
faza anterioară, prin înlocuire în ecuaţiile (1) se obţin noi estimaţii ale
endogenelor ˆ it
ŷ , care permit şi estimarea erorilor µ̂it , adică:
 µˆ1t = y1t − yˆˆ1t

ˆ
 µˆ 2t = y 2t − yˆ 2t
 .................


Acest lucru permite obţinerea unei estimaţii pentru matricea de varianţă şi


covarianţă a erorilor:

31
 ∑ µˆ12t ∑ µˆ µˆ ... ∑ µˆ µˆ nt 
 1t 2t 1t

ˆ = 

1 ∑ µˆ 2
2t ... ∑ µˆ µ
2 t nt 
ˆ
µt  ... ... 
T 

 ∑ µˆ nt2 
Se aplică acum MCMMP generalizată pe ecuaţiile (1). Prima ecuaţie din (1)
se scrie sub formă matricială (făcând să varieze t de la 1 la T) astfel: Y1 = Z1 D1 + µ1 ,

unde:
 b12 
 
 y11   b13   µ11 
   yˆ 21 yˆ 31 ... x11 ... x m1     
 y12    ...  µ12 
Y1 =  , Z = − ... ...  , D1 =   , µ1 =
 ...  .
... 
1
 yˆ   c11 
   2T yˆ 3T ... x1T ... xmT   ...   
y  µ 
 1T     1T 
c 
 1m 

Procedând la fel cu celelalte ecuaţii din (1), se obţine sistemul:

 Y1 = Z1 D1 + µ 1

 Y2 = Z 2 D2 + µ 2
 ....

care conduce la modelul general:
(2) Y = ZD + µ

 Y1   z1 0 ... 0  D1   µ1  Ω ˆ
        ... 0 
Y2  0 z2 ... 0  D2   µ2   µ1 
Unde: Y =  , Z =  , D = , µ = şi ˆ =  ...
Ω ... ...  .
... ... ... ... ...   ...   ...  µ

        ˆ 
... Ω
Y 
 n
0
 ... ... z n  D 
 n
µ 
 n  0 µT 

Aplicarea MCMMP generalizată modelului (2) conduce la estimatorul:


D (
ˆ = Z 'Ω
ˆ −1 Z
µ ) (Z ' Ω
−1
ˆ )Y .−1
µ

D̂ este estimatorul obţinut prin MCMMP în trei faze.


Proprietăţile estimatorilor obţinuţi prin MCMMP în trei faze. Să
remarcăm mai întâi că dacă erorile relative la două ecuaţii ale formei structurale

32
εit şi ε jt nu sunt corelate, acest lucru antrenează independenţa erorilor µit şi µjt .
Matricea de varianţă şi covarianţă a erorilor Ω̂µ se reduce la o matrice diagonală
şi estimatorii parametrilor obţinuţi prin MCMMP în trei faze coincid cu cei
obţinuţi prin MCMMP în două faze.
Proprietăţile estimatorilor D̂ obţinuţi prin MCMMP în trei faze depind de
calitatea estimării matricei de varianţă şi covarinaţă a erorilor Ω̂µ . În general ei
posedă bune proprietăţi asimptotice (nedeplasare şi convergenţă).

CAPITOLUL II

MODELE ECONOMETRICE NELINIARE

2.1. Introducere
Liniaritatea în modelele studiate consta în faptul că variabila endogenă Y
se exprima în funcţie de parametrii de estimat printr-o relaţie de gradul I.
De exemplu, modelele:
(1) y = a x + a x +... + a x + ε
t 1 1t 2 2t p pt t

(2) yt = a1 x12t + a2 x1t x2t + a3 + εt


sunt modele liniare. Faptul că variabilele exogene în modelul (2) figurează la
pătrat sau sub formă de produs, nu modifică caracterizarea de model liniar,
aceasta referindu-se la parametrii de estimat şi nu la variabilele exogene.
În schimb, modelele:
(3) yt = e −at + ε t
(4) yt = a1e b x + a 2 e b x + ε t
1 1t 2 2t

în care parametrii de estimat sunt a, a1, b1, a2, b2 nu mai sunt modele liniare.
În aceste cazuri MCMMP conduce la calcule laborioase. De exemplu, pe
modelul (3), suma pătratelor erorilor este expresia:
S (a ) = ∑( yt − e −at ) 2
t

iar ecuaţia normală obţinută este:

33
∂S
(5) = 2∑( yt − e −at )te −at = 0
∂a t

Determinarea parametrului a, soluţie a ecuaţiei (5), care este o ecuaţie


transcendentă, nu este posibilă sub această formă.

În general, considerând modelul:


y t = f ( a1 , a 2 ,..., a p , x1t , x 2t ,..., x pt ) + ε t
în care f este o funcţie neliniară în parametrii ai, suma pătratelor erorilor este:
[
S ( a1 , a2 ,..., a p ) = ∑ yt − f ( a1 , a2 ,..., a p , x1t , x2 t ,..., x pt ) ] 2

Estimatorii „celor mai mici pătrate neliniari” ai coeficienţilor modelului vor fi


(aˆ , aˆ ,..., aˆ ) , care minimizează pe S. Dacă erorile sunt normal distribuite, aceşti
1 2 p

estimatori au proprietăţile cunoscute şi sunt cei de verosimilitate maximă.


Un calcul direct al estimatorilor presupune căutarea soluţiei sistemului de
ecuaţii obţinut prin anularea derivatelor parţiale:
= −2∑[ y − f ( a , a ,..., a , x , x ,..., x )]
∂S ∂f
t 1 2 p = 0 , i=1,2,...,p
1t 2t pt
∂a i t ∂a i

şi să ne asigurăm că valorile găsite dau un minim pentru S.


Rezolvarea sistemului de ecuaţii de mai sus prezintă dificultăţi. În practică se
utilizează o altă procedură, ce va fi prezentată în continuare.
2.2. Liniarizarea. Estimarea parametrilor
Fie modelul yt = Ax ta (1 + ε t ) în care A este o constantă şi a un parametru de
estimat. Prin logaritmare , obţinem:
log y t = log A + a log xt + log( 1 + ε t )
Notând: z t = log y t , a 0 = log A , a1 = a , u t = log xt ,η t = log( 1 + ε t ) , rezultă modelul:
zt = a0 + a1ut +ηt .

Se spune că am liniarizat modelul. Pentru estimarea modelului, se aplică


MCMMP pe modelul liniarizat şi se revine apoi la elementele iniţiale.
Sunt posibile şi alte metode de estimare. De exemplu, pe un model neliniar
general:
(1) y = f (a , a ,..., a , x .x ,..., x ) +ε
t 1 2 p 1t 2t pt t

dacă funcţia f este dezvoltabilă în serie Taylor într-un punct de coordonate


a = ( a , a ,..., a ) , valori admisibile pentru model, atunci se poate da o
0 0
1
0
2
0
p

aproximare liniară a modelului:


f ( a1 , a 2 ,..., a p , x1t , x 2t ,..., a pt ) = f ( a10 , a 20 ,..., a 0p , x1t , x 2t ,..., x pt ) +
 ( ai − ai0 )
2
 ∂f   ∂2 f
( ai − ai ) + ∑ ∂a 2
p p
+ ∑ a =a 0 
0
a =a 0 
+ ... + ...
i =1  ∂a i  i =1  i  2

34
Reţinând doar primii doi termeni ai dezvoltării şi înlocuind expresia lui f în
ecuaţia (1) se obţine o aproximare liniară a modelului:
 ∂f 
( )
p
yt = f t 0 + ∑  0  ai − ai + εt
0

i =1  ∂ai
a =a

unde f t 0 = f ( a10 , a 20 ,..., a 0p , x1t , x 2t ,..., x pt )

Modelul poate fi scris sub forma:

 ∂f 
( )
p
yt − f t 0 = ∑  a =a 0  ai − ai + ε t
0

i =1  ∂ai 
iar pentru a da o scriere matricială, introducem notaţiile:
 y1   f10   a1 − a10   ε1 
       
 y2   f 20   a 2 − a 20  ε2 
  
 .  .  .   . 
Y =  , f =
0


, (a − a ) =  . 
0 
, ε = 
 .  .   . 
     . 
 .   .   .   
y   ε 
 T  f T0   a − a0 
 p p  T
 ∂f 10 ∂f 10 ∂f 10 
 . . . 
 ∂a1 ∂a 2 ∂a p 
 ∂f 0 ∂f 20 ∂f 20 
 2 . . . 
 ∂a1 ∂a 2 ∂a p 
F0 =  . . . . . . 
 
 . . . . . . 
 . . . . . . 
 ∂f 0 ∂f T0 ∂f T0 
 T . . . 
 ∂a ∂a 2 ∂a p 
 1
Rezultă modelul scris matricial:
(2) Y − f 0 = F0 ( a − a 0 ) + ε , unde Y , f , ε sunt vectori T-dimensionali, ( a − a 0 ) este
0

un vector p-dimensional, iar F0, o matrice numerică de format (Txp). În sfârşit,


dacă renotăm:
Y − f = Υ , X = F şi a = ( a − a 0 ) , regăsim scrierea matricială clasică pentru un
0
0

model liniar de regresie multiplă:


Y = Xa+ε . MCMMP aplicată modelului conduce la estimatorul:
aˆ = ( X ′X ) X ′Y , care, în cazul de faţă, devine:
−1

( aˆ − a 0 ) = ( F0′F0 ) −1 F0′(Y − f 0 ) ,
rezultând aˆ = a 0 + ( F0′F0 ) F0′(Y − f 0 ) .
−1

35
Notăm acest estimator cu aˆ = aˆ1 şi se repetă procedura luând în (2) în loc de
a 0 pe a 1 = â 1 . Se va obţine estimatorul:

( )
aˆ 2 = a1 + ( F1′F1 ) F1′ Y − f 1 , ş.a.m.d.
−1

Iteraţiile se opresc atunci când doi estimatori succesivi ai coeficinţilor â ij şi


aˆi j +1 sunt astfel încât:
aˆ ij +1 − aˆ ij
≤ η, i = 1,2,..., p unde η este un număr dat oricât de mic.
aˆ ij
Proprietăţile estimatorilor obţinuţi prin această procedură nu prezintă însă
garanţia că ar poseda calităţile celor obţinuţi în modelele liniare clasice.
Studiul modelelor neliniare pune, deci, o serie de probleme referitoare la
calitatea estimatorilor, la validitatea previziunilor făcute.

2.3. Exemple
I. Vânzările lunare dintr-un produs alimentar înregistrate de o societate
comercială în perioada ianuarie 2004 – iulie 2005 sunt date în tabelul următor:

Luna t Valoarea vânzărilor yt


(RON)
Ianuarie 2004 1 1500
Februarie 2 1700
Martie 3 1850
Aprilie 4 2050
Mai 5 2250
Iunie 6 2500
Iulie 7 2700
August 8 3110
Septembrie 9 3500
Octombrie 10 4000
Noiembrie 11 4500
Decembrie 12 5000
Ianuarie 2005 13 5550
Februarie 14 6150
Martie 15 7000
Aprilie 16 8000
Mai 17 8800
Iunie 18 9500
Iulie 19 10000

36
Studiem această serie cronologică a vânzărilor cu ajutorul modelului
A
yt =
1 + a.e bt
(curba logistică), în care A este o constantă (vânzările potenţiale
maxime), iar a şi b sunt parametri de estimat.
A A
se scrie sub forma 1 + a.e =
bt
Liniarizarea modelului. Modelul yt =
1 + a.e bt yt ,
A
sau a.e bt = −1 . Prin logaritmare rezultă modelul liniar z t = α + β.t , unde:
yt
 A 
z t = log  − 1 , α = log a , β = b log e . Dacă presupunem că vânzările maxim posibile
 yt 
 22000 
sunt A=22000, atunci putem calcula z t = log 
 y −1
, rezultând:
 t 

t yt  22000
z t = log 

−1
 y 
 t 
1 1500 1,13663 Se aplică MCMMP obţinîndu-se
2 1700 1,077047
3 1850 1,037103 estimatorii:
4 2050 0,988189 αˆ =1,23769 şi β ˆ = −0,0604

5 2250 0,943385 Din α = log a , rezultă


6 2500 0,892095 aˆ =10 =10α
ˆ
=17 ,39 , iar din
1, 23769

7 2700 0,854194
β = b log e , rezultă
8 3110 0,783472
9 3500 0,723104 βˆ −0,0604 −0,0604
bˆ = = = = −0,139 .
10 4000 0,653213 log e log( 2,71 ) 0,4329
11 4500 0,589826 Aşadar modelul iniţial estimat
12 5000 0,531479
13 5550 0,471873
este:
14 6150 0,411154
15 7000 0,330993 22000 .
yˆ t =
16 8000 0,243038 1 +17 ,39 e −0,139 t
17 8800 0,176091
18 9500 0,119186
19 10000 0,079181
II. Exemplu cu metoda iterativa
(DE INTRODUS !!!)

CAPITOLUL III
ECONOMETRIA SERIILOR DE TIMP

III.1. MODELAREA ECONOMETRICĂ A SERIILOR CRONOLOGICE


37
Succesiunea de valori ale unei mărimi economice (Y) ordonate în raport cu
perioadele/momentele de timp (t) constituie o serie cronologică (Yt). Analiza unei
serii cronologice evidenţiază aspectele fundamentale ale evoluţiei procesului sau
fenomenului economic studiat:
- poate fi apreciat sensul dominant al evoluţiei, ca urmare a acţiunii
unor factori esenţiali, pe o durată mai lungă de timp şi care imprimă
o anumită tendinţă (trend) evoluţiei. Tendinţele elementare (de
creştere, respectiv scădere) pot fi redate simplificat printr-o dreaptă
(cu panta pozitivă, respectiv negativă). Desigur, pe termen lung,
tendinţa de evoluţie poate suferi modificări, astfel că alte funcţii
elementare decât dreapta pot fi adecvate pentru redarea trendului.
Cunoaşterea trendului este importantă pentru prognozarea
fenomenului şi pentru obţinerea de valori neafectate de tendinţă,
numite valori staţionare. Tendinţa, notată T(t), se obţine prin calculul
valorilor ajustate ale seriei, adică folosind, în locul parametrilor
teoretici ai funcţiei, estimatorii acestora obţinuţi pri diverse metode
cunoscute. Pentru extrapolarea (prognozarea) tendinţei se procedează
la fel, valorile variabilei timp (t) fiind proiectate în viitor. Tendinţa
reprezintă evoluţia “medie” a fenomenului, o medie în mişcare, în
jurul căreia valorile empirice descriu diverse oscilaţii (fluctuaţii)
sistematice sau întâmplătoare;
- O astfel de fluctuaţie sistematică poate fi datorată unor factori a
căror acţiune se manifestă pe perioade de timp scurte (mai mici sau
egale cu un an), care au căpătat denumirea de factori sezonieri.
Analiza unei serii cronologice trebuie să ţină cont de această
componentă sezonieră (sezonalitate), notată S(t), care trebuie
identificată şi măsurată;
- Un alt tip de fluctuaţie sistematică ce trebuie evaluată se datorează
unor factori ciclici, care acţionează pe perioade mari de timp.
Ciclicitatea, notată C(t), este, deci, o altă componentă a unei serii
cronologice;
- În sfârşit, abaterile valorilor empirice de la tendinţă se pot datora şi
unor factori întâmplători, accidentali, reziduali a căror acţiune este
aleatoare. Notăm această componentă aleatoare a unei serii
cronologice prin ε(t).
O serie cronologică poate fi reprezentată prin evidenţierea celor patru
componente:
38
- fie printr-un model aditiv Yt=T(t)+S(t)+C(t)+ε(t) ;
- fie printr-un model multiplicativ Yt=T(t)S(t)C(t)ε(t).
Staţionaritate. Majoritatea seriilor de date referitoare la indicatorii economici
prezintă o anumită tendinţă. Ele sunt considerate a fi serii nestaţionare, astfel că
media volorilor şirului Yt va diferi în funcţie de momentul de la care se consideră
că începe seria.
O serie cronologică este staţionară dacă valorile şirului Yt oscilează, mai mult
sau mai puţin aleator, în jurul unui nivel de referinţă (de regulă, valoarea medie).
Observaţie. Seria staţionară este rezultatul unui proces stochastic stationar.
Analiza aspectelor dinamice din economie se bazează pe observarea datelor
evolutive pertinente. În general, aceste serii cronologice (sau serii dinamice)
prezintă unele regularităţi şi pentru a fi studiate se asimilează în mod obişnuit o
serie observată cu realizarea unui proces stochastic. Un proces stochastic este un
şir de variabile aleatoare definite pe un acelaşi spaţiu Ω, numit spaţiu
fundamental sau spaţiul stărilor naturii. Variabilele aleatoare pot fi uni- sau multi-
dimensionale şi vor fi indexate cu timpul. Pentru simplificare, se presupune că
datele observate sunt echi-spaţiate, ceea ce permite ca indicele să fie număr
întreg. Un proces stochastic va fi notat prin Y=(Yt, t ∈ T), unde mulţimea de
indici T este N sau Z. Când procesul este multivariat, se pot introduce
componentele sale: Yt=(Yjt, j=1,2,...,n). Fiecare serie Yj=(Yjt, t ∈ T) defineşte un
proces univariat. Seriile de date observate corespund la Yt( ω ), t=1,2,...,T unde ω
este o stare a naturii particulară, iar [1,2,...,T] este perioada de observare. O astfel
de realizare (Yt( ω ),t ∈ T) este numită adesea „traiectorie” a procesului.
Reguralităţile puse în evidenţă pornind de la traiectorii sunt datorate
particularităţilor distribuţiei adiacente procesului. Conform teoremei lui
Kolmogorov, această distribuţie este caracterizată în întregime de distribuţiile de
dimensiune finită (yt1,yt2,...,ytn) unde n şi t1,t2,...,tn sunt oarecare. Pentru a pune în
evidenţă dependenţa temporală, aceste distribuţii pot fi descrise cu ajutorul legilor
marginale ale lui Yt şi a distribuţiilor succesive ale lui Yt, cunoscând că Yt-1=yt-
1, ...,Yt-k= yt-k . Dacă Yjt, j=1,2,...,n sunt de pătrat integrabil, procesul stochastic
este „de ordinul 2” şi distribuţia sa poate fi rezumată parţial prin intermediul
momentelor de ordinul 1 şi 2. Momentele de ordinul 1 depind, în general, de timp
şi dau o idee despre evoluţia medie a seriei. Aceste momente sunt notate mt=E(Yt)
şi pot fi descrise componentă cu componentă: mjt=E(Yjt). Momentele de ordinul 2
rezumă variabilitatea seriilor precum şi dependenţele instantanee şi temporale
dintre variabile. Aceste momente sunt:

39
[ ]
Γ ( t , h ) = E ( Yt − E ( Yt ) ) ( Yt + h − E ( Yt + h ) ) ; t , h ∈ T
,

unde semnul „,” arată transpunerea vectorului respectiv.


Γ(t, h ) este o matrice pătrată de dimensiune n. Elementele diagonale ale matricei
Γ(t ,0 ) reprezintă varianţele (dispersiile) diveselor componente, iar elementele din

afara diagonalei sunt covarianţele instantanee dintre componente. Când h ≠ 0


elementele lui Γ(t, h ) dau dependenţa liniară cu întârzierea (lag-ul) h.
Definiţie:
1. Un proces stochastic Y este „puternic staţionar” dacă şi numai dacă
distribuţia lui (Yt +t1 , Yt +t 2 ,..., Yt +tn ) este aceeaşi cu distribuţia lui (Yt1 , Yt 2 ,..., Ytn )
pentru orice n; t , t ,..., t .
1 2 n

2. Un proces stochastic Y este „slab staţionar” sau „staţionar de ordinul 2”


dacă şi numai dacă:
- media nu depinde de timp: mt=m, ∀t
- covarianţele nu depind decât de diferenţa dintre indicii temporali ai
celor două variabile: Γ(t , h ) = Γ( h ), ∀t
Funcţia Γ(.) este numită „funcţie de autocovarianţă”.
Un proces de ordinul 2 puternic staţionar este în mod clar slab staţionar.
Dimpotrivă, un proces slab staţionar poate să nu fie puternic staţionar, dacă, de
exemplu, momentele de ordinul 3 sau 4 nu sunt invariante în timp. Dacă procesul
stochastic este gaussian (adică dacă toate distribuţiile de dimensiune finită sunt
distribuţii normale) cele două noţiuni (puternic, slab staţionar) coincid.

.......DE CONTINUAT......!!
CAPITOLUL IV

MODELE AUTOREGRESIVE

IV.1. Introducere
Uneori în studiul unui fenomen economic, alături de valorile luate de o
variabilă endogenă la momentul t intervin şi valorile luate de această variabilă
la momente anterioare t-1, t-2, ..., t-h. În acest caz este vorba despre un proces
autoregresiv.
Modelul de scrie:
yt = a1 y t −1 + a 2 y t − 2 + ... + a h y t − h + ε t
sau, dacă în model există şi variabile exogene:
40
y t = a1 y t −1 + ... + a h y t −h + b1 x1t + ... + br x rt + ε t
Aplicarea metodelor de estimare obişnuite (MCMMP) acestor modele
conduce la estimatori care nu mai au aceleaşi proprietăţi ca în cazul
modelului liniar general.

IV.2. Procesul autoregresiv de ordinul întâi


Considerăm modelul:
(1) y = ay + ε , t=1,2,...,T
t t −1 t

şi modelul regresiei simple:


(2) y = bx + ε , t=1,2,...,T
t t t

Presupunem că erorile ε t verifică condiţiile clasice:


E (ε ) = 0, Var (ε t ) = σ ε2 , ∀t , E (ε .ε ) = 0 , dacă t1 ≠ t 2 .
t t1 t2

MCMMP aplicată modelului (1) în care yt-1 este considerată ca o variabilă


exogenă, conduce la estimatorul:
∑ y .y t t −1
aˆ = t

∑y t
2
t −1

iar prin aceeaşi metodă, aplicată modelului (2) se obţine estimatorul:


∑ y .x t t
bˆ = t

∑x t
2
t

Chiar dacă cele două expresii par similare, estimatorii nu posedă aceleaşi
proprietăţi (mai ales pe eşantioane mici). În timp ce b̂ este o expresie liniară în
yt, deci şi în ε t, â se exprimă ca un raport de forme pătratice în yt. Folosind
modelul (1) şi exprimând yt în funcţie de ε t, se ajunge la relaţia:
(3) yt = ε t + aε t −1 + a 2ε t −2 + ... + a t −1ε1 + a t y 0
Expresia ne arată că distribuţia variabilei endogene yt depinde de distribuţia
erorilor ε t, dar şi de distribuţia lui y0. Printre cazurile frecvent studiate sunt
cele pentru care y0=constant, coeficientul a putând lua astfel orice valoare reală
pozitivă sau negativă.
- dacă |a|<1 se spune că procesul autoregresiv este stabil;
- dacă |a|=1 (caz puţin utilizat) procesul nu a primit un nume;
- dacă |a|>1, procesul se numeşte exploziv.
Cel mai adesea se studiază cazul stabil, dar nici cazul exploziv nu trebuie
neglijat, atunci când se studiază în economie fenomene în expansiune.

IV.3. Stabilitate şi staţionaritate

41
Se spune că un proces este staţionar atunci când momentele sale sunt
independente de timp. Dacă sunt independente de timp doar momentele de
ordinul doi, se spune că procesul este staţionar de ordinul doi. Staţionaritatea
de ordinul doi este suficientă pentru a demonstra proprietăţile importante ale
estimatorilor.
Propoziţia 1: orice proces autoregresiv de ordinul întâi, staţionar este un proces
stabil (adică |a|<1).
Demonstraţie:
Fie modelul y = ay + ε , a ≠ 1.t t −1 t

Procesul este staţionar dacă E ( y ) = E ( y ). t t −1

Aplicând operatorul de medie rezultă:


E ( y t ) = aE ( y t −1 ) + E (εt )
Dar E (ε t ) = 0 ,
aşa că relaţia devine:
E ( y )(1 − a ) = 0 şi cum a ≠ 1 , rezultă E ( y ) = 0.
t t

Calculăm acum E ( y t2 ) :
[ ]
E ( yt2 ) = E (ayt −1 + ε t ) 2 = a 2 E ( y t2−1 + 2a E( yt −1 .ε t ) + E (ε t2 )
Deorece ε t nu este corelat cu yt-1(vezi ipotezele fundamentale) înseamnă că
E ( y .ε ) = 0 şi ţinând cont şi de faptul că E (ε t2 ) = σ ε2 , rezultă:
t −1 t

σ ε2
E ( y t2 ) = a 2 E ( y t2−1 ) + σ ε2 adică E ( y t2 )(1 − a 2 ) = σ ε2 sau E( y ) =
t
2

1− a2
Din condiţia evidentă E ( y t ) >0, rezultă 1-a2>0, adică |a|<1. Am demonstrat
2

astfel că staţionarea implică stabilitatea.


În acelaşi mod se evaluează şi autocovarianţa:
γ θ = E ( y t . y t +θ )
Ştiind că y t +θ = ay t +θ −1 + εt +θ rezultă:
E ( yt . y t +θ ) = E [ y t (ayt +θ −1 + ε t +θ )] = aE( y t . yt +θ −1 ) ,pentru că yt şi εt +θ sunt necorelate.
Asemănător, vom avea:
E ( y t . y t +θ−1 ) = aE ( y t . y t +θ−2 ) , adică E ( y t . y t +θ ) = a 2 E ( y t . y t +θ −2 ) ş.a.m.d.
θ
În final: E ( y t . yt +θ ) = a E ( y ) 2
t

Deoarece E ( y t2 ) este independentă de timp, la fel este şi autocovarianţa


γ θ = a θ E ( y t2 ) .
Propoziţia 2 : Orice proces autoregresiv de ordinul întâi, stabil ( a <1) tinde către
un proces staţionar când T → ∞.
Demonstraţie
Am văzut anterior că procesul autoregresiv de ordinul întâi se poate dezvolta în
forma (3). Aplicând operatorul de medie expresiei (3), rezultă:
E ( yt ) = a t . y0

42
Cum |a|<1, rezultă că a t . y 0 → 0 când T →∞ , adică E ( y t ) → 0.

Un calcul simplu arată că:


1 − a 2t
E ( y t2 ) = σ ε2 (1 + a 2 + ... + a 2 (t −1) ) + a 2t y 02 , rezultând că E ( y t2 ) = σ ε2 + a 2t y 02
1− a 2

σ ε2
Dar y0 = constant, |a|<1 şi atunci lim E( y ) = , adică exact varianţa
2
t
t →∞ 1− a2
procesului staţionar. În mod asemănător se arată că:
E ( y . y θ ) →γ θ când T → ∞ .
t t+

Prin urmare, dacă studiem un proces stabil, momentele procesului tind către
momentele procesului staţionar, dacă T → ∞ .

IV.4. Proprietăţile estimatorilor


Estimatorii obţinuţi cu MCMMP pe un process autoregresiv de ordinal întâi au
următoarele proprietăţi:
a) Estimatorul â converge în probabilitate către a ( şi în cazul stabil şi în cazul
exploziv);
b) Expresia T (aˆ −a) are o distribuţie normală în cazul stabil;
c) Expresia ∑y (aˆ − a) are o distribuţie limită normală ( în ambele tipuri de
2
t −1
t

procese).
Aceste proprietăţi sunt demonstrabile în cazul y0= constant.
Interesul pentru procesele autoregresive de ordinal întâi este generat de
faptul că atunci când se studiază modele econometrice cu erori corelate, de
regulă, erorile urmează un process autoregresiv.
IV.5. Previziunea cu modele autoregresive

......DE INTRODUS....
IV.6. Modele autoregresive cu erori corelate
......DE INTRODUS....

IV.7. Exemple
......DE INTRODUS....

43

S-ar putea să vă placă și