Sunteți pe pagina 1din 33

1. Obiectul de studiu al econometriei.

-Pe baza datelor din economie, econometria construieste modele(expresii cantitative) pentru
realitatile economice studiate care au un corespondent in teoriile economice.
- Econometria estimeaza, prin procedeele de indiferenta statistica, parametrii modelelor si
realizeaza predictii asupra realitatii studiate.
- Aria de studiu a econometriei este realitatea economica privita ca un ansamblu de relatii si
interconditionari abordate cu preponderenta sub aspect cantitativ.

2. Efectul multicoliniarităţii. Selecţia


variabilelor exogene în model.
Multicoliniaritatea poate fi
definită ca o legătură liniară functională existentă între două sau mai multe variabile
independente ale unui model de regresie de forma:

3. Prezentaţi deosebirea între econometrie şi ştiinţele matematice.


Matematica este un limbaj bazat pe un sistem de simboluri abstracte util pentru a analiza şi
descrie aspecte cantitative ale realităţii care ne înconjoară prin teoreme şi axiome. Cu ajutorul
matematicii se pot realiza o analize complexe ale seriilor de date şi se pot extrage inferenţe
logice din astfel de date. Matematica este folosită în zilele noastre de toate ştiinţele într-o măsură
mai mică sau mai mare. Domenii şi instrumente specifice au fost derivate pe baza matematicii:
statistica, econometria, programarea cu ajutorul calculatorului, calculul actuarial etc.
Econometria la rândul ei, contribuie la obţinerea variabilelor endogene în diverse alternativede
acţionare a pârghiilor economice. Previziunii economice i se oferă
o perspectivă în legătură cu ceea ce s-ar putea întâmpla în viitor, fie şi în linii
mari, în raport cu diferitele variante ale politicii economice care s-ar putea aplica.
În Matematică, poți afla exact care-i rezultatul (X), în timp ce în Econometrie ai multe
informații.

4. Autocorelare erorilor. Esenţa ipotezei.


Functia de autocorelatie este definita de valorile coeficientilor de autocorelare de ordinul k.
-Sursa autocorelarii erorilor: neicluderea in modelul de regresie a uneia sau mai multor variabile
explicative importante; modelul de regresie nu este corect specificat.
-Testarea autocorelarii erorilor: se bazeaza pe ideea ca valorile valorile variabilei reziduale se
constituie in secvente sau seturi de valori pozitive sau negative numite runs, care se succed
intr-o anumita ordine sau aleator; ipoteza de baza a acestui test este aceea ca in cazul lipsei
autocorelarii erorilor succesiunea acestor seturi ( runs, notate k) este aleatoare sau numarul
acestora este distribuit normal.
Ipoteza statistica reprezintă o presupunere asupra parametrilor uneia sau unor repartiții sau chiar
asupra repartiției în sine.
5. Noţiuni şi concepte fundamentale ale econometriei.

Metoda modelelor sau metoda modelării reprezintă principalul instrument de investigare


econometrică a fenomenelor econometrice.
Modelul reprezintă un instrument de cercetare ştiinţifică, o imagine convenţional ă,
homomorfă, simplificată a obiectului supus cercetării.
Reprezentările econometrice, spre deosebire de modelele economice care explică
structura fenomenului sau procesului economic de pe poziţia teoriei economice, au
întotdeauna o finalitate practică, operaţională, ele devenind instrumente de control şi
dirijare, de simulare şi de previziune a fenomenelor economice.
Reprezentările econometrice, spre deosebire de modelele economice care explică
structura fenomenului sau procesului economic de pe poziţia teoriei economice, au

1
întotdeauna o finalitate practică, operaţională, ele devenind instrumente de control şi
dirijare, de simulare şi de previziune a fenomenelor economice.
VARIABILELE care formează structura unui sistem econometric, după natura lor, pot fi:
a)variabile economice; (Endogene/Exogene)
b)variabila eroare (aleatoare), u; [prezintă abaterea între realitatea economică existentă
și realitatea simulată prin prisma modelului.]
c)variabila timp, t. [prezintă abaterea între realitatea economică existentă și realitatea
simulată prin prisma modelului.]
Sursa de date: variabilele economice se introduc într-un model econometric cu valorile
lor reale/empirice (yi = y1, y2,…, yn; xij = x1j, x2j,…, xnm; n = num ărul unit ăţilor
observate; m=numărul variabilelor exogene).
valorile variabilelor unui model se pot obţine:
• pe baza sistemului informaţional statistic (banca de date)
• efectuarea de observări statistice special organizate (anchete statistice).
Cerințe de bază asupra datelor statistice ce privesc variabilele economice specificate
în model:
 culese fără erori sistematice de observare;
 prelucrare calitativă a datelor;
 respectarea omogenității datelor.
Omogenitatea datelor presupune:
-colectarea lor de la unităţi statistice omogene;
-reprezentarea aceloraşi definiţii şi metodologii de calcul cu privire la sfera de cuprindere
ale acestora în timp sau în spaţiu;
-descrierea evoluţiei fenomenelor într-un interval de timp în care nu s-au produs
modificări fundamentale privind condiţiile de desfăşurare a procesului analizat;
-exprimarea variabilelor în aceleaşi unităţi de măsură, condiţie care se refer ă, în mod
special, la evaluarea indicatorilor economici în preţuri comparabile sau preţuri reale.

6. Tipologia modelelor econometrice. Caracteristica generală a acestora.

 după numărul factorilor luaţi în considerare


 modele unifactoriale: se fundamentează pe ipoteza că în rândul factorilor de
influenţă ai variabilei rezultative y există un factor determinant x, ceilalţi
factori cu excepţia acestuia având o influenţă întâmplătoare (exprimată prin
intermediul variabilei reziduale u) sau fiind invariabili în perioada analizată
y = f(x)+u
 modele multifactoriale: elimină deficienţa modelului unifactorial, însă trebuie
ca numărul factorilor luaţi în considerare să nu fie foarte mare pentru a nu fi
mult prea complex, dificil de estimat etc.
y = f(x1,x2,...,xp)+u
 după forma legăturii dintre variabila rezultativă şi variabilele cauz ă
 modele liniare: dacă legătura este liniară
 modele neliniare: dacă legătura este neliniară
 după includerea factorului timp în model
 modele statice: dependenţa variabilei endogene y faţă de valorile variabilei exogene
xj se realizează în aceeaşi perioadă de timp:
y = f(x1t,...,xjt,...,xkt) + ut
 modele dinamice:
• introducerea variabilei timp ca o variabilă explicativă y = f(xt,t) + ut
• autoregresive: variabila rezultativă cu valori decalate este una din variabilele
explicative y = f(xt,yt-k) + ut
• model cu decalaj: variabila explicativă x îşi exercită influenţa asupra variaţiei
variabilei rezultative pe mai multe perioade de timp: y = f(xt,xt-1,... xt-k) + ut
 după includerea factorului timp în model

2
 modele statice: dependenţa variabilei endogene y faţă de valorile variabilei exogene
xj se realizează în aceeaşi perioadă de timp: y = f(x1t,...,xjt,...,xkt) + ut
 modele dinamice:
• introducerea variabilei timp ca o variabilă explicativă y = f(xt,t) + ut
• autoregresive: variabila rezultativă cu valori decalate este una din variabilele
explicative y = f(xt,yt-k) + ut
• model cu decalaj: variabila explicativă x îşi exercită influenţa asupra variaţiei
variabilei rezultative pe mai multe perioade de timp: y = f(x t,xt-1,... xt-k) + ut

7. Teoria corelaţiei. Testarea semnificaţiei indicatorilor de corelaţie.

Tabelul de corelaţie
Această metodă presupune gruparea ambelor caracteristici, x şi y într-un tabel cu dublă
intrare.
Tabelul de corelaţie este un tabel cu dublă intrare în care pe coloane se trec grupele
formate după variaţia caracteristicii factoriale x, ordonate crescător, iar pe linii se
înscriu grupele referitoare la variaţia caracteristicii dependente y, de preferinţă
ordonate descrescător.
Tabelul de corelaţie prezintă: existenţa si sensul legăturii.
Metoda corelaţiei oferă o măsură sintetică a legăturilor dintre variabilele statistice .
Indicatorii calculaţi sunt: covarianţa, coeficientul de corelaţie, raportul de corelaţie.

 Covarianţa :
 Indicatorul ia valori pozitive dacă legătura dintre variabile este direct ă şi valori
negative în caz contrar.
 Valori apropiate de zero semnifică lipsa oricărei legături între x şi y; valori ridicate
ale indicatorului arată o legătură puternică.
Coeficientul de corelaţie simplă măsoară intensitatea legăturilor liniare dintre două

variabile
 Coeficientul de corelaţie ia valori cuprinse între -1 şi 1.
 Semnul algebric al indicatorului prezintă sensul legăturii:
 pozitiv - legătură directă,
 negativ - legătură inversă.
 Atunci când coeficientul ia valoarea zero, cele două nu sunt corelate liniar.
 Valorile intermediare ale indicatorului (între 0 şi ±1) corespund unor intensit ăţi
diferite ale corelaţiei, mergând de la o legătur ă slabă (sub 0,5) pân ă la o leg ătur ă
puternică (peste 0,75).
Pentru a verifica semnificaţia coeficientului de corelaţie liniar ă simpl ă se utilizeaz ă
testul "t- Student".
Ipotezele cercetate sunt: Ho: r y / x =0 H1: r y / x ≠0
Coeficientul de corelaţie semnificativ daca tcalc ≥ tα, n-2 , α=0.05

Raportul de corelație poate lua valori între zero și +1.


Dacă R y/x = r y/x , se confirmă ipoteza legăturii liniare.
R^2 este raportul de determinare, iar (1- R2 ¿reprezintă raportul de nedeterminare

8. Caracterizaţi relaţiile ce apar în cadrul modelelor econometrice.


Un model econometric poate fi format dintr-o singură relaţie sau dintr-un sistem de relaţii
statistice. Aceste relaţii pot fi:
 relaţii de identitate sau deterministe,

3
 relaţii de comportament,
 relaţii tehnologice şi relaţii instituţionale.
a)relaţii de identitate sau deterministe : sunt formulări logice cu privire la procesul
economic descris (exemplu: VN=VB - I );
b)relaţii de comportament: au în vedere modificările tradiţiilor, atitudinilor, înclina ţiilor
(sub raportul satisfacţie/efort) (exemplu: C = a + bV );
c)relaţii tehnologice: restricţiile impuse output-urilor în raport cu input-urile (exemplu:
funcţia Cobb Douglas: Q = IL1-, 01);
d)relaţii instituţionale: conform unor reglementări impuse de lege (exemplu:amortizarea,
impozitul pe venit etc.).

9. Testarea semnificaţiei parametrilor de regresie a modelului linias implu.


Testarea parametrilor unui model de regresie se realizează cu ajutorul testului t Student.
Formularea ipotezelor:

Estimatorii sunt semnificativ diferiţi de zero, cu un prag de semnificaţie α , dac ă se


verifică următoarele relaţii:
|a^| |b^|
t ^a= > t ∝ ,γ t b^ =
>t
¿ S a^ S ^b ∝ ,γ
γ =n−2( nr . grade libertate),
α =0 , 05
Când modelarea econometrică este realizată cu suportul softurilor specializate decizia
poate fi luată şi în baza valorii Sig., astfel:
Sig. > α : se acceptă ipoteza H0,
Sig. < α: se respinge ipoteza H0, cu o probabilitate de 95%.

10. Modelul econometric general de tip clasic. Testarea semnificaţiei parametrilor de


regresie.
Modelul clasic de regresie liniară reprezintă una dintre tehnicile statistice cele mai des
utilizate în analiza economică, şi nu numai. Definiţie: o relaţie matematică construită
pe baza teoriei economice, care presupune că fenomenul economic Y (fenomenul
efect) este rezultatul acţiunii a două categorii de factori:
 prima, constituită dintr-un singur factor principal, ese nţial, determinant –
X,
 a doua - formată din toţi ceilalţi factori – consideraţi neesenţiali, cu ac ţiune
întâmplătoare (specificaţi prin variabila reziduală “ε”) sau constantă,
invariabilă, asupra lui Y (şi deci nu au sens a fi specificaţi în model).
Specificarea modelului unifactorial constă în precizarea variabilei endogene Y şi a celei
exogene X, pe baza teoriei economice; ca orice ipoteză teoretică, ea poate fi
adevărată sau falsă.
y = f(x) + ε
Identificareamodeluluiconstăînalegereauneifuncţii (sau a unuigrup de funcţii)
matematice, cu ajutorulcăreia se urmăreştesă se descrievalorilevariabileiendogene,
doarînfuncţie de variaţiavariabileiexogene X. Identificareamodelului se poate face
prin: • procedeulgrafic; • procedeulconservăriiariilor; • procedeulcalculeloralgebrice.
Forma modelului de regresieliniarăsimplă este:
Y = 𝑎+𝑏𝑋+ε
Unde:Y – variabilaendogenă;X – variabilaexogenă; ε - variabilareziduală.
Parametriimodelului de regresie simplă liniară, numiţi şi coeficienţi de regresie, sunt:
a - ordonata la origine - arată valoarea medie a variabilei Y când mărimea variabilei X
este 0;

4
b - panta dreptei - arată variaţia medie a variabilei dependente, Y, la o variaţie absolută cu
o unitate a variabilei X, adică variaţia variabilei Y este proporţională cu variaţia
variabilei X.
Testarea semnificaţiei parametrilor modelului unifactorial liniar
Estimatorii “a” şi “b” ai coeficienţilor din ecuaţia de regresie în colectivitatea general ă
au distribuţii de eşantionare, cu următoarele proprietăţi:
“a” şi “b” sunt estimatori nedeplasaţi ai parametrilor “α” şi “β”, adică:
Distribuţiile de eşantionare ale estimatorilor “a” şi “b” sunt normal distribuite, cu mediile
“α” şi “β” s 2b
s 2a şi dispersiile: şi μ ( a )=α μ ( b )=β
s 2a =s2e⋅
∑ x 2i s 2b =s2e⋅
1
∑ ( y i− y^ i )2
n ∑ ( xi −x )2 ∑ ( xi −x )2 s 2e =
n−2

1 x̄ 2
Testarea semnificaţiei parametrului “β” (panta dreptei)
Ipotezele statistice pestru testul bilateral:
H0: β = 0
H1: β ≠ 0
Dacă eşantionul este de volum mare:
s 2a =s2e
( n
+ n
∑ ( x i − x̄ )2
i=1
)
Testul z: b−μ ( b ) b−0
z calc= =
sb sb
Regiunea critică: dacă z calc <−z α /2 sau z calc >z α /2 se respinge H0.
Dacă eşantionul este de volum mic:

Testul t: b−μ ( b ) b−0 b


t calc= = =
sb sb sb
Reg. Critică: dac
t calcă<−t α /2,n−2 t calcsau
>t α /2,n−2 se respinge H0.

Teste unilaterale:
Test unilateral dreapta:
H0: β = 0 b−μ ( b ) b−0 b
H1: β> 0 t calc= = =
sb sb sb
Test unilateral stânga:
H0: β = 0
H1: β< 0

Regiunea critică:
Pt. test unilat. dreapta: t calc >t α ,n−2
Pt. test unilat. stânga: t calc <−t α ,n−2
Intervalul de încredere pentru “β”:
b−t α /2, n−2⋅s b ≤β≤b +t α /2, n−2⋅sb
Testarea semnificaţiei parametrului “α”
Ipotezele statistice pestru testul bilateral:
H0: α = 0
H1: α ≠ 0
Testul t: a−μ ( a ) a−0 a
t calc= = =
t <−t α /2,n−2 t calc >t α /2,n−2 sa sa sa
Reg. Critică: dacăcalc sau
se respinge H0, deci α este semnificativ statistic.

Intervalul de increderepentruparametrul α este:

11. Tipologia modelelor econometrice. Caracteristica generală a acestora.


5
1) după numărul factorilor luaţi în considerare
modeleunifactoriale: se fundamentează pe ipoteza că în rândul factorilor de influenţă ai
variabilei rezultative y există un factor determinant x, ceilalţi factori cu excepţia
acestuia având o influenţă întâmplătoare (exprimată prin intermediul variabilei
reziduale u) sau fiind invariabili în perioada analizată
y = f(x)+u
modele multifactoriale: elimină deficienţa modelului unifactorial, însă trebuie ca numărul
factorilor luaţi în considerare să nu fie foarte mare pentru a nu fi mult prea complex,
dificil de estimat etc.
y = f(x1,x2,...,xp)+u
2) după forma legăturii dintre variabila rezultativă şi variabilele cauz ă
modele liniare: dacă legătura este liniară
modele neliniare: dacă legătura este neliniară
3) după includerea factorului timp în model
modele statice: dependenţa variabilei endogene y faţă de valorile variabilei exogene xjse
realizează în aceeaşi perioadă de timp:
y = f(x1t,...,xjt,...,xkt) + ut
modele dinamice:
• introducerea variabilei timp ca o variabilă explicativă
y = f(xt,t) + ut
• autoregresive: variabila rezultativă cu valori decalate este una din variabilele
explicative
y = f(xt,yt-k) + ut
• model cu decalaj: variabila explicativă x îşi exercită influenţa asupra variaţiei
variabilei rezultative pe mai multe perioade de timp:
y = f(xt,xt-1,... xt-k) + ut
4)după numărul de ecuaţii din model
modele cu o singură ecuaţie
modele cu ecuaţii multiple: sunt formate dintr-un sistem de ecuaţii

12. Teoria corelaţiei. Prezentaţi şi caracterizaţi indicatorii corela ţiei. ( ?)


Metoda corelaţiei oferă o măsură sintetică a legăturilor dintre variabilele statistice .
Indicatorii calculaţi sunt:
covarianţa,
coeficientul de corelaţie ,
raportul de corelaţie.
Covarianţa:

Indicatorul ia valori pozitive dacă legătura dintre variabile este direct ă şi valori negative
în caz contrar.

Valori apropiate de zero semnifică lipsa oricărei legături între x şi y; valori ridicate ale
indicatorului arată o legătură puternică.
Coeficientul de corelaţie simplă măsoară intensitatea legăturilor liniare dintre două
variabile.

6
Cea mai uşor de utilizat formulă de calcul a coeficientului de corelație este:

Coeficientul de corelaţie ia valori cuprinse între -1 şi 1.


Semnul algebric al indicatorului prezintă sensul legăturii:
pozitiv - legătură directă,
negativ - legătură inversă.
Atunci când coeficientul ia valoarea zero, cele două nu sunt corelate liniar.
Valorile intermediare ale indicatorului (între 0 şi ±1) corespund unor intensit ăţi diferite
ale corelaţiei, mergând de la o legătură slabă (sub 0,5) până la o leg ătur ă puternic ă
(peste 0,75).
Pentru a verifica semnificaţia coeficientului de corelaţie liniar ă simpl ă se utilizeaz ă
testul "t- Student".
Ipotezele cercetate sunt:

Ho: ry / x =0
H1: ry / x ≠0
Valoarea calculată a mărimii t se determină cu relaţia:

unde: ry / x - coeficientul de corelaţie liniară simplă;


n - numărul observaţiilor;
n-2 - numărul gradelor de libertate.
Coeficientul de corelaţie semnificativ daca tcalc ≥ tα, n-2 , α=0.05

Raportul de corelație:

sau

Unde Yxi reprezintă valorile ajustate indiferent de modelul de regresie selectat.


Raportul de corelație poate lua valori între zero și +1.
Dacă R y/x = r y/x , se confirmă ipoteza legăturii liniare.
R^2 - raportul de determinare,
iar (1-𝑅^2) - raportul de nedeterminare

13. Verificarea completitudinii datelor in seriile selectate .


se poate verifica regula celor trei sigma care constă în verificarea urm ătoarelor rela ţii:
x i ∈ ¿+3σ x )
y i ∈¿+3σ y)

14.Specificarea şi identificarea unui model econometric. Erori de specificare.


7
?????

15. Utilizarea Testul Jarque-Bera.


Testul Jarque-Bera măsoară diferenţa dintre Skewness şi Kurtosis-ul seriei faţă de cele
corespunzătoare distribuţiei normale. Statistica testului se calculeaz ă astfel:
N−k 2
JB=
6
[ S +( K−3 )2]
unde: S - Skewness (reprezintă asimetria)
S = 0 pentru o repartiţie normală,
S > 0 pentru o repartiţie asimetrică la dreapta,
S < 0 pentru o repartiţie asimetrică la stânga;
K- Kurtosis (reprezintă boltirea)
K = 3 pentru o repartiţie normală,
K<3 pentru o repartiţie aplatizată
K > 3 pentru o repartiţie afectată de boltire

k – numărul de coeficienţi estimaţi care sunt folosiţi pentru a crea seriile

16. Metode şi procedee de depistarea a autocorelării. Testul Durbin-


Watson
H0:  = 0 (nu există autocorelare a erorilor);
H1:   0 (ipoteza este încălcată, există o legătură între erori).
În cazul existenţei fenomenului de autocorelare a erorilor se presupune că între erori
ε i =ρε
există o rela ţiei−1de
+utipul:
i ,

cu u ~ N (0 , σ 2 )
i u

Valoarea calculată a testului DW se compară cu dL (limita inferioară) şi dU (limita


superioară), citite din tabelul Durbin –Watson la pragului de semnifica ţie α şi
volumul eşantionului n.
Decizia se ia în funcţie de următoarele regiuni:
- regiune de respingere:
ρ>0 erorile înregistrează o autocorelare pozitivă;
ρ <0 erorile înregistrează o autocorelare negativă;
- regiune de acceptare a ipotezei nule:
(du ; 4- du) erorile nu sunt autocorelate;
- regiune de nedeterminare:
(dL ; dU) şi (4-du ; 4-dL), dacă valoarea statisticii Durbin-Watson cade în această regiune, nu
se poate decide asupra existenţei autocorelării erorilor.
Testul Durbin-Watson se recomandă pentru eşantioane de volum mare n˃15 şi este
folosit în mod curent pentru analiza seriilor de timp.
17.Procedee de eliminare a fenomenului de autocorelare a erorilor.
Eliminarea autocorelarii se efectueaza deplasand si corectand termenii seriei .

18.Мodelul econometric general de tip clasic( model tipic = clasic= multifactorial ) .


Estimarea parametrilor de regresie metoda matricială.

Scopul regresiei multiple este de a evidenţia relaţia dintre o variabil ă dependent ă


(explicată, endogenă, rezultativă) şi o mulţime de variabile independente (explicative,
factoriale, exogene, predictori). Prin utilizarea regresiei multiple se încearc ă, adesea,
obţinerea răspunsului la una dintre întrebările:
“care este cea mai bună predicţie pentru …?”,
“cine este cel mai bun predictor pentru …?” .
Forma generala a modelului de regresie liniar multifactorial :

8
Y = a0 + a1X1 + a2X2 + ... + ak Xk + e
unde:
 Y este variabila endogenă,
 X1, X2, …, Xk sunt k variabile explicative,
 a0, a1, a2, …, ak sunt k+1 parametri necunoscuți,
 e este variabila de abatere (eroarea) din ecuația de regresie.

Eroarea e reflectă, la fel ca în modelul linear unifactorial, influența elementelor


calitative necuantificabile, a celor care depind de comportamentul uman nepredictibil,
sau a altor factori cu influență minoră, alții decât X1, X2, …, Xk.
Parametrul a0 modelează comportamentul autonom al variabilei endogene, iar parametrii
ai cuantifică intensitatea influenței factorului Xi asupra variabilei Y.
Estimarea parametrilor de regresie prin metoda matriciala :
Estimarea parametrilor de regresie se realizează cu ajutorul M.CM.M.P. .
Cea mai simplă modalitate de prezentare este prin prisma calculului matricial în baza
funcției:
Y=X ^A +ε
Unde:
– Y este un vector coloana, de dimensiuni n × 1, care are drept componente cele n
înregistrări ale variabilei explicate (endogene),
– X este o matrice de dimensiuni n × (k+1), care conține în prima coloana (atașată
termenului liber) constanta 1, iar în celelalte k coloane înregistrările pentru fiecare dintre
cele k variabile explicative;
– A este un vector coloana, de dimensiuni (k+1) × 1, care include cei k+1 parametri ai
modelului;
– e este un vector coloana, de dimensiuni n × 1, care include cele n valori ale variabilei de
abatere (erorile din ecuația de regresie).
¿
Dacă vectorii atașați fiecărei variabile explicative Xi sunt linear independen ți, atunci
matricea X'X nu este singulară și sistemul poate fi rezolvat în raport cu vectorul
estimatorilor Â: Â = (X'X)-1 X'Y

19.Analiza varianţei. Prezentarea grafică.


Când dorim să comparăm mai mult de două grupe de subiecţi nu vom mai folosi testul t, ci
vom apela la tehnicile ANOVA cunoscută şi sub denumirea de analiză dispersional ă sau.
analiză de varianţă.

20.Modelul econometric liniar simplu. ANOVA


Regresia liniară simplă este un caz particular al analizei de regresie într-un astfel de
model variabila dependentă ar fi explicată numai de o singură variabilă independentă,
iar factorii neesențiali sunt exprimați sintetic prin variabil a reziduu.
Specificarea modelului de regresie pornește de la conceptele teoriei economice care
definesc cadrul de analiză a fenomenelor luate în studiu.

Forma modelului de regresie liniară simplă este:


Y = a+ bX +ε

Unde:
Y – variabila endogenă;
X – variabila exogenă;
ε - variabila reziduală.
Tabelul ANOVA este utilizat pentru testarea validarii modelului . Elementele de calcul şi
valoarea raportului F se obţin facil cu ajutorul programelor statistice, rezultatele fiind
prezentate în Tabelul ANOVA, şi anume:
 estimaţiile celor două componente ale variaţiei,
 gradele de libertate corespunzătoare,
9
 estimaţiile varianţelor, explicată şi reziduală,
 valoarea calculată a raportului Fisher şi
 semnificaţia testului, Sig.

21.Verificarea modelului econometric multifactorial prin analiza ANOVA.


Elementele de calcul şi valoarea raportului F se pot obţine facil cu ajutorul programelor
statistice, rezultatele fiind prezentate în Tabelul ANOVA, şi anume:
 estimaţiile celor două componente ale variaţiei,
 gradele de libertate corespunzătoare,
 estimaţiile varianţelor, explicată şi reziduală,
 valoarea calculată a raportului Fisher şi
 semnificaţia testului, Sig.

Previziunea cu ajutorul modelului liniar simplu ( punctiformă)


22.Estimarea parametrilor de regresie a modelului liniar simplu.

  

 b – coeficient de regresie care prezintă cu cât se modifică caracteristica rezultativă dacă


caracteristica factorială se modifică cu o unitate.
dacă:
b=0 , între x și y nu există legătură;
b>0, între x și y legătură direct proporțională;
b<0, între x și y legătură invers proporțională.
 a – termenul liber care exprimă acțiunea constantă a factorilor neînregistrați.

10
 

23.Multicoliniaritatea. Esenţa şi consecinţele multicoliniarităţii.


Multicoliniaritatea poate fi definită ca o legătură liniară funcţională existentă între două sau mai multe
variabile independente ale unui model de regresie de forma:YX1..XP  0  1  X1  2  X2 …  P  XP 
Multicoliniaritate perfectă apare atunci când între variabilelele independente X1 , X2 , ..., Xp există o
legătură liniară perfectă, funcţională. Această legătură poate fi exprimată printr-o relaţie de forma: 1  X1 
2  X 2   p  X p  0
unde: λi , cu i=1, ..., p, valori constante care nu sunt toate, în mod simultan, nule.

Surse:
 Metode de colectare a adatelor
 Specificarea modelului
 Model supradeterminat

11
 Restricţii asupra modelului/populaţiei observate

Consecinţe ale coliniarităţii perfecte: nu se pot estima parametrii de regresie (matricea X’X nu este
inversabilă)
 Consecinţe ale coliniarităţii imperfecte:
 Creşte varianţa estimatorilor acelor parametrii ai modelului ce corespund variabilelor aflate în dependenţă
liniară semnificativă
 Intervale de încredere mari (riscul acceptării ipotezei nenule)
 Valori ridicate ale lui R2
24.Demersul econometric.
demersul econometric consta intr-o insiruire logica de ipoteze privind semnificatia variabilelor exogene,
a calitatii estimatiilor obtinute, a gradului de performanta a modelelor construite. Acceptarea sau
respiungerea ipotezelor formulate in econometrie se poate'face cu ajutorul mai multor teste

25. Teoria corelaţiei. Testarea semnificaţiei indicatorilor de corelaţie.


Metoda corelaţiei oferă o măsură sintetică a legăturilor dintre variabilele statistice.
Indicatorii calculaţi sunt:
covarianţa,
coeficientul de corelaţie ,
raportul de corelaţie.
Covarianţa:

Indicatorul ia valori pozitive dacă legătura dintre variabile este directă şi valori negative în
caz contrar.

Valori apropiate de zero semnifică lipsa oricărei legături între x şi y; valori ridicate ale
indicatorului arată o legătură puternică.
Coeficientul de corelaţie simplă măsoară intensitatea legăturilor liniare dintre două
variabile.

Cea mai uşor de utilizat formulă de calcul a coeficientului de corelație este:

Coeficientul de corelaţie ia valori cuprinse între -1 şi 1.


Semnul algebric al indicatorului prezintă sensul legăturii:
pozitiv - legătură directă,
negativ - legătură inversă.
Atunci când coeficientul ia valoarea zero, cele două nu sunt corelate liniar.
Valorile intermediare ale indicatorului (între 0 şi ±1) corespund unor intensităţi diferite ale
corelaţiei, mergând de la o legătură slabă (sub 0,5) până la o legătură puternică (peste 0,75).
Pentru a verifica semnificaţia coeficientului de corelaţie liniară simplă se utilizează testul "t-
Student".
Ipotezele cercetate sunt:
12
Ho: ry / x =0
H1: ry / x ≠0
Valoarea calculată a mărimii t se determină cu relaţia:

unde: ry / x - coeficientul de corelaţie liniară simplă;


n - numărul observaţiilor;
n-2 - numărul gradelor de libertate.
Coeficientul de corelaţie semnificativ daca tcalc ≥ tα, n-2 , α=0.05

Raportul de corelație:

sau

Unde Yxi reprezintă valorile ajustate indiferent de modelul de regresie selectat.


Raportul de corelație poate lua valori între zero și +1.
Dacă R y/x = r y/x , se confirmă ipoteza legăturii liniare.
R^2 - raportul de determinare, iar (1-𝑅^2) - raportul de nedeterminare
26.Modelul econometric general de tip clasic. Estimarea parametrilor
de regresie.
Scopul regresiei multiple este de a evidenţia relaţia dintre o variabilă
dependentă (explicată, endogenă, rezultativă) şi o mulţime de variabile
independente (explicative, factoriale, exogene, predictori). Prin utilizarea regresiei
multiple se încearcă, adesea, obţinerea răspunsului la una dintre întreb ările:
“care este cea mai bună predicţie pentru …?”,
“cine este cel mai bun predictor pentru …?” .
Forma generala a modelului de regresie liniar multifactorial :

Y = a0 + a1X1 + a2X2 + ... + ak Xk + e


unde:
 Y este variabila endogenă,
 X1, X2, …, Xk sunt k variabile explicative,
 a0, a1, a2, …, ak sunt k+1 parametri necunoscuți,
 e este variabila de abatere (eroarea) din ecuația de regresie.

Eroarea e reflectă, la fel ca în modelul linear unifactorial, influența


elementelor calitative necuantificabile, a celor care depind de
comportamentul uman nepredictibil, sau a altor factori cu influență
minoră, alții decât X1, X2, …, Xk.
Parametrul a0 modelează comportamentul autonom al variabilei
endogene, iar parametrii ai cuantifică intensitatea influenței factorului
Xi asupra variabilei Y.
Estimarea parametrilor de regresie prin metoda matriciala :
Estimarea parametrilor de regresie se realizează cu ajutorul M.CM.M.P. .

13
Cea mai simplă modalitate de prezentare este prin prisma calculului matricial în
baza funcției:
Y=X ^A+ε
Unde:
– Y este un vector coloana, de dimensiuni n × 1, care are drept componente cele n
înregistrări ale variabilei explicate (endogene),
– X este o matrice de dimensiuni n × (k+1), care conține în prima coloana (atașată
termenului liber) constanta 1, iar în celelalte k coloane înregistrările pentru
fiecare dintre cele k variabile explicative;
– A este un vector coloana, de dimensiuni (k+1) × 1, care include cei k+1
parametri ai modelului;
– e este un vector coloana, de dimensiuni n × 1, care include cele n valori ale
variabilei de abatere (erorile din ecuația de regresie).
¿
Dacă vectorii atașați fiecărei variabile explicative Xi sunt linear independen ți,
atunci matricea X'X nu este singulară și sistemul poate fi rezolvat în raport cu
vectorul estimatorilor Â: Â = (X'X)-1 X'Y

27.Eliminarea autocorelării erorilor.


Eliminarea autocorelarii se efectueaza deplasand si corectand termenii seriei .

28.Verificarea normalităţii distribuţiei utilizând procedeul grafic.


Ipoteza de normalitate a erorilor presupune că variabila ε urmează o lege
normală de medie 0 şi varianţă σ2:
ε N ¿);
Importanța: dacă ε N ¿), atunci estimatorii parametrilor modelului de regresie
urmează, de asemenea, o lege normală: a^ N ¿) , b^ N ¿) .
Dacă ipoteza de normalitate este încălcată, proprietăţile estimatorilor construiţi
pe baza metodei celor mai mici pătrate au doar proprietăţi asimptotice, adică
necesită eşantioane sau seturi mari de date!

Verificarea acestei ipoteze implică şi testarea ipotezei că, în medie, modelul


este bine specificat: M (ε )=0.
Testarea ipotezei de normalitate a erorilor se poate realiza cu ajutorul
procedeelor grafice (histograma, diagrama reziduurilor) sau a procedeelor
numerice (testul Kolmogorov-Smirnov, testul Jarque - Bera ).
Diagrama de dispersie a reziduurilor :
Diagrama de dispersie a reziduurilor se construieşte considerând pe ordonat ă
valori ale variabilei reziduale ε i, iar pe abscisă valori estimate ale variabilei
dependente ^ y i.
Se știe că dacă erorile urmează legea normală de medie zero și de abatere medie
pătratică σ e atunci are loc relația:
2

P (|e^ i|≤t ∝ Se ) =1−∝


ce va fi folosită pentru acceptarea ipotezei cercetate la nivelul de semnifica ție ∝.

29.Heteroscedasticitatea. Esenţa ipotezei.


La date bivariate, variabila y prezintă heteroscedasticitate dacă împr ăştierea valorilor
y depinde de x. Grafic, secţiunile verticale în diagrama de împr ăştiere prezint ă
distribuţii diferite ale norilor de puncte.

14
Consecinţe ale ignorării fenomenului de heteroscedasticitate a erorilor:
a)Estimatorii parametrilor din model sunt nedeplasaţi şi consistenţi
b)Estimatorii parametrilor din model nu sunt eficienţi (exist ă estimatori care au o
dispersie mai mică).
c)Estimatorii calculaţi pentru dispersia şi covarianţa parametrilor sunt deplasa ţi, nu sunt
consistenţi şi nu sunt eficienţi.
d)Testul t Student aplicat pentru analiza semnificaţiei estimatorilor nu este valid. Dac ă
dispersia erorilor şi variaţia factorului explicativ sunt pozitiv corelate, atunci
dispersia corectă a parametrului a1 este subestimată, astfel încât calculele
sugerează o precizie a estimării mai bună decât este în realitate.
e)Estimatorii parametrilor nu au proprietatea de maximă verosimilitate.
Testarea heteroscedasticităţii: Testul Goldfeld–Quandt.
Se identifică, o variabilă notată Z, de care este (potenţial) legat ă dispersia erorilor. Se
aranjează toate observaţiile din eşantionul reţinut pentru analiză în ordinea
crescătoare a valorilor Zt . Eşantionul de dimensiune n se divide în dou ă p ăr ţi de
dimensiuni n1 şi n2 , după eliminarea a m observaţii (între 1/6 şi 1/5 dintre observa ţii)
situate la mijlocul eşantionului. Se calculează dispersia reziduurilor din modelul
estimat pentru primele n1 observaţii şi dispersia reziduurilor din modelul estimat
pentru ultimele n2 observaţii. Dacă raportul supraunitar al acestor dispersii este mai
mic decât valoarea critică din tabelul distribuţiei teoretice F cu n1 -(k+1) şi n2 -(k+1)
grade de libertate, atunci ipoteza nulă, a lipsei heteroscedasticit ăţii erorilor nu este
respinsă.

30.Testul Fischer-Snedecor folosit la testarea validităţii modelului de regresie estimat.


Testarea validitatii modelului presupune parcurgerea urmatoarelor etape:
-   Testarea validitatii modelului de regresie folosind metoda descompunerii variantei;
-   Calculul raportului de corelatie si testarea semnificatiei lui;
-   Inferenta statistica pentru parametrii modelului de regresie;
-   Verificarea ipotezelor modelului de regresie.
Dispersia totala verifica urmatoarea relatie:

Termenii relatiei se definesc prin:

- varianta totala a variabilei Y determinata de toti factorii sai de influenta;

- varianta fenomenului Y determinata numai de variatia factorului X,


considerat factorul principal al variabilei Y, adica variatia lui Y explicata de modelul
econometric;

- variatia reziduala, sau variatia fenomenului Y generata de catre factorii


nespecificati in model, acesti factori fiind considerati - in etapa de specificare - drept
factori cu influenta intamplatoare, neesentiali pentru a explica variatia fenomenului
Y;
31.Ipoteze fundamentale ale modelului de regresie.
 Estimatorii obținuți prin MCMMP sunt estimatori de maxim ă verosimilitate dac ă pot
fi acceptate următoarele ipoteze:
 Variabilele observate nu sunt afectate de erori de măsurare ;
 Liniaritatea modelului. Relaţia între Y şi X este liniară. Aceast ă ipotez ă este
necesară pentru estimarea parametrilor modelului;
 Normalitatea erorilor. Variabila reziduală este distribuită normal: ε ≡ N ¿ );
 Homoscedasticitatea. Varianţele V(ε ) sunt constante, oricare ar fi valorile variabilei
X, adică, V ( ε ) =σ 2 ;
 Necorelarea erorilor. Erorile sunt necorelate între ele:
15
cov ( ε i , ε j )=0;
 Independenţa erorilor de valorile variabilei X. Valorile variabilei sunt independente
de valorile variabilei explicative X, adică cov ( ε , x )=0.

Variabilele observate nu sunt afectate de erori de măsură dacă: se poate verifica


regula celor trei sigma care constă în verificarea următoarelor rela ţii:
x i ∈ ¿+3σ x )
y i ∈¿+3σ y)

Testarea liniarităţii modelului:


Verificarea liniarităţii se poate efectua grafic, folosind: diagrama reziduurilor din
regresie.
Diagrama reziduurilor din regresie se construieşte luând pe ordonată variabila reziduu şi
pe abscisă variabila dependentă.
Dacă reziduurile apar dispersate aleator, de o parte şi de alta a valorii zero, atunci rela ţia
poate fi modelată cu ajutorul regresiei liniare. Dacă reziduurile apar dispersate în
blocuri deasupra sau sub valoarea zero, atunci relaţia dintre variabilele considerate
nu poate fi modelată cu ajutorul regresiei liniare.
Testarea ipotezei de normalitate a erorilor:
 Ipoteza de normalitate a erorilor presupune că variabila ε urmează o lege normală
de medie 0 şi varianţă σ2:
ε N ¿);
 Importanța: dacă ε N ¿), atunci estimatorii parametrilor modelului de regresie
urmează, de asemenea, o lege normală: a^ N ¿) , b^ N ¿) .
 Verificarea acestei ipoteze implică şi testarea ipotezei că, în medie, modelul este
bine specificat: M (ε )=0.
 Testarea ipotezei M (ε )=0 se poate realiza cu ajutorul t-Student, folosit pentru pentru
compararea mediei cu valoarea 0.
 Testarea ipotezei de normalitate a erorilor se poate realiza cu ajutorul procedeelor
grafice (histograma, diagrama reziduurilor) sau a procedeelor numerice (testul
Kolmogorov-Smirnov, testul Jarque - Bera ).
 Diagrama de dispersie a reziduurilor
Diagrama de dispersie a reziduurilor se construieşte considerând pe ordonată valori ale
variabilei reziduale ε i, iar pe abscisă valori estimate ale variabilei dependente ^
y i.
 Testul Jarque-Bera
Testul Jarque - Bera se calculează după relaţia:
unde:
, reprezintă asimetria (skewness).
S = 0 pentru o repartiţie normală,
S > 0 pentru o repartiţie asimetrică la dreapta,
S < 0 pentru o repartiţie asimetrică la stânga;
reprezintă boltirea, (kurtosis).
K = 3 pentru o repartiţie normală,
K<3 pentru o repartiţie aplatizată
K > 3 pentru o repartiţie afectată de boltire.
Testarea ipotezei de homoscedasticitate
Presupunând că erorile sunt normal distribuite, atunci raportul F* urmează o distribuţie F
cu
(n−c )
γ 1= γ 2 = - ( k +1 ) grade de libertate.
2
 dacă
F ¿ > F (n−c ) ,
( k +1) ipoteza de homoscedasticitate este infirmat ă, erorile sunt
( n−c )
∝; ( k+1 ) ;;
2 2
heteroscedastice;
F ,
dacă F < ipoteza de homoscedasticitate este acceptată.
¿ ( n −c ) ( n−c )
∝; ( k+1 ) ;; ( k +1)
2 2
 Testul White
16
Aplicarea testului White presupune parcurgerea următoarelor etape:
1. estimarea parametrilor modelului iniţial şi calculul valorilor estimate ale variabilei
reziduale, ε ;
2. construirea unei regresii auxiliare, bazată pe presupunerea existenţei unei relaţii de
dependenţă între pătratul valorilor erorii, variabila exogenă inclus ă în modelul ini ţial
şi pătratul valorilor acesteia:
e i =a 0+ a1 x i +a2 x i2+ω i
2

şi calcularea coeficientului de determinare, R2, corespunzător acestei regresii auxiliare;


3. verificarea semnificaţiei parametrilor modelului nou construit, iar dacă unul dintre
aceştia este nesemnificativ, atunci ipoteza de heteroscedasticitate a erorilor este
acceptată.
Există două variante de aplicare a testului White:
 utilizarea testului Fisher –Snedecor clasic, bazat pe ipoteza nulităţii parametrilor,
respectiv:
H 0 :a0=a1=a 2=0
Dacă ipoteza nulă, potrivit căreia rezultatele estimării sunt nesemnificative ( F c < F ∝; γ ;γ ),
1 2

este acceptată, atunci ipoteza de homoscedasticitate se verifică, cazul contrar


semnificând prezenţa heteroscedasticităţii erorilor.
2
 utilizarea testului LM, ce este asimptotic distribuit sub forma unui χ ∝; γ , pentru care
numărul gradelor de libertate este egal cu: v = k , unde k = numărul variabilelor
exogene, respectiv:
2
LM =n R2 χ ∝; γ
2
 dacă LM ¿ χ ∝; γ , erorile sunt heteroscedastice, în caz contrar, sunt
homoscedastice, respectiv ipoteza nulităţii parametrilor, a 0=a1 =a2=0, este
acceptată.
Testarea ipotezei de autocorelare a erorilor
Ipoteza de necorelare a erorilor:
presupune lipsa unei corelaţii între termenii variabilei eroare din modelul de (eroarea
asociată unei valori a variabilei dependente nu este influenţată de eroarea asociată
altei valori a variabilei dependente).
Pentru testarea acestei ipoteze se pot utiliza: testul Durbin Watson.
Testul Durbin Watson (DW)
H0:  = 0 (nu există autocorelare a erorilor);
H1:   0 (ipoteza este încălcată, există o legătură între erori).
Valoarea calculată a testului DW se compară cu dL (limita inferioară) şi dU (limita
superioară), citite din tabelul Durbin –Watson la pragului de semnifica ţie α şi
volumul eşantionului n.
Decizia se ia în funcţie de următoarele regiuni:
- regiune de respingere:
ρ>0 erorile înregistrează o autocorelare pozitivă;
ρ <0 erorile înregistrează o autocorelare negativă;
- regiune de acceptare a ipotezei nule:
(du ; 4- du) erorile nu sunt autocorelate;
- regiune de nedeterminare:
(dL ; dU) şi (4-du ; 4-dL), dacă valoarea statisticii Durbin-Watson cade în această regiune, nu
se poate decide asupra existenţei autocorelării erorilor.
Testul Durbin-Watson se recomandă pentru eşantioane de volum mare n˃15 şi este
folosit în mod curent pentru analiza seriilor de timp.
Testarea semnificaţiei estimatorilor parametrilor modelului de regresie
Testarea parametrilor unui model de regresie se realizează cu ajutorul testului t Student.
Când modelarea econometrică este realizată cu suportul softurilor specializate ) decizia
poate fi luată şi în baza valorii Sig., astfel:
• Sig. > α : se acceptă ipoteza H0,
• Sig. < α: se respinge ipoteza H0, cu o probabilitate de 95%.

17
Dacă ipoteza de normalitate este încălcată, proprietăţile estimatorilor construi ţi pe baza
metodei celor mai mici pătrate au doar proprietăţi asimptotice, adică necesit ă
eşantioane sau seturi mari de date!

32.Modelul econometric general de tip clasic. Prezentarea generală. Exemple concrete


de modele.
Modelul clasic de regresie liniară reprezintă una dintre tehnicile statistice cele mai
versatile şi mai des utilizate în analiza economic ă, şi nu numai. In continuare, sunt
descrise şi analizate tehnicile de regresie puse la dispozi ţie de c ătre programul
econometric Eviews: specificarea şi estimarea unui model de regresie, efectuarea de
analize simple de diagnostic şi utilizarea rezultatelor estim ării în analize
suplimentare. Folosind o notaţie matricială, o ecuaţie de regresie liniar ă poate fi
scrisă sub forma:
Y=X β +ε
unde y este un vector N-dimensional care conţine observaţiile privind variabila
dependentă, X este o matrice de dimensiune N x K cu variabile independente sau
explicative,  este un vector K dimensional al coeficienţilor de regresie şi  este un
vector N dimensional reprezentând inovaţiile asociate ecuaţiei, adică aceea
componentă din dinamica variabilei dependente care nu este captată de către cele K
variabile independente. N reprezintă numărul de observaţii, iar K este numărul de
regresori (variabile explicative) din partea dreaptă a ecuaţiei.
Obiectivele Analizei de Regresie :
1. Estimarea valoarii medii a variabilei dependente,date fiind valorile var. indep.
2. Testarea de ipoteze despre natura dependenţei (ipoteze sugerate de teoria ec.)
3. Previzionarea valoarii medii a variabilei dependente, cunoscând valorile viitoare ale
variabilelor independente.
Exemple de relaţii de dependenţă:
Cheltuieli de Consum – Venit
Înălţime – Vârstă
Cererea pentru un produs – Preţul produsului
Venituri din vânzări – Cheltuieli cu publicitatea
Cheltuieli pentru apărare – PIB
Rata şomajului – Rata inflaţiei

33.Verificare normalităţii distribuţiei cu ajutorul testelor sintetice.

 Ipoteza de normalitate a erorilor presupune că variabila


ߝurmează o lege normală de medie 0 şi varianţă σ2:
ߝ̱ ܰሺͲǡ ߪ ௘ଶ);

 Importanța: dacă ߝ ̱ ܰሺͲǡߪ ௘ଶ ), atunci estimatorii


parametrilor modelului de regresie urmează, de
asemenea, o lege normală: ܽ
ො̱ ܰሺܽǡߪ ௔ ଶ) , ܾ
෠̱ ܰሺܾǡߪ ௕ ଶ) .

Dacă ipoteza de normalitate este încălcată, proprietăţile


estimatorilor construiţi pe baza metodei celor mai mici
pătrate au doar proprietăţi asimptotice, adică necesită
eşantioane sau seturi mari de date!

 Verificarea acestei ipoteze implică şi testarea ipotezei că, în medie, modelul


este bine specificat: M(ε)=0.

 Testarea ipotezei M(ε)=0 se poate realiza cu ajutorul t-Student, folosit pentru pentru
compararea mediei cu valoarea 0.

18
Testarea ipotezei de normalitate a erorilor se poate realiza cu ajutorul procedeelor
grafice (histograma, diagrama reziduurilor) sau a procedeelor numerice (testul
Kolmogorov-Smirnov, testul Jarque - Bera ).

 Diagrama de dispersie a reziduurilor


Diagrama de dispersie a reziduurilor se construieşte considerând pe ordonată valori ale
variabilei reziduale ε_i, iar pe abscisă valori estimate ale variabilei dependente

 Testul Jarque-Bera
n  ˆ 2 ( Kˆ  3) 2 
JB  S  ~ 2
6  4 

Testul Jarque - Bera se calculează după relaţia: unde:
3
S
 23
, reprezintă asimetria (skewness).
S = 0 pentru o repartiţie normală,
S > 0 pentru o repartiţie asimetrică la dreapta,
S < 0 pentru o repartiţie asimetrică la stânga;

4
K
 22
reprezintă boltirea, (kurtosis).
K = 3 pentru o repartiţie normală,
K<3 pentru o repartiţie aplatizată
K > 3 pentru o repartiţie afectată de boltire.

Se ș tie că dacă erorile urmează legea normală de medie


zero ș i de abatere medie pătratică ߪ ௘ଶ atunci are loc
relația:
ܲ ݁Ƹ ௜ ൑ ‫ݐ‬‫ܵ ן‬௘ ൌ ͳെ ‫ן‬

ce va fi folosită pentru acceptarea ipotezei cercetate la


nivelul de semnificație ‫ ן‬.

34.Testarea semnificaţiei estimatorilor parametrilor de regresie.


Testarea parametrilor unui model de regresie se realizează cu
ajutorul testului t Student.
Formularea ipotezelor:

Estimatorii sunt semnificativ diferiţi de zero, cu un prag de


semnificaţie α , dacă se verifică următoarele relaţii:

௔ ෠

‫ݐ‬௔ො
ൌ൐ ‫ ןݐ‬ǡఊ ‫ݐ‬௕෠ ൌ൐ ‫ ןݐ‬ǡఊ


ෝ ௌ

ߛൌ
݊െʹ ሺ݊‫ݎ‬Ǥ݃‫݁݀ܽݎ‬ ݁ ሻ,
‫ݐ ܽݐݎ ݐܾ݈݁݅ݐ‬

Când modelarea econometrică este realizată cu suportul softurilor specializate ) decizia


poate fi luată şi în baza valorii Sig., astfel:
• Sig. > α : se acceptă ipoteza H0,
• Sig. < α: se respinge ipoteza H0, cu o probabilitate de 95%.

19
35.Metode de atenuare şi eliminare a multicoliniarităţii. Selecţia variabilelor exogene în
model.
Daca estimatorii calculați pentru parametrii modelului sunt semnificativi din punct de
vedere statistic, sensul și intensitatea influentei sunt în concordanta cu teoria
economica, atunci eventuala prezență a fenomenului de multicoliniaritate poate fi
neglijată.
Dacă însă, influențele asupra calității estimatorilor sunt negative, atunci exist ă mai
multe soluții pentru eliminarea multicolinearității.
a) Eliminarea unor variabile explicative . Selectarea variabilei care va fi eliminată se face
fie prin analiza teoretica (economica), fie pornind de la testele statistice de
semnificație. În ultima situație, se elimină variabila pentru care valoarea testului t
este mică, sau variabila pentru care corelația cu Y este mai slab ă.
b) Realizarea unor observații suplimentare asupra variabilelor din model (se m ăre ște
volumul eșantionului). Daca este posibilă mărirea eșantionului, atunci crește precizia
estimatorilor și se reduce efectul negativ al multicoliniarit ății.
c) Prelucrarea primara a datelor (calculul ritmurilor de modificare, a sporurilor, indicilor,
logaritmarea valorilor observate).
Este posibil, de exemplu în cazul seriilor de timp, ca anumite variabile economice sa
evolueze pe traiectorii asemănătoare, fără ca între acestea sa existe o leg ătur ă
directă.
Astfel, în medii economice puternic inflaționiste, variabilele au în timp valori cresc ătoare
dacă sunt exprimate nominal, chiar dacă, în prețuri constante, tendința real ă este de
scădere. În aceste condiții, evitarea multicolinearității indusă artificial se poate
realiza prin includerea în model a ritmurilor (sau a indicilor) de modificare a
variabilelor respective.
d)Regresia ridge.
Este o tehnică mecanică, arbitrară, care constă în transformarea matricei (X'X) astfel
încât determinantul matricei obținute să fie diferit de zero.
De exemplu, se adaugă un număr fiecărui element de pe diagonala principală a matricei
(X'X), astfel încât în aplicarea procedurii de estimare a parametrilor modelului se
folosește matricea (X'X+cIk+1,k+1), unde c este o constantă, iar I este matricea
unitate.Chiar daca în acest mod calitatea statistică a estimării poate fi îmbun ăt ățit ă,
principalul inconvenient constă în dificultatea interpretării economice a rezultatelor
obținute.
Aplicarea în practică a uneia din modalităţile de remediere, depinde de natura datelor şi
de severitatea multicoliniarităţii.
SELECTIA VARIABILELOR EXOGENE:
Procedurile statistice de selecţie a variabilelor explicative permit determinarea acelor
variabile, care se adaugă sau se retrag dintr-un model. Aceste demersuri exclud
raţionamentul economic, permiţând găsirea unor modele, care deseori sunt bune din
punct de vedere statistic, dar a căror interpretare economică poate fi nul ă sau
aberantă. De aceea tehnicile automate de selecţie a variabilelor explicative se
utilizează cu prudenţă, completându-se rezultatele cu raţionamentul economic.
Există cinci proceduri pentru selecţia variabilelor explicative :
- cele mai corelate cu variabile explicată şi
- cel mai puţin corelate între ele.
Aceste proceduri sunt:
 toate regresiile posibile;
 eliminarea progresivă;
 selecţia progresivă;
 regresia pas cu pas;
 regresia pe faze.
 Toate regresiile posibile - constă în efectuarea tuturor regresiilor posibile (2 la
puterea (k– 1)), unde k este numărul variabilelor explicative, candidate la intrarea

20
în model. Se reţine acel model care are R la puterea 2 cel mai mare şi toate
variabilele explicative semnificative.
 Eliminarea progresivă - constă în efectuarea regresiei cu toate variabilele
explicative şi apoi eliminarea pe rând, a acelora a căror nivel al probabilit ății
statisticii Student este mai mare decât valoarea critică ( α=0,05). Procedura se
utilizează, numai dacă se poate estima efectiv, modelul iniţial, ceea ce nu este
mereu posibil. Modelul poate avea un număr mare de variabile explicative, şi atunci,
riscul multicoliniarităţii este mare, iar matricea poate fi singular ă.
 Selecţia progresivă - se parcurge un sens invers celui descris în eliminarea
progresivă:
1) se selectează în model o variabilă xi, care are coeficientul de corelaţie simplă cu
variabila y, cel mai mare;
2) în a doua etapă, se calculează coeficienţii de determinaţie parţial ă r la puterea 2
yxj.xi pentru j ≠i şi se reţine acea variabilă xj, care are cel mai mare coeficient de
corelaţie parţială.
Selecţia variabilelor se opreşte când probabilității statisticii Student este mai mare
decât valoarea critică (α=0,05).
 Regresia pas cu pas - este identică cu cea precedentă, a selecției progresive, doar
că înainte de a incorpora o nouă variabilă explicativă se examinează probabilitățile
statisticii Student a fiecăreia din variabilele explicative selec ționate în prealabil și
se elimină din model cele care au probabilitățile statisticii Student mai mari decât
valoarea critică!

37.Modalităţi de atenuare a multicoliniaritaţii.


Daca estimatorii calculați pentru parametrii modelului sunt semnificativi din punct de
vedere statistic, sensul și intensitatea influentei sunt în concordanta cu teoria
economica, atunci eventuala prezență a fenomenului de multicoliniaritate poate fi
neglijată.
Dacă însă, influențele asupra calității estimatorilor sunt negative, atunci exist ă mai
multe soluții pentru eliminarea multicolinearității.

a) Eliminarea unor variabile explicative . Selectarea variabilei care va fi eliminată se face


fie prin analiza teoretica (economica), fie pornind de la testele statistice de
semnificație. În ultima situație, se elimină variabila pentru care valoarea testului t
este mică, sau variabila pentru care corelația cu Y este mai slab ă.

b) Realizarea unor observații suplimentare asupra variabilelor din model (se m ăre ște
volumul eșantionului). Daca este posibilă mărirea eșantionului, atunci crește precizia
estimatorilor și se reduce efectul negativ al multicoliniarit ății.

c) Prelucrarea primara a datelor (calculul ritmurilor de modificare, a sporurilor, indicilor,


logaritmarea valorilor observate).
Este posibil, de exemplu în cazul seriilor de timp, ca anumite variabile economice sa
evolueze pe traiectorii asemănătoare, fără ca între acestea sa existe o leg ătur ă
directă.
Astfel, în medii economice puternic inflaționiste, variabilele au în timp valori cresc ătoare
dacă sunt exprimate nominal, chiar dacă, în prețuri constante, tendința real ă este de
scădere. În aceste condiții, evitarea multicolinearității indusă artificial se poate
realiza prin includerea în model a ritmurilor (sau a indicilor) de modificare a
variabilelor respective.
d)Regresia ridge.
Este o tehnică mecanică, arbitrară, care constă în transformarea matricei (X'X) astfel
încât determinantul matricei obținute să fie diferit de zero.
De exemplu, se adaugă un număr fiecărui element de pe diagonala principală a matricei
(X'X), astfel încât în aplicarea procedurii de estimare a parametrilor modelului se

21
folosește matricea (X'X+cIk+1,k+1), unde c este o constantă, iar I este matricea
unitate.
Chiar daca în acest mod calitatea statistică a estimării poate fi îmbunăt ățit ă, principalul
inconvenient constă în dificultatea
interpretării economice a rezultatelor obținute.

Aplicarea în practică a uneia din modalităţile de remediere, depinde de natura datelor şi


de severitatea multicoliniarităţii.
Nu se recomandă utilizarea regresiei afectată de multicoliniaritate, pentru previziune !

38.Autocorelare erorilor. Esenţa ipotezei.

i j cov( ,  )  0
---Ipoteza de necorelare a erorilor:
presupune lipsa unei corelaţii între termenii variabilei eroare din modelul de (eroarea
asociată unei valori a variabilei dependente nu este influenţată de eroarea asociată
altei valori a variabilei dependente).
Pentru testarea acestei ipoteze se pot utiliza: testul Durbin Watson.
---Testul Durbin Watson (DW)
H0: r = 0 (nu există autocorelare a erorilor);
H1: r ¹ 0 (ipoteza este încălcată, există o legătură între erori).

În cazul existenţei fenomenului de autocorelare a erorilor se presupune că între erori

există o relaţie de tipul:


 i   i 1  u i cu
u i ~ N (0,  u2 )
n

 (e
i 2
i  ei 1 ) 2
DW  n

e 2
i
Statistica test: i 1

Valoarea calculată a testului DW se compară cu dL (limita inferioară) şi dU (limita


superioară), citite din tabelul Durbin –Watson la pragului de semnifica ţie α şi
volumul eşantionului n.

Decizia se ia în funcţie de următoarele regiuni:


- regiune de respingere:
ρ>0 erorile înregistrează o autocorelare pozitivă;
ρ <0 erorile înregistrează o autocorelare negativă;
- regiune de acceptare a ipotezei nule:
(du ; 4- du) erorile nu sunt autocorelate;
- regiune de nedeterminare:
(dL ; dU) şi (4-du ; 4-dL), dacă valoarea statisticii Durbin-Watson cade în această regiune, nu
se poate decide asupra existenţei autocorelării erorilor.

Testul Durbin-Watson se recomandă pentru eşantioane de volum mare n˃15 şi este


folosit în mod curent pentru analiza seriilor de timp.

39.Testarea semnificaţiei parametrilor de regresie a modelului liniar simplu.

22
 Metoda celor mai mici pătrate (MCMMP):
Dacă forma generală a modelului este definită de relația:
‫ݕ‬௜ ൌ ܽ൅ ܾ[ ௜ ൅ ‫ݑ‬௜
Estimarea parametrilor modelului de regresie se bazează pe
criteriul minimizării sumei pătratelor abaterilor între valorile
observate, yi , şi valorile teoretice, ‫ݕ‬
ෝ௜:
F(ܽ ෝ ෠ሻൌ
ǡܾ ݉݅݊ ∑ሺ‫ݕ‬௜ െ‫ݕ‬ො ଶ
௜ሻ
Condiția de minim a acestei funcții rezultă din:

În cazul dreptei de regresie, ‫ݕ‬


ො =ܽ
ො൅ܾ෠‫ ݔ‬, construită pe
baza unui eşantion observat, estimaţiile ܽ
ො ෠ale
şi ܾ
parametrilor ܽşi ܾse pot calcula după relaţiile:

ܽ
ො ‫ݕ‬
ൌതെ෠‫ݔ‬ҧ
ܾ

 b – coeficient de regresie care prezintă cu cât se modifică caracteristica rezultativă


dacă caracteristica factorială se modifică cu o unitate.
dacă:
b=0 , între x și y nu există legătură;
b>0, între x și y legătură direct proporțională;
b<0, între x și y legătură invers proporțională.
 a – termenul liber care exprimă acțiunea constantă a factorilor neînregistrați.

 Estimarea parametrilor prin interval de încredere -


se bazează pe distribuţiile de selecţie ale estimatorilor
ܽ
ෝ ෠ ai parametrilor a şi b.
şi ܾ
Pentru modelul liniar simplu, estimatorii parametrilor
urmează o lege de distribuţie normală şi sunt nedeplasaţi:

) cu ) = a; )= ; =

ܾ ܾǡߪ ௕ ଶ) cu ‫ ܯ‬ሺ
෠̱ ܰሺ ܾ෠) = b; ܸሺ
ܾ෠)=ߪ ௕ ଶ; ߪ ௕ ଶ= మ ߪ ௘ଶ
σ ሺ௫೔ି௫ҧ

23
Estimații:
 pentru varianţa erorilor ߪ ௘ଶ:

 - pentru varianţa estimatorului a şi b varianţa


estimatorului :

= și =

 Intervalul de încredere
Intervalul de încredere pentru:
 coeficientul de regresie a este definit de relaţia:
ܽൌ ሺܽොേ‫ݐ‬ഀΤమܵ௔ො)

 coeficientul de regresie b este definit de relaţia:


ܾൌ ෠േ‫ݐ‬ഀΤ ܵ௕෠)
ሺܾ మ

40.Testarea normalităţii distribuirii erorilor, procedeu grafic.


Testarea ipotezei de normalitate a erorilor se poate realiza cu ajutorul procedeelor
grafice (histograma, diagrama reziduurilor) sau a procedeelor numerice (testul
Kolmogorov-Smirnov, testul Jarque - Bera ).
 Diagrama de dispersie a reziduurilor
Diagrama de dispersie a reziduurilor se construieşte conside rând pe
ordonată valori ale variabilei reziduale ߝ௜, iar pe abscisă valori e stimate ale
variabile i dependente ‫ݕ‬ෝ௜.

36.Modelul econometric general de tip clasic. Estimarea parametrilor de regresie.


Caracteristica coeficientului BLUE.

 Metoda celor mai mici pătrate (MCMMP):


Dacă forma generală a modelului este definită de relația:
‫ݕ‬௜ ൌ ܽ൅ ܾ[ ௜ ൅ ‫ݑ‬௜
Estimarea parametrilor modelului de regresie se bazează pe
criteriul minimizării sumei pătratelor abaterilor între valorile
observate, yi , şi valorile teoretice, ‫ݕ‬
ෝ௜:
෠ሻൌ ଶ
F(ܽ ෝǡܾ ݉݅݊ ∑ሺ‫ݕ‬௜ െ‫ݕ‬ො௜ሻ
Condiția de minim a acestei funcții rezultă din:

În cazul dreptei de regresie, ‫ݕ‬


ො =ܽ
ො൅ܾ෠‫ ݔ‬, construită pe
baza unui eşantion observat, estimaţiile ܽ
ො ෠ ale
şi ܾ
parametrilor ܽşi ܾse pot calcula după relaţiile:

ܽ
ො ‫ݕ‬
ൌതെ෠‫ݔ‬ҧ
ܾ

 b – coeficient de regresie care prezintă cu cât se modifică caracteristica rezultativă


dacă caracteristica factorială se modifică cu o unitate.
dacă:

24
b=0 , între x și y nu există legătură;
b>0, între x și y legătură direct proporțională;
b<0, între x și y legătură invers proporțională.
 a – termenul liber care exprimă acțiunea constantă a factorilor neînregistrați.

 Estimarea parametrilor prin interval de încredere -


se bazează pe distribuţiile de selecţie ale estimatorilor
ܽ
ෝ ෠ ai parametrilor a şi b.
şi ܾ
Pentru modelul liniar simplu, estimatorii parametrilor
urmează o lege de distribuţie normală şi sunt nedeplasaţi:

) cu ) = a; )= ; =

ܾ ܾǡߪ ௕ ଶ) cu ‫ ܯ‬ሺ
෠̱ ܰሺ ܾ෠) = b; ܸሺ
ܾ෠)=ߪ ௕ଶ; ߪ ௕ଶ= మ ߪ ௘ଶ
σ ሺ௫೔ି௫ҧ

Estimații:
 pentru varianţa erorilor ߪ ௘ଶ:

 - pentru varianţa estimatorului a şi b varianţa


estimatorului :

= și =

 Intervalul de încredere
Intervalul de încredere pentru:
 coeficientul de regresie a este definit de relaţia:
ܽൌ ሺܽොേ‫ݐ‬ഀΤమܵ௔ො)

 coeficientul de regresie b este definit de relaţia:


ܾൌ ሺ෠േ‫ݐ‬ഀΤ ܵ௕෠)
ܾ మ

Dispersia coeficientilor evaluati în jurul valorilor adevărate ale coeficientilor este cea mai compactă distributie,
care este posibilă în conditiile dispersiilor nedeplasate. Nici una din metodele liniare existente de estimare a
coeficientilor nu asigură o dispersie mai mică pentru fiecare din coeficientii estimati decât M.C.M.M.P.
Estimatiile sunt de natură BLUE - Best Linear Unbiased Estimators (Teorema Gauss-Marcov).
41. Teoria corelaţiei. Modalităţi de stabilire a legăturii între două fenomene.
Metoda corelaţiei oferă o măsură sintetică a legăturilor dintre variabilele statistice.
Indicatorii calculaţi sunt:
covarianţa,
coeficientul de corelaţie ,raportul de corelaţie.
 Fenomenele si procesele economice se gasesc in relatii de interdependenta, astfel incat unele
se comporta ca fenomene cauza, determinante, independente sau factoriale, iar altele sunt
fenomene efect, determinate, dependente sau rezultative.
Metoda tabelului de corelatie. Tabelul de corelatie este un tabel statistic cu dubla intrare si
cuprinde doua serii statistice de repartitie, o serie reprezinta seria de variante, sau intervalele
de grupare, ale caracteristicii determinante, iar cealalta serie se refera la caracteristica
dependenta (determinata). Tabelul de corelatie este o forma de grupare combinata efectuata
dupa doua caracteristici considerate in sistem interdependent.

In functie de modul in care se distribuie frecventele aferente celor doua caracteristici se poate
contura o apreciere cu privire la existenta sau inexistenta unei legaturi statistice, forma si directia
25
legaturii. Concentrarea frecventelor in jurul uneia dintre diagonalele tabelului indica existenta
unei anumite legaturi statistice, iar daca se remarca o imprastiere a frecventelor in tot spatiul
tabelului se apreciaza ca cele doua caracteristici nu manifesta o stare de interdependenta.

Prin metoda tabelului de corelatie se identifica daca exista o legatura statistica intre fenomenele
studiate, in profil static, la un anumit moment la care se refera datele, legatura care poate sa nu se
mai manifeste la alte momente de existenta a unitatilor statistice.
Metoda grafica este una din cele mai utilizate metode pentru evidentierea legaturilor care se
formeaza intre caracteristicile statistice. Aceasta metoda poate avea atat o utilizare independenta
cat si in contextul aplicarii altor metode cu o structura de lucru mai complexa cum ar fi metodele
statistico-matematice de analiza a corelatiilor.

Metoda graficului de corelatie (corelograma) consta in analiza unui grafic construit pe baza
axelor rectangulare, valorile caracteristicii independente se inscriu pe abscisa, iar cele ale
caracteristicii rezultative se inscriu pe axa ordonatelor. Reprezentarea punctelor de intersectie a
valorilor celor doua caracteristici (“norul de puncte”) ofera o dispunere care permite, prin
observatie, sa se concluzioneze asupra existentei corelatiei, precum si asupra directiei si formei
analitice de manifestare a corelatiei.

      Metodele statistico-matematice de analiza a corelatiilor dintre fenomene fac parte din


categoria metodelor de analiza factoriala, sunt metode cu caracter analitic si permit
dimensionarea intensitatii interdependentei dintre doua sau mai multe fenomene, viteza de
modificare a fenomenelor efect prin modificarea fenomenelor cauza, precum si forma analitica a
relatiei de interdependenta exprimata printr-o ecuatie de regresie. Aceste metode prezinta o larga
aplicabilitate practica datorita consistentei informatiilor pe care le ofera.

42.Procedee de eliminare a fenomenului de autocorelare a erorilor.


43.Tipologia modelelor econometrice.Caracteristica generala a
acestora.
după numărul factorilor luaţi în considerare
 modele unifactoriale: se fundamentează pe ipoteza că în rândul factorilor de
influenţă ai variabilei rezultative y există un factor determinant x, ceilalţi
factori cu excepţia acestuia având o influenţă întâmplătoare (exprimată prin
intermediul variabilei reziduale u) sau fiind invariabili în perioada analizată
y = f(x)+u
 modele multifactoriale: elimină deficienţa modelului unifactorial, însă trebuie
ca numărul factorilor luaţi în considerare să nu fie foarte mare pentru a nu fi
mult prea complex, dificil de estimat etc.
y = f(x1,x2,...,xp)+u
 după forma legăturii dintre variabila rezultativă şi variabilele cauz ă
 modele liniare: dacă legătura este liniară
 modele neliniare: dacă legătura este neliniară
 după includerea factorului timp în model
 modele statice: dependenţa variabilei endogene y faţă de valorile variabilei exogene
xj se realizează în aceeaşi perioadă de timp:
y = f(x1t,...,xjt,...,xkt) + ut
 modele dinamice:
• introducerea variabilei timp ca o variabilă explicativă y = f(xt,t) + ut
• autoregresive: variabila rezultativă cu valori decalate este una din variabilele
explicative y = f(xt,yt-k) + ut

26
•model cu decalaj: variabila explicativă x îşi exercită influenţa asupra variaţiei
variabilei rezultative pe mai multe perioade de timp: y = f(xt,xt-1,... xt-k) + ut
 după includerea factorului timp în model
 modele statice: dependenţa variabilei endogene y faţă de valorile variabilei exogene
xj se realizează în aceeaşi perioadă de timp: y = f(x1t,...,xjt,...,xkt) + ut
 modele dinamice:
• introducerea variabilei timp ca o variabilă explicativă y = f(xt,t) + ut
• autoregresive: variabila rezultativă cu valori decalate este una din variabilele
explicative y = f(xt,yt-k) + ut
• model cu decalaj: variabila explicativă x îşi exercită influenţa asupra variaţiei
variabilei rezultative pe mai multe perioade de timp: y = f(x t,xt-1,... xt-k) + ut

44.Modelul econometric general de tip clasic.Testarea semnificatiei parametrilor de


regresie.

Modelul clasic de regresie liniară reprezintă una dintre tehnicile statistice cele mai
des utilizate în analiza economică, şi nu numai. Definiţie: o relaţie matematică
construită pe baza teoriei economice, care presupune că fenomenul economic Y
(fenomenul efect) este rezultatul acţiunii a două categorii de factori:
 prima, constituită dintr-un singur factor principal, esenţial, determinant – X,
 a doua - formată din toţi ceilalţi factori – consideraţi neesenţiali, cu ac ţiune
întâmplătoare (specificaţi prin variabila reziduală “ε”) sau constantă,
invariabilă, asupra lui Y (şi deci nu au sens a fi specificaţi în model).
Specificarea modelului unifactorial constă în precizarea variabilei endogene Y şi a celei
exogene X, pe baza teoriei economice; ca orice ipoteză teoretică, ea poate fi
adevărată sau falsă.
y = f(x) + ε
Identificareamodeluluiconstăînalegereauneifuncţii (sau a unuigrup de funcţii)
matematice, cu ajutorulcăreia se urmăreştesă se descrievalorilevariabileiendogene,
doarînfuncţie de variaţiavariabileiexogene X. Identificareamodelului se poate face
prin: • procedeulgrafic; • procedeulconservăriiariilor; • procedeulcalculeloralgebrice.
Forma modelului de regresieliniarăsimplă este:
Y = 𝑎+𝑏𝑋+ε
Unde:Y – variabilaendogenă;X – variabilaexogenă; ε - variabilareziduală.
Parametriimodelului de regresie simplă liniară, numiţi şi coeficienţi de regresie, sunt:
a - ordonata la origine - arată valoarea medie a variabilei Y când mărimea variabilei X
este 0;
b - panta dreptei - arată variaţia medie a variabilei dependente, Y, la o variaţie absolută cu
o unitate a variabilei X, adică variaţia variabilei Y este proporţională cu variaţia
variabilei X.
Testarea semnificaţiei parametrilor modelului unifactorial liniar
Estimatorii “a” şi “b” ai coeficienţilor din ecuaţia de regresie în colectivitatea general ă
au distribuţii de eşantionare, cu următoarele proprietăţi:
“a” şi “b” sunt estimatori nedeplasaţi ai parametrilor “α” şi “β”, adică:
Distribuţiile de eşantionare ale estimatorilor “a” şi “b” sunt μnormal
( a )=α distribuite,
μ ( b )=β cu mediile
2 2
“α” şi “β”
s a şi dispersiile:
sb şi

s 2a =s2e⋅
∑ x 2i s 2b =s2e⋅
1
∑ ( y i− y^ i )2
n ∑ ( xi −x )2 ∑ ( xi −x )2 s 2e =
n−2

1 x̄ 2
Testarea semnificaţiei parametrului “β” (panta dreptei)
Ipotezele statistice pestru testul bilateral:
H0: β = 0
s 2a =s2e
( n
+ n
∑ ( x i − x̄ )2
i=1
) 27
H1: β ≠ 0
Dacă eşantionul este de volum mare:

Testul z: b−μ ( b ) b−0


z calc= =
sb sb
Regiunea critică: dacă z calc <−z α /2 sau z calc >z α /2 se respinge H0.
Dacă eşantionul este de volum mic:

Testul t: b−μ ( b ) b−0 b


t calc= = =
sb sb sb
Reg. Critică: dac
t calcă<−t α /2,n−2 t calcsau
>t α /2,n−2 se respinge H0.

Teste unilaterale:
Test unilateral dreapta:
H0: β = 0 b−μ ( b ) b−0 b
H1: β> 0 t calc= = =
sb sb sb
Test unilateral stânga:
H0: β = 0
H1: β< 0

Regiunea critică:
Pt. test unilat. dreapta: t calc >t α ,n−2
Pt. test unilat. stânga: t calc <−t α ,n−2
Intervalul de încredere pentru “β”:
b−t α /2, n−2⋅s b ≤β≤b +t α /2, n−2⋅sb
Testarea semnificaţiei parametrului “α”
Ipotezele statistice pestru testul bilateral:
H0: α = 0
H1: α ≠ 0
Testul t:
a−μ ( a ) a−0 a
t calc= = =
sa sa sa
Reg. Critică: dacă sau
t <−t α /2,n−2 t calc >t α /2,n−2
se respinge H0,calc
deci α este semnificativ statistic.

Intervalul de increderepentruparametrul α este:

45.Testarea semnificaţiei parametrilor de regresie a modelului liniar simplu.


Testarea parametrilor unui model de regresie se realizează cu ajutorul testului t Student.
Formularea ipotezelor:
Estimatorii sunt semnificativ diferiţi de zero, cu un prag de semnificaţie α , dacă se verifică următoarele relaţii:
|a^| |b^|
t ^a= > t ∝ ,γ t ^b= >t ∝, γ
¿ S a^ Sb^
γ =n−2( nr . grade libertate), α=0, 05
Când modelarea econometrică este realizată cu suportul softurilor (specializate ) decizia poate fi luată şi în
baza valorii Sig., astfel:
• Sig. > α : se acceptă ipoteza H0,
• Sig. < α: se respinge ipoteza H0, cu o probabilitate de 95%.
46.Exprimarea variabilei calitative în mod indirect
Exprimarea variabilei calitative în mod indirect se realizează prin intermediul unei variabile numerice
reprezentative (variabilă-reprezentant) cu care variabila analizată este într-o corelație puternică.
Exemplu :

28
47.Variabile calitative (dummy)- concept
Într-un model econometric, de regula, atât variabilele endogene, cat si variabilele exogene sunt variabile
economice cuantificabile, exprimate în unități de măsură specifice naturii lor.
Dar, în anumite situații, ambele grupe de variabile, endogene si exogene, pot fi de natura calitativa
(nenumerice), variantele lor prezentându-se prin cuvinte și nu prin numere.
Variabilele calitative sau variabilele dummy se referă la însușiri, calități, categorii etc. a căror dimensiune
este exprimată prin atribute sau denumiri.
48.Exprimarea numerică a variabilelor dichotomice
Variabilele care pot fi prezentate sub două aspecte care se exclud reciproc privind:
existența – non-existența,
acceptarea – refuzul,
urban - rural, etc.
acest fapt face posibil transformarea în spațiul numeric binar a alternativelor existente.
a) Model unifactorial unde variabila exogenă este binară:
Spre exemplu, in modelul liniar
y = a0 + a1x +e
unde:
y - câștigurile salariale medii orare
x – situația matrimonială: 1- căsătorit, 0- necăsătorit
b) Model multifactorial unde variabilele exogene sunt binare:
Y = a0 + a1X1 + a2X2 + ... + ak Xk + e
unde:
X1 - profit net la o acțiune ordinară, unde 1 profit>0
X2 – activitatea desfășurată, unde 1 – activitate din domeniul alimentar
Y – profit net
c)Modelul include un factor calitativ și un factor numeric, spre exemplu:

X1 - profit net la o acțiune ordinară, unde 1 profit>0


X3 – număr angajați
Y – profit net
d) Variabila endogenă e de natură binară:
Spre exemplu, in modelul liniar
y = a0 + a1x +e
unde:
y – înzestrarea familiei cu autoturism, 1 – da, 0 -nu
x - venitul

49.Exprimarea numerică a variabilelor polichotomice


În situația în care variabila calitativă prezintă mai mult decât două alternative, acestora li se atribuie numere de
ordin în raport cu apartenența la o stare sau alta.
a)Variabila calitativă prezintă o diversitate de stări, fără a implica o ordonare a acestora în raport cu intensitatea.
Astfel de variabile sunt: naționalitatea, religia, rasa, etc.
În astfel de cazuri se atribuie variantelor valori echidistante:0,1,2,3,…etc.
Spre exemplu, în modelul liniar de dependență a cheltuieli de consum medii lunare pe o persoană de anotimp.
b) Variabila calitativă prezintă intensități diferite, motiv pentru care li se atribuie numere de ordine (ranguri) sau
se procedează la calculul notelor proporționale cu intensitatea.
Se folosesc în studii de marketing, sociologie, politologie, etc. unde opinia, satisfacția, încrederea instruirea pot
să difere ca intensitate.
Atribuirea de numere de ordine care urmează succesiunea categoriilor.
Neajuns: valorile astfel atribuite sunt echidistante ceea ce nu corespunde întotdeauna distanțelor dintre categoriile
de calitate.
29
În cazul de față intensitatea dependenței dintre variabile se recomandă a fi determinată cu coeficientul de
corelație a rangurilor.
Metoda Spearman spre exemplu, presupune în prealabil stabilirea rangurilor pentru fiecare variabilă în raport cu
prezența intensității prezenței fenomenului, apoi aplicarea formulei coeficientului de corelație Spearman
50.Detectarea multicoliniarităţii
Există câteva reguli pentru stabilirea existenţei multicoliniarității:
-coeficienții de corelație lineara, calculați pentru perechile de variabile explicative din model, sunt mari în
valoare absoluta (sunt, în modul, apropiați de +1);
-determinantul matricei (X'X) are valori în apropierea lui zero;
-coeficientul de determinare R2 este mai mare ,iar valorile testelor t(student),calculate pentru parametrii
modelului sunt mici
-estimatorii parametrilor sunt sensibili la specificarea modelului
-identificarea multicoliniarității prin proceduri formale
Identificarea multicoliniarității prin proceduri formale
-Examinarea corelațiilor parțiale a fost propusă de Farrar și Gauber,în vederea cercetării problemei privind
coeficienții de corelație simplă.Ei susțin că în regresia dintre y și x1,x2,x3, dacă se găsește că R2 yx1x2x3,este
mare,și comparativ r2 yx2x1x3, r2 yx3x1x2 sunt mici,aceasta poate sugera că variabilele x1,x2,x3 sunt puternic
intercorelate și că cel puțin una din variabilele explicative este în plus.Deși studiul coeficienților de corelație
parțială ar putea fi foarte util,totuși nu se poate garanta că va furniza un răspuns sigur în ceea ce privește
multicoliniaritatea.
- Regresiile auxiliare. Aflarea variabilei explicative care este corelată cu alte variabile x, prin efectuarea
regresiilor pentru fiecare variabilă xi şi restul variabilelor x. Fiecare din aceste regresii se consideră ca fiind
auxiliară faţă de regresia principală, considerată a fi regresia lui y în funcţie de toate variabilele explicative x.
Un coeficient mare de determinaţie sugerează că xi este puternic corelată cu celelalte variabile x. Pentru fiecare
din aceste regresii auxiliare se calculează statistica Fi* .
Se compară Fi* cu valoarea critică din tabela Fisher, pentru un prag de semnificaţie α şi (k-1), (n-k-1) grade de
libertate.
Dacă Fi* > F α,k-1,n-k-1 acesta înseamnă că acea variabilă xi este coliniară cu celelalte variabile x.
Dacă Fi* < Fa k-1,n-k-1 se spune că variabila xi nu este coliniară cu celelalte variabile x, caz în care respectiva
variabilă xi se reţine în model.
Această metodă are neajunsurile ei, în sensul că atunci când multicoliniaritatea presupune implicarea a mai
multor variabile, este dificil să se identifice interrelaţiile separate.

51.Interpretarea coeficienţilor model econometric liniar general de tip clasic

Folosind o notaţie matricială, o ecuaţie de regresie liniară poate fi scrisă sub forma:
Y=Xβ +ε
unde y este un vector N-dimensional care conţine observaţiile privind variabila dependentă, X este o matrice de
dimensiune N x K cu variabile independente sau explicative, β este un vector K dimensional al coeficienţilor de
regresie şi Ɛ este un vector N dimensional reprezentând inovaţiile asociate ecuaţiei, adică aceea componentă din
dinamica variabilei dependente care nu este captată de către cele K variabile independente. N reprezintă numărul
de observaţii, iar K este numărul de regresori (variabile explicative) din partea dreaptă a ecuaţiei

52.Ipotezele referitoare la variabilele explicative (model econometric liniar general de tip


clasic)

30
  

Variabilele observate nu sunt afectate de erori de măsură dacă: se poate verifica regula celor trei sigma
care constă în verificarea următoarelor relaţii: x i ∈ ¿+3σ x ); y i ∈¿+3σ y)
Testarea liniarităţii modelului:Verificarea liniarităţii se poate efectua grafic, folosind: diagrama reziduurilor
din regresie.
Diagrama reziduurilor din regresie se construieşte luând pe ordonată variabila reziduu şi pe abscisă variabila
dependentă.
Dacă reziduurile apar dispersate aleator, de o parte şi de alta a valorii zero, atunci relaţia poate fi modelată cu
ajutorul regresiei liniare.
Testarea ipotezei de normalitate a erorilor:
Ipoteza de normalitate a erorilor presupune că variabila εurmează o lege normală de medie 0 şi varianţă σ2: ε
N ¿);
Verificarea acestei ipoteze implică şi testarea ipotezei că, în medie, modelul este bine specificat: M (ε )=0.
Testarea ipotezei M (ε )=0 se poate realiza cu ajutorul t-Student, folosit pentru pentru compararea mediei cu
valoarea 0. Testarea ipotezei de normalitate a erorilor se poate realiza cu ajutorul procedeelor grafice
(histograma, diagrama reziduurilor) sau a procedeelor numerice (testul Kolmogorov-Smirnov, testul Jarque -
Bera ).
Diagrama de dispersie a reziduurilor se construieşte considerând pe ordonată valori ale variabilei reziduale ε i, iar
pe abscisă valori estimate ale variabilei dependente ^ y i.

Testul Jarque - Bera se calculează după relaţia:


n ^ 2 ( K^ −3)2
JB= S +
6 4 ( ~ χ2 )
Testarea ipotezei de homoscedasticitate
Ipoteza de homoscedasticitate presupune că varianţele sunt constante, oricare ar fi valorile variabilei X, adică,
. 2
V (ε )=σ
Pentru testarea ipotezei se utilizează :
procedeul grafic;
procedeul analitic.
Procedeul grafic constă în contruirea corelogramei privind valorile variabilei factoriale x și ale variabilei
reziduale Ɛ

Procedee analitice:
Testul Goldfeld-Quandt
Se aplică când se dispune de serii lungi de date.
(n−c )
Presupunând că erorile sunt normal distribuite, atunci raportul F* urmează o distribuţie F cu γ 1= γ 2= -
2
( k +1 ) grade de libertate.
¿
dacă F > F (n−c )
∝;
( n−c )
( k+1 ) ;; ( k +1)
,ipoteza de homoscedasticitate este infirmată, erorile sunt heteroscedastice;
2 2
F ,
dacă F ¿< ∝;
( n −c )
( k+1 ) ;;
( n−c )
( k +1) ipoteza de homoscedasticitate este acceptată.
2 2

31
Testul White
Există două variante de aplicare a testului White:
- utilizarea testului Fisher –Snedecor clasic, bazat pe ipoteza nulităţii parametrilor, respectiv: H 0 :a0=a1=a 2
=0
Dacă ipoteza nulă, potrivit căreia rezultatele estimării sunt nesemnificative ( F c < F ∝; γ ;γ ), este acceptată, atunci
1 2

ipoteza de homoscedasticitate se verifică, cazul contrar semnificând prezenţa heteroscedasticităţii erorilor.


- utilizarea testului LM, ce este asimptotic distribuit sub forma unui χ 2∝; γ , pentru care numărul gradelor de
libertate este egal cu: v = k , unde k = numărul variabilelor exogene, respectiv: LM =n R2 χ 2∝; γ
- dacă LM ¿ χ 2∝; γ , erorile sunt heteroscedastice, în caz contrar, sunt homoscedastice, respectiv ipoteza
nulităţii parametrilor, a 0=a1 =a2=0, este acceptată.
Testarea ipotezei de autocorelare a erorilor

Ipoteza de necorelare a erorilor: cov(ε i , ε j )=0


presupune lipsa unei corelaţii între termenii variabilei eroare din modelul de (eroarea asociată unei valori a
variabilei dependente nu este influenţată de eroarea asociată altei valori a variabilei dependente).
Pentru testarea acestei ipoteze se pot utiliza: testul Durbin Watson.
Testul Durbin Watson (DW)
H0:  = 0 (nu există autocorelare a erorilor);
H1:   0 (ipoteza este încălcată, există o legătură între erori).
Valoarea calculată a testului DW se compară cu dL (limita inferioară) şi dU (limita superioară), citite din tabelul
Durbin –Watson la pragului de semnificaţie α şi volumul eşantionului n.
Decizia se ia în funcţie de următoarele regiuni:
- regiune de respingere:
ρ>0 erorile înregistrează o autocorelare pozitivă;
ρ <0 erorile înregistrează o autocorelare negativă;
- regiune de acceptare a ipotezei nule:
(du ; 4- du) erorile nu sunt autocorelate;
- regiune de nedeterminare:
(dL ; dU) şi (4-du ; 4-dL), dacă valoarea statisticii Durbin-Watson cade în această regiune, nu se poate decide asupra
existenţei autocorelării erorilor.

53.Proprietăți ale estimatorilor parametrilor de regresie


Daca ipotezele modelului sunt respectate, atunci estimatorii calculați prin metoda celor mai mici pătrate pentru
modelul multifactorial de regresie lineara au anumite proprietăți:
 estimatorii sunt lineari. Daca variabilele explicative X nu sunt aleatoare si au valorile fixate (atunci când
se repetă selecția), estimatorii parametrilor din modelul multifactorial de regresie lineară sunt funcții
lineare de observațiile din eșantionul selectat.
 estimatorii sunt nedeplasați. Daca erorile sunt variabile aleatoare cu media zero, estimatorii lineari ai
parametrilor din modelul multifactorial de regresie lineara sunt nedeplasați;
 estimatorii sunt consistenți. Daca variabilele explicative au dispersia finita, estimatorii lineari si
nedeplasați ai parametrilor din modelul multifactorial de regresie lineara sunt consistenți;
 estimatorii sunt eficienți. Daca variabilele explicative au dispersia finita, estimatorii lineari si nedeplasați
ai parametrilor din modelul multifactorial de regresie lineara sunt eficienți;
 estimatorii sunt normal distribuiți. Estimatorii parametrilor din modelul multifactorial de regresie lineara
(Â), calculați prin metoda celor mai mici pătrate, sunt variabile aleatoare cu distribuire normală;
 estimatorii sunt de maxima verosimilitate. Estimatorii parametrilor din modelul multifactorial de regresie
lineara (Â), calculați prin metoda celor mai mici pătrate, sunt estimatori de maximă verosimilitate.

54)Intervale de încredere pentru parametrii de regresie.

55)Verificarea acuratetei ajustarii.


Un model este cu atît mai bun cu cît explică mai mult din variația lui Y pentru întreg eșantionul analizat.Pornind de la
relația Regulii adunărilor dispersiilor se definește coeficientul de determinare R2 ce prezintă partea din variația lui Y care
poate fi atribuită variației lui X,pentru eșantionul analizat.Coeficientul de determinare este doar o măsură a acurateței
ajustării,care,ca orice măsură are limite: aceasta nu poate fi interpretat atunci cînd ecuația de regresie nu conține termen
liber,deoarece în această situație relația prezentată anterior nu se respectă.
Cea mai utilizată corecție este cea introdusă de Theil prin coeficientul de determinare ajustat.Interpretarea coeficientului de
32
determinare ajustat este similară interpretării coeficientului de determinare :cu cît acesta este mai aproape de 1,cu atît
modelul se apropie mai mult de procesul economic modelat.O valoare negativă a lui R2 ajustat semnifică faptul că modelul
nu descrie într-un mod satisfăcător evoluția variabilei endogene.
56)Criterii de respectat pentru specificarea modelului multifactorial.
Un criteriu imediat pentru a decide dacă admitem sau nu în model o variabilă suplimentară este următorul: dacă prin
includerea unei (unor) variabile suplimentare suma pătratelor reziduurilor scade mai repede decât numărul gradelor de
libertate, din punct de vedere econometric se justifică reținerea în model a variabilei (variabilelor) respective. În practică
modele simplificate sunt preferate unor modele mai complicate.
Consecințe:
1. creșterea numărului de variabile explicative duce la scăderea preciziei estimatorilor;
2. scăderea numărului gradelor de libertate are ca efect reducerea puterii testelor aplicate asupra coeficienților. Creste astfel
riscul de acceptare a unor ipoteze false (riscul erorii de tip II).
Unul dintre cele mai cunoscute teste de specificare a modelelor econometrice este criteriul informațional Akaike (Akaike
information criterion – AIC).
O condiție pentru includerea unei noi variabile explicative este ca prin această re-specificare a modelului să se obțină o
valoare mai mică pentru AIC.
Criteriul informațional Schwartz ,ca și în cazul testului AIC o variabilă suplimentară este admisă dacă noua valoare
obținută pentru criteriul Schwartz este inferioară celei calculate pentru modelul inițial.
Erori de specificare a modelului multifactorial de regresie lineară:
Relația adevărată dintre variabila endogenă și variabilele explicative nu este cunoscută și, în consecință, este posibil să
apară erori în specificarea modelului. Aceste erori pot să provină din necunoașterea tipului de relație care există între
variabilele respective. De asemenea, este posibil ca în construcția modelului să fie omise variabile explicative importante,
sau, din contra, sa fie incluse variabile irelevante.
57)Consecințe ale omiterii unor variabile explicative importante.
a)dacă o variabilă importantă omisă este corelată cel puțin cu o variabilă inclusă în model,atunci estimatorii parametrilor de
regresie reținuți în model sunt deplasați și nu sunt consistenți.
b)chiar dacă variabilele omise nu sunt corelate cu variabilele reținute în model,estimatorul termenului liber,este,în
general,deplasat.
c)dispersiile estimate pentru parametrii variabilelor reținute în model sunt estimatori deplasați ai dispersiilor reale,și,în
consecință,testul t privind semnificația estimatorilor nu este valid.
58)Consecințe ale includerii unor variabile nerelevante in modelare.
a)dacă o variabilă explicativă nerelevantă este inclusă în model, atunci estimatorii parametrilor pentru toate celelalte
variabile din model sunt nedeplasați și consistenți;
b)dispersiile estimate pentru parametrii variabilelor din model sunt mai mari decât în cazul neincluderii variabilelor
nerelevante și deci estimatorii nu sunt eficienți;
c) deoarece dispersiile estimate pentru parametrii modelului sunt nedeplasate, testul t privind semnificația estimatorilor este
valid.

33

S-ar putea să vă placă și