Documente Academic
Documente Profesional
Documente Cultură
Concluzie: Probabilitatea (JB) 1,20 > 0,05 astfel se acceptă ipoteza H0, erorile sunt
distribuite normal la un nivel de semnificatie de 5 %.
̂ = (𝑿, 𝒀)
(𝑿, 𝑿)𝑨
Dacă vectorii atașați fiecărei variabile explicative Xi sunt linear independenți, atunci
matricea X'X nu este singulară și sistemul poate fi rezolvat în raport cu vectorul
estimatorilor Â:
 = (X'X)-1 X'Y
23.Demersul econometric.
Modelarea econometrică se poate rezuma sintetic la parcurgerea următoarelor
etape:
• formularea problemei în termeni economici, pornind de la o teorie sau o
problemă economică;
• identificarea variabilelor care instrumentează problema;
• identificarea tipului si formei legăturii dintre variabile, după o analiză atentă a
fenomenului real si a teoriei economice;
• propunerea unuia sau a mai multor modele care explică realitatea studiată prin
relatii de dependentă între variabile;
• estimarea parametrilor modelului sau modelelor propuse, pe baza metodelor
statistice cunoscute;
• testarea modelului sau modelelor si alegerea celui mai bun model;
• aplicarea în practică sau realizarea de predictii pe seama modelului.
Covarianţa :
Indicatorul ia valori pozitive dacă legătura dintre variabile este directă şi valori
negative în caz contrar.
Valori apropiate de zero semnifică lipsa oricărei legături între x şi y; valori ridicate ale
indicatorului arată o legătură puternică.
Coeficientul de corelaţie simplă măsoară intensitatea legăturilor liniare dintre două variabile.
Coeficientul de corelaţie ia valori cuprinse între -1 şi 1.
Semnul algebric al indicatorului prezintă sensul legăturii:
pozitiv - legătură directă,
negativ - legătură inversă.
Atunci când coeficientul ia valoarea zero, cele două nu sunt corelate liniar.
Valorile intermediare ale indicatorului (între 0 şi ±1) corespund unor intensităţi
diferite ale corelaţiei, mergând de la o legătură slabă (sub 0,5) până la o legătură
puternică (peste 0,75).
a) Eliminarea unor variabile explicative. Selectarea variabilei care va fi eliminată se face fie
prin analiza teoretica (economica), fie pornind de la testele statistice de semnificație. În
ultima situație, se elimină variabila pentru care valoarea testului t este mică, sau variabila
pentru care corelația cu Y este mai slabă.
b) Realizarea unor observații suplimentare asupra variabilelor din model (se mărește volumul
eșantionului). Daca este posibilă mărirea eșantionului, atunci crește precizia estimatorilor și
se reduce efectul negativ al multicoliniarității.
d)Regresia ridge.
Este o tehnică mecanică, arbitrară, care constă în transformarea matricei (X'X) astfel încât
determinantul matricei obținute să fie diferit de zero. De exemplu, se adaugă un număr
fiecărui element de pe diagonala principală a matricei (X'X), astfel încât în aplicarea
procedurii de estimare a parametrilor modelului se folosește matricea (X'X+cIk+1,k+1),
unde c este o constantă, iar I este matricea unitate.
Chiar daca în acest mod calitatea statistică a estimării poate fi îmbunătățită, principalul
inconvenient constă în dificultatea interpretării economice a rezultatelor obținute.
a) Eliminarea unor variabile explicative. Selectarea variabilei care va fi eliminată se face fie
prin analiza teoretica (economica), fie pornind de la testele statistice de semnificație. În
ultima situație, se elimină variabila pentru care valoarea testului t este mică, sau variabila
pentru care corelația cu Y este mai slabă.
b) Realizarea unor observații suplimentare asupra variabilelor din model (se mărește volumul
eșantionului). Daca este posibilă mărirea eșantionului, atunci crește precizia estimatorilor și
se reduce efectul negativ al multicoliniarității.
d)Regresia ridge.
Este o tehnică mecanică, arbitrară, care constă în transformarea matricei (X'X) astfel încât
determinantul matricei obținute să fie diferit de zero.
De exemplu, se adaugă un număr fiecărui element de pe diagonala principală a matricei
(X'X), astfel încât în aplicarea procedurii de estimare a parametrilor modelului se folosește
matricea (X'X+cIk+1,k+1), unde c este o constantă, iar I este matricea unitate.
Chiar daca în acest mod calitatea statistică a estimării poate fi îmbunătățită, principalul
inconvenient constă în dificultatea
interpretării economice a rezultatelor obținute.
Un alt model, dependența numărului de zile bolnav în funcție de tipul de tratament aplicat:
Y – număr zile bolnav,
X – tipul de tratament aplicat, 1= chirurgical,
2= Sulfafurazole, 3= placebo.
b) Variabila calitativă prezintă intensități diferite, motiv pentru care li se atribuie numere de
ordine (ranguri) sau se procedează la calculul notelor proporționale cu intensitatea.
Se folosesc în studii de marketing, sociologie, politologie, etc. unde opinia, satisfacția,
încrederea instruirea pot să difere ca intensitate.
Atribuirea de numere de ordine care urmează succesiunea categoriilor.
Neajuns: valorile astfel atribuite sunt echidistante ceea ce nu corespunde întotdeauna
distanțelor dintre categoriile de calitate.
În cazul de față intensitatea dependenței dintre variabile se recomandă a fi determinată cu
coeficientul de corelație a rangurilor.
Metoda Spearman spre exemplu, presupune în prealabil stabilirea rangurilor pentru fiecare
variabilă în raport cu prezența intensității prezenței fenomenului, apoi aplicarea formulei
coeficientului de corelație Spearman:
37.Detectarea multicoliniarităţii
Există câteva reguli pentru stabilirea existenţei multicoliniarității:
coeficienții de corelație lineara, calculați pentru perechile de variabile explicative din model,
sunt mari în valoare absoluta (sunt, în modul, apropiați de +1);
determinantul matricei (X'X) are valori în apropierea lui zero;
coeficientul de determinare 𝑹𝟐 este mare, iar valorile testelor t (Student), calculate
pentru parametrii modelului sunt mici;
estimatorii parametrilor sunt sensibili la specificarea modelului;
identificarea multicoliniarității prin proceduri formale.
Regresiile auxiliare. Aflarea variabilei explicative care este corelată cu alte variabile x, prin
efectuarea regresiilor pentru fiecare variabilă xi şi restul variabilelor x. Fiecare din aceste
regresii se consideră ca fiind auxiliară faţă de regresia principală, considerată a fi regresia lui
y în funcţie de toate variabilele explicative x.
Un coeficient mare de determinaţie sugerează că xi este puternic corelată cu celelalte
variabile x. Pentru fiecare din aceste regresii auxiliare se calculează statistica Fi* .
Se compară Fi* cu valoarea critică din tabela Fisher, pentru un prag de semnificaţie α şi (k-
1), (n-k-1) grade de libertate.
Dacă Fi* > F α,k-1,n-k-1 acesta înseamnă că acea variabilă xi este coliniară cu celelalte
variabile x.
Dacă Fi* < Fa k-1,n-k-1 se spune că variabila xi nu este coliniară cu celelalte variabile x, caz
în care respectiva variabilă xi se reţine în model.
Această metodă are neajunsurile ei, în sensul că atunci când multicoliniaritatea presupune
implicarea a mai multor variabile, este dificil să se identifice interrelaţiile separate.