Documente Academic
Documente Profesional
Documente Cultură
Realizat Controlat
Chișinău, 2020
Nr Y X1 X2 X3 X4
1 16,4+n*0.01 82,9 17,1 92 94
2 17,6+n*0.01 88 21,3 93 96
3 18,4+n*0.01 99,9 25,1 96 97
4 19,4+n*0.01 105,3 29 94 97
5 20,2+n*0.01 117,7 34 100 100
6 22,2+n*0.01 131 40 101 101
7 23,8+n*0.01 148,2 44 105 104
8 25,9+n*0.01 161,81 49 112 109
9 27,3+n*0.01 174,2 51 112 111
10 28,8+n*0.01 184,7 53 112 111
Se cere de efectuat
✓ Testul Klein
✓ Testul Farrar-Glauber
✓ Modelul regresiilor posibile
✓ Metoda eliminarii regresive(Backward Elimination)
✓ Metoda eliminarii progresive in aval (Forward regression)
✓ Metoda regresiei pas cu pas(Stepwise Regression
✓ Metoda regresiei etapizate(Stagewise Regression)
Testul Klein
Modelul regresiei: y=𝑎0 + 𝑎1 𝑥1 + 𝑎2 𝑥2 + 𝑎3 𝑥3 + 𝑎4 𝑥4 + 𝜀
In urma estimarii obtinem
𝑦̂ = −5.51825 + 0.09702𝑥1 + 0.015012𝑥2 − 0.19924𝑥3 + 0.34004𝑥4
𝑁 = 10; 𝑅 2 = 0.998011
Calculam coeficientii de corelatie simpla intre variabilele independente
𝑛 ∗ ∑ 𝑥𝑖 𝑥𝑗 − ∑ 𝑥𝑖 ∗ ∑ 𝑥𝑗
𝑟=
2
√[𝑛 ∗ ∑ 𝑥𝑖 2 − (∑ 𝑥𝑖 )2 ] [𝑛 ∗ ∑ 𝑥𝑗 2 − (∑ 𝑥𝑗 ) ]
Calculele sunt efectuate in excel
10 ∗ 51217,77 − 1293,71 ∗ 363,5
𝑟𝑥1 𝑥2 = = 0,9883
√[10 ∗ 179304,25 − 1673685,56][10 ∗ 14720,11 − 132132,25]
𝑟𝑥1 𝑥3 = 0,9803
𝑟𝑥1 𝑥4 = 0,9876
𝑟𝑥2 𝑥3 = 0,9699
𝑟𝑥2 𝑥4 = 0,9694
𝑟𝑥3 𝑥4 = 0,9917
In urma analizei datelor observam ca 𝑅 2 > 𝑟𝑥𝑖𝑥𝑗 , deci putem presupune ca nu e prezenta
multicolinearitatea, insa toti coeficientii de coliniaritate simpla au valori mari, de unde
putem spuneca e prezenta o legatura intre variabile explicative
I. Testul Farrar-Glauber
Determinam determinantul D al matricei coeficientilor de corelatie intre variabilele
explicative ale modelului
1 𝑟𝑥1 𝑥2 𝑟𝑥1 𝑥3 𝑟𝑥1 𝑥4 1 0,988 0,980 0,987
𝑟𝑥2 𝑥1 1 𝑟𝑥2 𝑥3 𝑟𝑥2 𝑥4 0,988 1 0,969 0,964
𝐷= 𝑟𝑥3 𝑥4 = (0,980 0,969 ) = 0,91987 ∗ 10−5
𝑟𝑥3 𝑥1 𝑟𝑥3 𝑥1 1 1 0,991
𝑟 𝑟𝑥4 𝑥2 𝑟𝑥4 𝑥3 1 0,987 0,964 0,991 1
( 𝑥4 𝑥1 )
Ipoteza:
H0: D=1 (seriile sunt ortogonale)-[n-1-(1/6)(2K+5)*Ln D
H1:D<1(seriile sunt dependente)
Calculam valoarea empirica a lui 𝜒 2
1
𝜒 2 = − [𝑛 − 1 − ∗ (2𝐾 + 5) ∗ 𝐿𝑛𝐷]
6
1
𝜒 2 = − [10 − 1 − ∗ (2 ∗ 5 + 5)] ∗ (−11,59) = 75,3
6
2 2
Valoarea tabelara fiind 𝜒𝑡𝑎𝑏 cu 0,5K(k-1) grade de libertate; 𝜒𝑡𝑎𝑏 = 18,31
Concluzie
2
In urma analizei datelor obtinute, observam ca 𝜒 2 > 𝜒𝑡𝑎𝑏 deci ipoteza nula se respinge, si
presupunem ca se accepta ipoteza alternativa, serii sunt independente.
Concluzie
In urma analizei datelor obtinute, observam 𝐹𝑐𝑎𝑙𝑐 > 𝐹𝑡𝑎𝑏 , deci putem presupune ca
modelul este semnificativ
Calculam valoarea criteriului Akaike(AIC), Schwarz(SC)
∑(𝑦𝑖 − 𝑦̂)2 2∗𝑘 0,3311 2∗5
𝐴𝐼𝐶 = ln ( )+ = ln ( )+ =
𝑛 𝑛 10 10
∑(𝑦𝑖 − 𝑦̂)2 𝑘 ∗ ln 𝑛 0,3311
𝑆𝐶 = ln ( )+ = ln ( )
𝑛 𝑛 10
y 1 − R yx2 1...x p
Sa =j
x j
(1 − Rx2j x1 ...x j −1x j +1 ...x p )(n − m − 1)
Din formula (1) rezultă că abaterea standard va fi mai mare , cu cât mai mică
va fi valoarea, care este numită factorul de inflaţie a dispersiei ( sau factor de
umflare a dispersiei) VIF:
1
VIFx j = ,
(1 − Rx2j x1 ...x j −1x j +1 ...x p )
xj. În cazul lipsei legăturii, indicatorul VIFx va fi egal (sau aproape) cu unu, iar
j
Concluzie
Conform acestei metode are loc selectarea acelei variante in care 𝑅 2 este maxim. Comparind toate
variantele observam ca cea mai mare valoare a coeficientului de determinatie ii apartine modelului Nr.
15; deci aceasta varianta va fi aleasa ca cea mai optima metoda
Concluzie
In baza acestei metode, variabila explicativa, care satisface toate conditiile necesare este X1, Nr.1
VII. Metoda regresiei etapizate(Stagewise Regression)
Etapa 1
Selectam din rezultatele anterior calculate variabila explicativa cu cel mai inalt coeficient de corelatie
simpla cu variabila Y, avem urmatoarele rezultate :
𝑟𝑦𝑥1 = 0,9955 𝑟𝑦𝑥2 = 0,9669 𝑟𝑦𝑥3 =0,9516 𝑟𝑦𝑥4 = 0,9775
Cel mai inalt coeficientr de corelatie simpla cu variabila Y, este 𝑟𝑦𝑥1 = 0,9955 deci selectam variabila
explicatica X1
Etapa 2
Calculam rezidiul corespunzator regresiei Y asupra variabilei explicative
X1:𝑒 = 𝑦 − 𝑎̂0 − 𝑎̂1 𝑥1 ⇔ 𝑒 = 𝑦 + 1,245266 − 0,117841 ∗ X1, in rezultat obtinem:
Etapa 3
Determinam coeficientii de corelatie simpla r, intre rezidiu e si fiecare dintre variabilele explicative,
selectam acea variabila a carei coeficient este cel mai mare, calculele le efectuam conform
demonstratiilor anterioare sau cu ajutorul programului Eviews 3, in rezultat obtinem
𝑟𝑒𝑥1 = 0,0000 𝑟𝑒𝑥2 = 0,0000 𝑟𝑒𝑥3 = 0.000 𝑟𝑒𝑥4 = 0.0637
Concluzie
In urma analizei si calculelor efectuate am observat ca in cele mai dese cazuri, variabila explicativa X1,
corespunde tuturor cerintelor necesare, deci putem spune ca variabila explicativa X1, explica cel mai
bine variabila dependenta Y.