Documente Academic
Documente Profesional
Documente Cultură
Conţinut
Proprietățiile estimatorilor MCMMPO
Inferența statistică 1. Introducere
în modelul clasic de regresie liniară simplă 2. Scurt istoric al metodei, tipologie
3. Ipotezele modelului de regresie simpla
liniara
Bourbonnais (2018): Capitolul 2
4. Estimarea parametrilor modelului liniar
Gujarati(2003): Capitolul 3 de regresie
5. Proprietăţile estimatorilor
1 2
3 4
1
•Scopul final este prognoza, în condiţia că este •Coeficientul de corelaţie poate fi calculat
posibilă, cele două variabile fiind într-adevăr pentru orice set de date, dar, pentru ca el
corelate. să aibă relevanţă statistică, trebuie îndeplinite
•Metoda prin care analizăm posibilele asociaţii două condiţii majore:
între valorile a două variabile statistice, •(a) cele două variabile să fie definite de
prelevate de la acelaşi grup de obiecte, este acelaşi lot de obiecte, cuplurile de date
cunoscută ca metoda corelaţiei şi are ca indice corespunzând aceluiaşi obiect;
coeficientul de corelaţie (Pearson’s r). •(b) cel puţin una din variabile să aibă o
repartiţie aproximativ normală, ideal fiind ca
ambele să fie normal repartizate.
5 6
7 8
2
• Ca metodologie, variabila dependentă se distribuie •Presupunând că legătura dintre cele două
pe axa ordonatelor, în timp ce variabila variabile X şi Y, reliefată de coeficientul de
independentă se distribuie pe axa absciselor. Ecuaţia corelaţie r, nu este întâmplătoare, există trei
dreptei de regresie se stabileşte pe baza metodei posibile explicaţii:
“celor mai mici pătrate” (least squares method) care,
intuitiv, minimizează distanţa între punctele
•Variabila X influenţează (cauzează) variabila
reprezentate de perechile de date/observed values şi Y;
punctele corespunzătoare de pe dreaptă/fitted values •Variabila Y influenţează variabila X;
(obţinute pe verticalele corespunzătoare). Aceasta
•Ambele variabile X şi Y sunt influenţate de
distanţă se numeşte reziduu (residual).
acelaşi fenomen din fundal.
9 10
11 12
3
Regresia – metodă de modelare a legăturilor dintre
variabile Exemplu: Legea lui Keynes privind legătura
• În general, orice fenomen este rezultatul acţiunii unuia sau mai multor dintre venit şi consum
factori
• Exprimarea matematică:
Legea psihologică fundamentală sau propensiunea spre consum a lui
Y f ( X 1 , ..., X n )
Keynes: “psihologia colectivităţii este de aşa natură, încât atunci când se
măreşte venitul real global, consumul global creşte, dar nu cu aceeaşi
mărime ca venitul”
dC
propensiunea marginală spre consum 0 1
Variabila dV
dependentă
Variabile Variabila • „O persoană este dispusă de regulă şi în medie să îşi crească
(variabila independente reziduală consumul pe măsura creşterii venitului dar nu în aceeaşi măsură”
endogenă)
(variabile • Modelul de regresie: C=+ V+ , unde 0<<1 .
exogene/explicative
)
13 14
15 16
4
3. Ipotezele modelului de regresie liniară
Tipuri de modele de regresie • 1. Normalitatea
• Valorile Y sunt normal distribuite pentru orice X
• Erorile sunt normal distribuite cu medie zero E(εi)=0 i
Legătură liniară directă Legătură neliniară • 2. Homoscedasticitatea (dispersie constantă)
• 3. Necorelarea erorilor E(εi εk)=0 (i<>k)
• 4. Liniaritatea Y X i i
17 18
19 20
5
- H4 : E(i ) = ² , varianța erorii este constantă: riscul
amplitutdinii erorii este același indiferent de perioadă; Se
Proprietățile modelului liniar
consideră un model care descrie consumul unor gospodării clasic de regresie
în funcţie de venitul acestora. În acest caz, consumul
gospodăriilor mari pot varia mult mai mult faţă de consumul
1. Yi = 1 + 2Xi + ui
gospodăriilor cu venituri mici. Deci ipoteza de
homoscedasticitate nu este respectată. 2. E(u ^ ) = 0 <==> ^E(Y^) = ^ + X
i i 1 2 i
H5 :Necorelarea erorilor: E(ij)=0 ij
3. var(u ^ ) = 2 = var(Y ^ )
Această ipoteză nu implică faptul că yi şi yj sunt i i
4. cov(u ^ ^,u ) = cov(Y^^
necorelate, ci faptul că deviaţiile observaţiilor de la i j i,Yj) = 0
valorile lor aşteptate sunt necorelate. 5. ^xi nu este constant
- E(i , j ) = 0 si i j, erorile sunt necorelate (sau de ^ ^ pentru
^ ^ ^
orice
asemenea independente) : o eroare în momentul t nu are
observație
influență asupra următoarelor erori ; 6. ui~N(0,2) <==> Yi~N( 1+2xi,2)
- H6 : Cov(xi , j ) = 0, eroarea variabilei explicative este
independentă.
17.09.2023 prof.univ.dr.Ion Partachi 21 9/17/2023 Prof.univ.,dr. Ion Partachi
21 22
Forma funcţională • Ipoteza: media erorilor este zero: E(i)=0 i, este naturală
atâta timp
• Ipoteza de linearitate nu este atât de restrictivă pe cât pare. cât este văzută ca suma efectelor individuale, cu semne
Aceasta se referă la felul în care parametrii intră în ecuaţie, diferite. Dacă media erorilor este diferită de zero, ea poate fi
nu neapărat la relaţia între variabilele x şi y. considerată ca o parte sistematică a regresiei.
• În general modele pot fi linearizate. Ipoteza de homoscedasticitate: Var(i)=2 constantă i
y=a+bx
•
• y=a+bz, z=ex
model
• Se consideră un E()= care descrie
+ x + =consumul
(+) + xunor
+ (-)
gospodării
• y=a+br, r=1/x în funcţie de venitul acestora. În acest caz, consumul
• y=a+bq, q=ln(x) gospodăriilor mari pot varia mult mai mult faţă de consumul
y= xβ ln(y)=+ln(x) gospodăriilor cu venituri mici. Deci ipoteza de
homoscedasticitate nu este respectată.
• Forma generală: f(yi)= +g(xi)+i
1
y
x
• Contra exemplu: nu poate fi transformat în
model liniar.
17.09.2023 prof.univ.dr. Ion Pârțachi 23 17.09.2023 prof.univ.dr. Ion Pârțachi 24
23 24
6
• Necorelarea erorilor: E(ij)=0 ij
Exemplu de încălcare a ipotezei de Această ipoteză nu implică faptul că yi şi yj sunt
homoscedasticitate necorelate, ci faptul că deviaţiile observaţiilor de la
valorile lor aşteptate sunt necorelate.
Functia de consum
1200
• Ipoteza de normalitate a erorilor i N(0,2)
1000
Este o ipoteză de lucru, tehnică, ce permite obţinerea
unor estimatori “buni”.
800
• Dacă ipotezele precedente sînt respectate, vom obţine estimatori
consum
200
0
200 300 400 500 600 700 800 900 1000
ve nit
25 26
Y
X1 Y
X2 X2
X X1
X Dreapta de regresie
17.09.2023 prof.univ.dr. Ion Pârțachi 27 17.09.2023 prof.univ.dr. Ion Pârțachi 28
27 28
7
Modelul de regresie liniară simplă Etapa 1: Identificarea şi specificarea modelului
Modelul de regresie liniară simplă la nivelul populaţiei este dat de
Legea psihologică fundamentală sau propensiunea spre
relaţia următoare: consum a lui Keynes: “psihologia colectivităţii este de aşa
natură, încât atunci când se măreşte venitul real global,
consumul global creşte, dar nu cu aceeaşi mărime ca venitul”
propensiunea marginală spre consum
este inclusă în intervalul (0,1): C
0 1
V
Specificarea
Variabila
Variabila modelului
independentă econometric:
dependentă Panta dreptei de
(răspuns) (explicativă)
17.09.2023
regresie
prof.univ.dr. Ion Pârțachi 29 17.09.2023 prof.univ.dr.Ion Partachi 30
29 30
• Obţinerea datelor
previzionat al populaţiei va fi de:
(milioane lei preţuri curente)
400000
y = 0,8222x - 6915,7
Consum populaţie
• Simple 300000
(1990-2006)
• Agregate
200000
• y=-6915,7+0,8222*400000=321964,3
• Estimarea
parametrilor
100000
modelului 0
0 100000 200000 300000 400000 500000 600000 • Presupunem că guvernul susţine că un nivel al
econometric -100000
PIB (milioane lei preţuri curente)
consumului populaţiei de 330000 mil lei preţuri
curente va menţine şomajul la un nivel de aproximativ
(1990-2006)
• Analiza de regresie
• Testarea ipotezelor 6%. Care este nivelul venitului care garantează nivelul
ţintă al consumului populaţiei?
• y=330000 x=409773
31 32
8
Modelul liniar de regresie unifactorială Modelul de regresie liniară
Variabila/eroarea
33 34
35 36
9
Criterii folosite pentru estimare
Modelul liniar de regresie unifactorială
Y min ei
Valoarea
Yi X i i observată
e i : min im
i = Eroarea i
(e 2
i ) min
E(Y/Xi) X i i
Valoarea observată Xi
X
prof.univ.dr.Ion Partachi
17.09.2023 37 17.09.2023 prof.univ.dr. Ion Pârțachi 38
37 38
Metoda celor mai mici pătrate(M.C.M.M.P.) – Ordinary Least Estimarea parametrilor modelului de regresie
Squares(O.L.S.) clasic
• Presupunem că avem n perechi de observaţii (x1, y1), (x2, Pentru estimarea parametrilor a şi b pe baza datelor
y2), …, (xn, yn). observate, un criteriu natural este cel de maximizare a
potrivirii modelului cu datele observate, deci de
• Ideea este să minimizăm distanţa dintre valorile minimizare a erorilor observate:
estimate şi valorile reale
min ˆ
i
2
i min (Y ˆ ˆX )
i
i i
2
n 2 n
• Ne reamintim că L Yi Yˆdeci
i ˆ i2 min • Condiţiile de ordin 1: determinarea soluţiei
i 1 i 1
• Condiţia de ordin 2: soluţia găsită este un punct de
minim. Matricea derivatelor parţiale de ordin doi
Yˆi ˆ0 ˆ1 xi trebuie să fie pozitiv definită.
39 40
10
Estimarea parametrilor modelului de regresie clasic
Estimarea parametrilor modelului • Condiţiile de ordin 1: determinarea soluţiei ˆ (Y ˆ ˆX )
i
i
2
i
i i
2
ˆi
S ei2 min 2( y nˆ ( x )ˆ )
i i
i
( ˆi2)
i i
ˆi
S
i 2(
xi y i ( xi )ˆ ( xi2 ) ˆ )
0
2 ( yi a b xi ) (1) 0
i i i
ˆ
a
2
( ˆi ) y i nˆ ( x )ˆ i
S i i i
2 ( yi a b xi ) ( xi ) 0 0
b
ˆ
x y ( x )ˆ ( x )ˆ
i
i i
i
i
i
2
i
41 42
Estimarea parametrilor modelului de regresie clasic Estimarea parametrilor modelului de regresie clasic
Condiţiile de ordin 1: Condiţiile de ordin 1:
y x
i
i
i
i
ˆ y bx
x y x y x x x y 2 2
y
i i i
i i i i i
n
ˆ
i i i i i i
i
n x
2
n x x i
i 2
x y x y nx y
i i i
x x i
2
i
i i
xi i i i i
i i ˆ i i
i
y
n
x nx
2 2
i
i
n x i i
x i x y i i n xi yi xi yi i i
x
ˆ i i
i i i
2
xi
x
2
n i
i
n xi2 xi
i i i
17.09.2023
x i
i x i
i
2 i i
prof.univ.dr.Ion Partachi 43 17.09.2023 prof.univ.dr.Ion Partachi 44
43 44
11
Estimarea parametrilor modelului de regresie clasic
Condiţiile de ordinul 2
ˆi
2(
y nˆ ( x )ˆ )
i
i
i
i
• Condiţia de ordin 2
Derivatele parţiale de ordinul doi: ˆi
2(
x y ( x )ˆ ( x
i i i
2 ˆ
i ) )
e
i i i
2 ( ˆi2 ) 2 ( 2
i )
2S
2
2 n;
2S
ab
2 xi ;
2S
b 2
2 xi2 .
ˆ
i
2 2
i
ˆˆ
2n
2 x i
a i
2 x
i i
2 ( ˆi2 ) 2 ( ˆi2 ) 2
Matricea derivatelor parţiale de ordinul doi:
i i
2 xi i
ˆ
ˆ 2 ˆ 2 i i
n
x i
2 n 0
i
2 xi 0
2
xi i xi
2 Deci matricea este pozitiv definită
i
i
4 n xi 4( xi ) 4n ( xi x) 0
2 2 2
45 46
47 48
12
Parametrii populației, și
sunt constante necunoscute ale populației Estimatorii sunt variabile
aleatoare
Formulele care determină estimatorii eșantionului a
^ numiți estimatorii
(unde ) și b (unde ) sunt
• Dacă estimatorii lui MCMMP a și b
sunt variabile aleatoare, atunci care este media, varianța,
lui și . covarianța și distribuția probabilităților lor?
49 50
Efectuând substituția Yi = + xi + ui
Valorile așteptate ale lui a și b În formula pentru b2 vom obține:
nxi ui - xi ui
Formulele MCMMP pentru estimatori în modelul regresiei b= +
liniare sunt:
nxi 2-(xi) 2
nXiYi - XiYi xiyi Media lui b este: =0
b= = nxiE(ui)- xi E(ui)
nXi2-(Xi) 2
xi2 E(b ) = +
nxi 2-(xi) 2
a = Y - bX
unde Y = Yi / n și X = Xi / n Deoarece E(ui) = 0, atunci E(b ) = .
9/17/2023 Prof.univ.,dr. Ion Partachi 9/17/2023 Prof.univ.,dr. Ion Partachi
51 52
13
Specificarea greșită a modelului
Estimatorii nedeplasați
Un rezultat care arată absența nedeplasării din slide-
Rezultatul E(b ) = semnifică faptul că distribuția lui b ul precedent presupune că a fost găsit modelul
este concentrată în jurul lui . corect.
53 54
55 56
14
Variația lui b
Dacă se cunoaște că atât Yi cât și ui au aceeași
Var(b ) varianță 2, atunci varianța estimatorului b2 :
^2
^2
var(b ) =
=
xi x 2
x 2
xi
)= (8.50)
Se(b2)= (8.50)22/92.55
/92.55 == 0.7809
0.7809 == 0.8836
0.8836
^
b este o funcție a valorilor Yi însă var(b ) nu implică (nu-l
^2 conține) pe Yi direct.
Prof.univ.,dr. Ion Partachi
9/17/2023 Prof.univ.,dr. Ion Partachi 9/17/2023
57 58
59 60
15
Care sunt factorii care determină varianța și
Estimarea varianței variabilei
covarianța ?
reziduale , 2
1. 2: Nu se spune nimic despre valorile Yt
deasemenea de a, b și relația dintre ele.
^u = y b x 2. Cu cât sunt mai dispersate valorile lui Xt cu atât mai multă
i i i încredere vom avea în , b, etc.
u^
T 3. Cu cât este mai mare dimensiunea eșantionului, N,
2
i cu atât mai mici vor fi varianțele și covarianțele.
^
=
i =1
n2
4. Varianța lui este mare când pătratele lui Xt sunt mai depărtate de
zero (în orice direcție).
5. Modificarea pantei, b , va fi fără efecte asupra termenului liber, ,
când media eșantionului este zero. Dacă media eșantionului este
^ este un estimator fără tendință a lui 2
pozitivă, atunci covarianța între et b2 va fi negativă și vice-versa.
9/17/2023 Prof.univ.,dr. Ion Partachi 9/17/2023 Prof.univ.,dr. Ion Partachi
61 62
^ ^
1. u^ i = 0 sau => ei = 0 (Yi - Y) = (Yi - Yi) + (Yi - Y)
u^
Pentru a măsura varianța:
2. u^iXi = 0 sau => eiXi = 0
(Yi - Y)2 = [(Yi - Y^i) + (Y^i - Y)]2
^ ^
3. (Yi-Yi)(Yi-Y)=0 sau=> ei y^i =0 (Yi - Y)2 = (Yi - Y^i)2 + (Y^i - Y)2
4. Dreapta de regresie trebuie să treacă
prin media eșantionului lui X și Y. TSS RSS (u^2) ESS
Suma pătratelor totale Suma pătratelor reziduale Suma pătratelor explicate
9/17/2023 Prof.univ.,dr. Ion Partachi 9/17/2023 Prof.univ.,dr. Ion Partachi
63 64
16
Expresiile alternative pentru R2
R2 – Măsurarea nivelului de “corelare”
^
(Y i - Y)
2
y^ i2
ESS RSS R2 = SCE = =
Se definește R2 = =1-
TSS
SCT (Yi - Y)2 yi2
TSS
^ ^
u^ i2 xi )2 xi2 ^ xi
2
=1- = y 2 = y 2 =
(Yi - Y)2 i i yi2
^
(Y i - Y)
2
R2 = ^ Sx2 xiyi 2 xi2 xiyi)2
(Yi - Y)2 1 R2 0 = = =
xi2yi2
Sy2 xi2 yi2
9/17/2023 Prof.univ.,dr. Ion Partachi 9/17/2023 Prof.univ.,dr. Ion Partachi
65 66
Y Când R2 = 0
Teorema Gauss-Markov
Dreapta de regresie
În cazul ipotezelor modelului liniar clasic de regresie,
estimatorii (MCMMP) a și b
Care dreaptă?
sunt cei mai buni estimatori liniari și fără tendințele lui și
. Aceasta semnifică faptul că b1 și b2 au cea mai mică
X variație a tuturor estimatorilor lineari fără tendința lui 1 și
2.
Y
Când R2 = 1
Remarcă: Teorema Gauss-Markov nu se aplică pentru
estimatorii neliniari
67 68
17
Probabilitatea de distribuție a
Nedeplasată Valoarea estimată pentru estimatorul
b este egală cu valoarea adevărată a lui
estimatorilor în MCMMP
Prob.
(b2) E(b)< E(b)= E(b)>
2 x i
2
Deplasată Nedeplasată Deplasată
E(b) , x i2
2
E(b) E(b)
Valoarea adevărată a lui
9/17/2023 Prof.univ.,dr. Ion Partachi 9/17/2023 Prof.univ.,dr. Ion Partachi
69 70
71 72
18
Yˆi
Rezumatul proprietăților estimatorilor BLUE
Variabila estimată prin MCMMPO
Media
ordinare.
nxi
2
xi 2
Valoarea estimată prin MCMMP va fi:
Eroarea standard sau devierea standard
^
Yi = a + b x i
Se(bk) = var(bk)
9/17/2023 Prof.univ.,dr. Ion Partachi 9/17/2023 Prof.univ.,dr. Ion Partachi
73 74
u^i
T
2
^ ^ 2) = 2
E(
=
i =1
n2
u^i
T
2
^ =
^ =
i =1
K
n2 Numărul
9/17/2023 Prof.univ.,dr. Ion Partachi
de parametri
în model
75
19