Sunteți pe pagina 1din 52

INTRODUCERE IN

ECONOMETRIE
Analiza prin regresia
multipla
Ref: Mns Sderbom, Universitatea Gothenburg
Damodar Gujarati, Basic Econometrics

3.1 Argumente pentru regresia


multipla
In capitolul 2 am invatat sa utilizam
regresia simpla pentru a explica o
variabila dependenta y ca o functie de
o singura variabila explicativa x.
Suporzitia principala a cauzalitatii:
RLS.4: Eroarea u are o valoare asteptata zero
conditionata de x: E(u|x)=0

Principalul neajuns al acestei teorii: Toti


ceilalti factori care afecteaza y trebuie
sa fie necorelati cu x.
2

Regresia multipla este mult mai


potrivita pentru analiza cauzala
(ceteris paribus)
Motivul: Putem explicita controlul
pentru ceilalti factori care
afecteaza variabila dependenta y.
Exemplul 1: Ecuatia venitului
Daca estimam parametrii acestui model
utilizand CMMP, ce interpretare putem sa dam
lui 1?
De ce ofera aceasta abordare o estimare mai
buna a efectului cauzal al educatiei decat daca
am fi utilizat o regresie simpla cu educ ca
3
singura variabila explicativa?

Exemplul 2: Performanta studentilor:

unde avgscore este un scor de test la nivel de


liceu, expend este cheltuiala studentului (o
masura a cheltuielilor scolii) si avginc este
venitul mediu al familiei.
Sa presupunem ca suntem in primul rand
interesati in estimarea lui 1. De ce este
important sa controlam venitul mediu al
familiei?
4

Modelul general cu doua variabile


explicative:
unde
0 este parametrul liber
1 masoara modificarea lui y in functie de x1,
mentinand ceilalti factori ficsi
2 masoara modificarea in y in functie de x2,
mentinand ceilalti factori ficsi
Acest cadru poate fi la fel utilizat pentru a generaliza
forma functionala Exemplu: modelarea consumului
familial (cons) ca o functie de venit (inc):

unde inc2 este introdus ca o variabila separata. Care


este efectul venitului asupra consumului in acest
5
model?

Supozitia principala pentru


modelul cu doua variabile
independente:
Observati similitudinea cu supozitie RLS.4
prezentata ultima data
Interpretare: pentru orice valori ale lui x1 si
x2 din populatie, valoarea medie a
neobservabilelor (u) este egala cu zero.
Discutati aceasta supozitie in contextul
modelului venitului prezentat mai sus
(impactul asupra venitului produs de educ
si exper)
6

Modelul cu m variabile
independente
Modelul regresiei multiple:

y 0 1 x1 2 x2 .... m xm u

3.6

unde
0 este parametrul liber
1 este parametrul asociat cu x1 (masoara
modificarea lui y in functie de x1, mentinand
ceilalti factori ficsi)
2 este parametrul asociat cu x1 (masoara modificarea
lui y in functie de x2, mentinand ceilalti factori
7
ficsi)

Modelul cu m variabile
independente
y 0 1 x1 2 x2 .... m xm u

1, 2,,m sunt referiti ca parametri de panta


u este termenul rezidual (termenut de eroare.
Contine alti factori decat x1,x2,,xm care
influenteaza
y.
Terminologia
regresiei simple
y

x1,x2,,xm

Variabil dependent

Variabile independente

Variabil explicat

Variabile explicative

Variabil de rspuns

Variabile de control

Variabil predicionat

Variabile predictoare

Regresand

Regresori
8

Interpretarea parametrilor
modelului regresiei
multiple
Abilitatea de a interpreta parametrii

modelului regresiei multiple este unul


din principalele scopuri ale acestui
curs si vom incerca sa practicam
aceste interpretari
Verificare: Asigurati-va ca sunteti
capabili sa interpretati parametrii
urmatorului model:
unde ceoten = mandatul CEO.
9

Supozitii esentiale pentru


modelul cu m variabile
independente:
E (u x1 , x2 ,...., xm ) 0

Astfel, se presupune ca toti factorii


din termenul de eroare neobservabil
u sunt necorelati cu variabilele
explicative.

10

3.2 Mecanica si interpretarea


CMMP
Ne concentram mai intai pe modelul cu doua
variabile independente.
Scriem regresia estimata CMMP intr-o forma
similara cu regresia simpla:

unde palaria de pe parametri indica faptul ca


acestia sunt estimatii ale parametrilor
(necunoscuti) ai populatiei:
0 estimatia lui 0
estimatia lui
1

2 estimatia lui 2
si palaria de pe y inseamna predictia
11 lui y (in

Cum obtinem estimatia CMMP?


Asa cum am aratat in capitolul 2, metoda
CMMP alege estimatiile care minimizeaza
suma patratelor rezidualelor.
Adica, date fiind n observatii ale lui y and
x1,,xm variabile, estimatiile CMMP
minimizeaza:

unde i se refera la numarul observatiei si al


doilea indice arata diferitele variabile.
12

Modelul cu m variabile
independente
y 0 1 x1 2 x2 .... m xm
1 , 2 ,..., m
Estimatiile CMMP
n
minimizeaza:

y
i 1

o 1 xi1 ... m xim

Cunoasteti din cursurile de matematica


modul de rezolvare a problemei de
minimizare:
Scrieti conditiile de prim ordin pentru
fiecare parametru
Rezolvati ecuatiile pentru fiecare
13

Exemplu: Conditia de primordin pentru


Problema de minimizare: Alegeti
incat sa minimezeze:

i 1

yi o 1 xi1 ... m xim

Conditia de prim-ordin este:


n

xi1 yi o 1 xi1 ... m xim


i 1

Nota (regula inlanturii)

14

astfel

Generalizare: k+1 parametri


necunoscuti si k+1 ecuatii
y
n

i 1

o 1 xi1 ... m xim 0

x y

i 1

i1

o 1 xi1 ... m xim 0

(...)

x y
n

i 1

im

o 1 xi1 ... m xim 0

Acestea sunt conditiile de prim-ordin CMMP.


Sa observam ca acestea pot fi de asemenea
interpretatea ca momentele populatiei E(xju)=0
(omitand impartirea la n). Comparati aceasta abordare
cu ceea ce am vazut in capitolul 2.
Acest ultim punct arata importanta supozitiei
15
covariantei zero dintre reziduala si variabilele

Este mai plictisitor dar simplu in principiu sa


rezolvam estimatiile parametrilor. Fiecare
estimatie a parametrilor este exprimata ca o
functie lineara a variabilelor x si y.
Din fericire, computerul lucreaza pentru noi. Nu
este nevoie sa gasiti voi solutia
Nota: Trebuie sa presupunem ca ecuatiile de mai
sus au o solutie unica pentru parametri. Sa
presupunem asta si sa mergem mai departe.
16

Interpretarea functiei de
regresie CMMP

Mai importanta decat detaliile de


calcul al estimatiilor CMMP este
interpretarea ecuatiilor estimate
Sa analizam modelul cu doi regresori:

stimatiile

au interpretari de efecte partiale, sau ceteris paribus.

xplicati ce inseamna aceasta afirmatie.

xplicati cum se interpreteaza termenul liber


17

Exemplul 3.1: Determinantii


notelor de evaluare la
universitate
Date: GPA1.XLS. Colectate de un
student de la Michigan State
University
Variabile: scorul mediu (GPA-grade
point average) la universitate
(colGPA), liceu (hsGPA) si scorul
testului de cunostinte (ACT achievement test score)
Statistici pentru aceste variabile:
. summarize colGPA hsGPA ACT
Variable

Obs

Mean

colGPA
hsGPA
ACT

141
141
141

3.056738
3.402128
24.15603

Std. Dev.

Min

.3723103
.3199259
2.844252

2.2
2.4
16 18

Max
4
4
33

Rezultatele regresiei
. regress colGPA hsGPA ACT
Source

SS

df

MS

Model
Residual

3.42365506
15.9824444

2
138

1.71182753
.115814814

Total

19.4060994

140

.138614996

colGPA

Coef.

hsGPA
ACT
_cons

.4534559
.009426
1.286328

Std. Err.
.0958129
.0107772
.3408221

t
4.73
0.87
3.77

Number of obs
F( 2,
138)
Prob > F
R-squared
Adj R-squared
Root MSE

P>|t|
0.000
0.383
0.000

=
=
=
=
=
=

141
14.78
0.0000
0.1764
0.1645
.34032

[95% Conf. Interval]


.2640047
-.0118838
.612419

.6429071
.0307358
1.960237

Interpretati coeficientii. Formulati cu


atentie ce anume este tinut constant
cand evaluati rezultele. Sunt mici sau
mari efectele estimate?
19

Analizati rezultatele
urmatoarei regresii
. reg colGPA ACT
Source

SS

df

MS

Model
Residual

.829558811
18.5765406

1
139

.829558811
.133644177

Total

19.4060994

140

.138614996

colGPA

Coef.

ACT
_cons

.027064
2.402979

Std. Err.
.0108628
.2642027

t
2.49
9.10

Number of obs
F( 1,
139)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

141
6.21
0.0139
0.0427
0.0359
.36557

P>|t|

[95% Conf. Interval]

0.014
0.000

.0055862
1.880604

.0485417
2.925355

Comparati coeficientul estimat al lui ACT din


acest model cu cel din cartonul anterior:
cum difera si de ce?
Legatura: Cum difera interpretarea
parametrilor estimati intre cele doua
regresii?
20

Interpretarea ecuatiilor cu
m variabile independente
Cazul cu mai mult de doua variabile
independente este similar.
Spre exemplu, coeficientul lui x1
masoara modificarea lui
cauzata de o
crestere cu o unitate a lui x1, tinand fixe
celelalte variabile independente:

tinand x2, x3,,xk constante.


Jargon econometric: Am controlat variabilele x2, x3,,xk cand am
21
estimat efectul lui x1 asupra lui y.

Exemplul 3.2: Ecuatia venitului,


cu si fara control pe vechime si
experienta
a) Regresie simpla

a) Regresie multipla

. ge logwage=ln(wage)

. reg logwage educ exper tenure

. reg logwage educ


Source

Source
SS

df

MS

Model
Residual

27.5606288
120.769123

1 27.5606288
524 .230475425

Total

148.329751

525

Number of obs
F( 1, 524)
Prob > F
R-squared
Adj R-squared
Root MSE

.28253286

=
=
=
=
=
=

526
119.58
0.0000
0.1858
0.1843
.48008

SS

Coef.

educ
_cons

.0827444
.5837727

Std. Err.
.0075667
.0973358

t
10.94
6.00

P>|t|

[95% Conf. Interval]

0.000
0.000

.0678796
.3925563

.0976091
.7749891

MS

Model
Residual

46.8741776
3 15.6247259
101.455574 522 .194359337

Total

148.329751 525 .28253286

logwage
logwage

df

educ
exper
tenure
_cons

Date: WAGE1.XLS.

Coef. Std. Err.


.092029
.0041211
.0220672
.2843595

.0073299
.0017233
.0030936
.1041904

t
12.56
2.39
7.13
2.73
22

Number of obs
F( 3, 522)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

526
80.39
0.0000
0.3160
0.3121
.44086

P>|t|

[95% Conf. Interval]

0.000
0.017
0.000
0.007

.0776292
.0007357
.0159897
.0796756

.1064288
.0075065
.0281448
.4890435

Interpretarea acestor rezultate


Are sens sa presupunem covarianta zero dintre reziduala
si regresori?
Care este efectul cauzal al educatiei?
Este mai mult sau mai putin importanta experienta
generala decat experienta specifica (specifica firmei)?
Care este efectul vechimii in firma de un an in plus
asupra venitului (sfat: se schimba mai mult de o
variablia explicativa)
Cati ani de vechime corespunde unui an de educatie in
termeni de venit?
De ce este efectul estimat al educatiei mai mare in
regresia multipla (tabelul din dreapta de pe cartonul
anterior)?
23

Matricea de corelatie
. corr educ exper tenure
(obs=526)

educ
exper
tenure

educ

exper

tenure

1.0000
-0.2995
-0.0562

1.0000
0.4993

1.0000

Educatia este in mod evident corelata negativ cu


experienta si cu vechimea in acest set de date.
Astfel, aceia cu un nivel de educatie mai inalt vor
avea, in medie, o experienta mai redusa (pentru
simplul motiv ca intra pe piata muncii mai tarziu)
Putem presupune ca educatia si experienta
contribuie la venituri mai mari
Dar, fara sa controlam experienta, putem sa
subestimam efectul educatiei asupra24veniturilor

Valorile ajustate si
rezidualele CMMP

Pentru observatia i valoarea ajustata


este, simplu
y i o 1 xi1 ... m xim

Reziduala pentru observatia i este definita


exact ca in cazul regresiei simple:

25

Proprietati:
1. Media de sondaj a rezidualelor este
zero,y deci
y
2. Covarianta de sondaj dintre fiecare
variabila independenta si
rezidualele CMMP este zero. Atunci,
covarianta de sondaj dintre valorile
ajustate CMMP si rezidualele CMMP
este zero
( x1 ,(de
x2 ,..., ce?)
xm , y )
3. Punctul
este

y o 1 x1 ... m xm
intotdeauna pe dreapta de regresie
26

Comparatie intre
estimatiile regresiei simple
si
multiple
Regresia
simpla :
Regresia multipla:
Stim ca regresia simpla a coeficientului lui
x1 este in general diferita de regresia
multipla a coeficientului lui x1. Iata cum
sunt legati cei doi parametri:
unde
este coeficientul de panta al
regresiei simple a lui x2 pe x1. Cum
se
27

Adica, sunt aceiasi daca al doilea


termen din dreapta este zero, adica
daca:

y
1. Efectul partial al lui x2 asupra
2 0
este zero in esantion
si/sau

2.x2 si x2 sunt necorelate in

~
(1 0)
esantion
28

Calitatea ajustarii:
La fel ca in regresia simpla
SST = Total Sum of Squares
SSE = Explained Sum of Squares
SSR = Residual Sum of Squares

29

Cateva precizari despre


2
R
R este egal cu valorea la patrat a corelatiei dintre
2

valorile observate si ajustate ale lui y.


R2 niciodata nu scade si, de obicei, creste cand se
adauga o noua variabila in modelul de regresie
Asta din cauza faptului ca SSR niciodata nu creste cand
se adauga mai multi regresori in model (de ce?)

De ce este R2 un instrument nefiabil cand se


decide daca o anumita variabila ar trebui
adaugata la model?

30

Comparati si interpretati R2
a) Simple regression

a) Multiple regression

. ge logwage=ln(wage)

. reg logwage educ exper tenure

. reg logwage educ


Source

Source
SS

df

MS

Model
Residual

27.5606288
120.769123

1 27.5606288
524 .230475425

Total

148.329751

525

Number of obs
F( 1, 524)
Prob > F
R-squared
Adj R-squared
Root MSE

.28253286

=
=
=
=
=
=

526
119.58
0.0000
0.1858
0.1843
.48008

SS

Coef.

educ
_cons

.0827444
.5837727

Std. Err.
.0075667
.0973358

t
10.94
6.00

P>|t|

[95% Conf. Interval]

0.000
0.000

.0678796
.3925563

.0976091
.7749891

MS

Model
Residual

46.8741776
3 15.6247259
101.455574 522 .194359337

Total

148.329751 525 .28253286

logwage
logwage

df

educ
exper
tenure
_cons

Date: WAGE1.XLS.

Coef. Std. Err.


.092029
.0041211
.0220672
.2843595

.0073299
.0017233
.0030936
.1041904

t
12.56
2.39
7.13
2.73
31

Number of obs
F( 3, 522)
Prob > F
R-squared
Adj R-squared
Root MSE

=
=
=
=
=
=

526
80.39
0.0000
0.3160
0.3121
.44086

P>|t|

[95% Conf. Interval]

0.000
0.017
0.000
0.007

.0776292
.0007357
.0159897
.0796756

.1064288
.0075065
.0281448
.4890435

3.3 Valorile asteptate ale


estimatiilor CMMP

Sa discutam despre proprietatile statistice ale


CMMP.
Sa incepem prin studierea supozitiilor care stau la
baza estimatorului
Acestea sunt in general extensii ale celor pe care
le-am vazut la modelul regresiei simple (RLS.1-4).
Poate rezulta o deplasare prin metoda CMMP
cand o variabila importanta a fost omisa din
regresie
Retineti: Proprietatile statistice nu au nimic de-a
face cu un esantion in particular se refera la
metoda CMMP aplicata in contextul sondajului
aleator.
32

Supozitii
Supozitia RLM.1: Lineara in parametrii:
y = 0 + 1x1 + 2x2 ++ u.
Supozitia RLM.2: Esantion aleator:
{xi1, xi2,,xim,y): i=1,2,,n}
urmand modelul populatiei din supozitia RLM.1
Supozitia RLM.3: Nu exista colinearitate
perfecta: In esantion, niciuna din variabilele
independente nu este constanta si nu exista o
relatie lineara exacta intre variabilele
independente.
Supozitia RLM.4: Medie conditionata zero eroarea u are o valoare asteptata zero date
fiind
33
oricare valori ale variabilelor independente:

Supozitiile RLM.1-2 are sunt evidente.


Supozitia RLM.3 este noua: Fara
colinearitate perfecta. Punct cheie in
practica: Nu exista depdendenta
lineara intre variabilele independente.
Daca exista dependenta lineara intre
variabile, atunci spunem ca exista o
colinearitate perfecta. In acest caz nu
putem estima parametrii utilizand CMMP.
Exemple:
x2 = a*x1
x3 = a1*x1 + a2*x2

Aveti o explicatie intuitiva de ce colinearitatea perfecta


face ca CMMP sa nu functioneze?
34

Precizare: Dependenta
nelineara este in regula!

Acest tip de model poate fi estimat


prin CMMP:

Dar acest tip de model nu poate fi


estimat prin CMMP:

Deoarece income_thousandsdollars = 1,000*income_dollars,


adica este vorba de o dependenta lineara.
35

Media conditionata zero


RLM.4 E(u|x1, x2,,xk)=0 este o generalizare
directa din SLR.4.
Este cea mai importanta dintre supozitiile
RLM.1-4, si cere ca reziduala sa fie
necorelata cu toate variabilele
explicative in modelul populatiei.
Daca RLM.4 este valabila, spunem ca
variabilele explicative sunt exogene.
36

Media conditionata zero


RLM.4 poate sa esuzeze din mai multe motive:
Omiterea unei variabile explicative importante
(numita si subspecificarea modelului) care este
corelata cu oricare dintre x1, x2,,xm
Omiterea unei variabile importante, ceea ce se poate
intampla frecvent, dar pe care am dori sa o controlam in
raport cu celelalte variabile incluse, duce la violarea
supozitiei RLM.4

Specificare gresita a relatiei dintre variabila


dependenta si variabilele independente (omiterea
unui termen la patrat, utilizarea nivelului in loc de
ln, sau a logaritmului in locul nivelului...)
Prima dintre acestea variabilele omise este de
departe cea mai mare grija pentru in cercetarea
aplicativa
37

Teorema 3.1:
Sub RLM.1-4, estimatorii
CMMP sunt nedeplasati
E ( j ) j , j 0,1,..., m

Adica valoarea asteptata a estimatorilor


este egala cu parametrul populatiei
Nu trebuie obligatoriu sa probati ca
estimatorii CMMP nu sunt deplasati in
modelul regresiei multiple, dar trebuie
sa stiti:
Definitia de mai sus si ceea ce inseamna
Supozitiile necesare pentru nedeplasare
38
(RLM.1-4)

Deplasarea cauzata de
omiterea unei variabile:
cazul
simplu ca omitem o
Sa presupunem
variabila care apartine modelului
adevarat (al populatiei)
Motivul poate fi lipsa datelor (ex.
Abilitatea in regresia venitului)
Aceasta in general cauzeaza ca
estimatorii CMMP sa fie deplasati
Sa studiem deplasarea mai in detaliu

39

Modelul adevarat (al populatiei):


(3.40)

Pentru care presupunem ca supozitiile


RLM.1-4 sunt valabile.
Sa consideram ca y este ln(venit), x1 este
educatia si x2 este o abilitate naturala.
Sa consideram ca suntem mai intai
interesati de 1.
In modelul adevarat, ar trebui sa rulam o
regresie pentru ln(venit) in functie de
educatie si abilitate.
Dar din cauza lipsei de date (sa spunem)
40
estimam modelul venitului excluzand

Exemplu:
venit 0 1 educ 2 abil u
Modelul adevarat
Modelul estimatvenit 0 1 educ v
undev 2 abil u
Estimatorul1
din aceasta regresie simpla este
~
ceea ce
1 numim
Reprezentam relatia dintre educ si abil printr-o
regresie liniara simpla

abil 0 1 educ

unde este necorelata cu educ (atentie: nu


trebuie sa dati aceasti ecuatii o relatie cauzala
intre abil si educ. Ea reflecta asociatia dintre ele,
adica 1>0 daca abil si educ sunt corelate pozitiv.
41

Stim ca:

~ ~
1 1 2 1

Atunci

3.45
Deplasarea (Bias)

Deoarece deplasarea in acest caz provine din


omiterea unei variabile explicative, acesta este
numit deplasarea variabilei omise
Sunt doua cazuri in care nu exista deplasare
care sunt?
Discutie: a) semnul deplasarii; b) marimea
deplasarii.
42

Semnul deplasarii
~

deplasarii 1lui

Semnul
cand x2 este
omis in estimarea ecuatiei (3.40)
Corr(x1,x2)
>0
2> Depl.poziti
va
0
2< Depl.negat
iva
0

Corr(x1,x2)
<0
Depl.negat
iva
Depl.poziti
va

Observati ca aceste rezultate urmeaza direct din


ecuatia (3.45) de pe cartonul anterior.

43

Deplasarea variabilei omise:

Cazul
general
Determinarea semnului deplasarii

variabilei omise atunci cand sunt mai


multi regresori in modelul estimat
este mai dificila
In general, corelatia dintre o singura
variabila explicativa si rezultatele de
eroare in toate estimatiile este
deplasata

44

3.4 Variana
estimatorilor CMMP
Vom obine acum variana
estimatorilor CMMP, astfel nct s
dispunem de o mprtiere in
distribuiile lor de sondaj.
Supozitia RLM.5: Homoscedasticitate.
Eroarea u are aceeai varian oricare ar fi
variabilele explicative:
Asta nseamna ca variana termenului de eroare
u, condiionat de variabilele explicative, este
aceeai penru toate valorile variabilelor
explicative.
Daca nu se intampla asta, avem

45

Teorema 3.2: Variana de


sondaj a estimatorilor
pantei CMMP

Sub supozitiile RLM.1-5 (cunoscut ca


supozitia Gauss-Markov), conditionat de
valorile de sondaj ale regresorilor,

pentru j=1,2,,k, unde


este variana total de sondaj a lui xj, i
Rj2 este R-ptrat din regresia lui xj pe toti
ceilalti regresori (inclusiv parametrul
46

Interpretarea formulei
varianei
Variana estimatorului este mare (ceea
ce de obicei nu este de dorit), dac:

Variana rezidualei este mare


Variana de sondaj a lui xj este mic (din
cauza varianei mici sau a unui eantion
mic)
Rj2 is este mare. Observati ca daca Rj2 se
apropie de 1 din cauza dependenei
aproape lineare dintre regresori
(multicolinearitate), variana devine foarte
mare.
47

Estimarea erorilor standard


ale estimatiilor CMMP

Principala utilitate practic a formulei


varianei este calculul erorii standard a
estimaiilor CMMP (i utilizam std error sa
testm diverse ipoteze asupra
parametrilor populaiei)
O chestiune tehnic este aceea ca
parametrul adevarat 2 nu este observat.
Dar poate fi estimat dup cum urmeaz:

unde
48

Erori standard (cont)


Grade de libertate - Degrees of
freedom (df):
df = n (k + 1)
df = (numar de observatii) (numar de
Erorile
standard:
parametri
estimati)

Vom utiliza erorile standard pentru testarea


49 capitolul
ipotezelor le vom trece in revista in

Erorile standard in rapoarte


de iesire
. regress colGPA hsGPA ACT
Source

SS

df

MS

Model
Residual

3.42365506
15.9824444

2
138

1.71182753
.115814814

Total

19.4060994

140

.138614996

colGPA

Coef.

hsGPA
ACT
_cons

.4534559
.009426
1.286328

Std. Err.
.0958129
.0107772
.3408221

t
4.73
0.87
3.77

Number of obs
F( 2,
138)
Prob > F
R-squared
Adj R-squared
Root MSE

P>|t|
0.000
0.383
0.000

=
=
=
=
=
=

141
14.78
0.0000
0.1764
0.1645
.34032

[95% Conf. Interval]


.2640047
-.0118838
.612419

50

.6429071
.0307358
1.960237

3.5 Eficienta CMMP:


Teorema Gauss-Markov
Teorema 3.4: Sub supoziiile RLM.1-5,
CMMP este cel mai bun estimator
linear nedeplasat - Best Linear
Unbiased Estimator (BLUE) al
parametrilor populatiei.
Cel mai bun = cea mai mica varian
Este linititor s tim c, sub RLM.15, nu putem gsi un estimator mai
bun dect CMMP.
Dac una din supoziii nu mai e
51

Cateva probleme
Vom lucra pe cel putin doua
probleme (pentru inceput)

52

S-ar putea să vă placă și