Sunteți pe pagina 1din 10

Ipotezele MCMMP

Luni, 28 Martie 2023


1
Ipotezele modelului de regresie (1)

1. Datele sunt obţinute corect şi fără erori


sistematice de observare. De asemenea numărul
de cazuri este suficient de mare.
2. Dispersia oricărei variabile independente Xi
este nenulă şi finită.
3. Liniaritatea modelului de regresie

Y i
   X i

2
Ipotezele modelului de regresie (2)
4. Variabilele independente Xi nu sunt puternic
corelate (nu prezintă multicoliniaritate).
Cazul ideal este acela in care coeficientul de
corelaţie dintre oricare două variabile
independente să fie nul. Existenţa coliniarităţii
face ca matricea (X’X) să nu fie inversabilă.
5. Variabilele independente sunt
nestochastice şi în eventualitatea în care am
repeta sondajul s-ar obţine aproximativ aceleaşi
valori.
6. Modelul de regresie este corect specificat (s-a
ales o funcţie potrivită) şi a rezultat un grad de
determinaţie suficient de mare.
3
Ipotezele modelului de regresie (3)
7. Erorile sînt normal distribuite cu
medie zero E(εi)=0 i.
8. Homoscedasticitatea (dispersie constantă).

9. Necorelarea erorilor E(εi εk)=0 (i<>k)


10. Necorelarea dintre oricare variabilă
independentă Xi şi variabila reziduală ε

4
Multicolinearitatea
 Este determinată de prezenţa corelării între
variabilele exogene  determinantul matricei X’X
este zero, deci aceasta nu este inversabilă.
 Problemele ce se pun în acest caz sunt:
1. Indicatori pentru semnalarea coliniarităţii
2. Înlăturarea efectului de multicoliniaritate

5
Indicatori pentru semnalarea
coliniarităţii (1)
 Coeficienţii de corelaţie din matricea de
corelaţie a variabilelor independente
inregistrează valori foarte ridicate (peste
0,85-0,90)
 Gradul de determinaţie se apropie de 1 în
condiţiile în care parametrii de regresie nu
trec testul t
 Dacă determinantul matricii (X’X) este
extrem de mic (în cazul coliniarităţii perfecte
el este egal cu 0)
6
Indicatori pentru semnalarea
coliniarităţii (2)
 Criteriul Klein
 se determină raportul de corelaţie Ry2 şi coeficienţii
liniari de corelaţie a variabilelor exogene ,
ij. rx / x
i j

 două variabile exogene Xi şi Xj sunt coliniare dacă:

R y2  rx2i / x j

 sunt identificate numai dependenţele liniare dintre


două variabile exogene.
7
Indicatori pentru semnalarea
coliniarităţii (3)
 Criteriul Belsley
 se calculează valorile proprii ale matricei X’X, deci soluţii ale
ecuaţiei: X’X-Ip=0.
 în cazul în care una sau mai multe valori proprii sunt zero
sau aproximativ zero, fenomenul de colinearitate este
semnificativ şi va afecta într-o bună măsură calitatea
estimatorilor. 
(X )  max

 se calculează indicatorul:  min


 dacă valorile acestui indicator sunt superioare lui 1 
colinearitatea
 o valoare cuprinsă între 20 şi 30 sau mai mare, pentru
datele reale, relevă o colinearitate puternică a variabilelor
exogene.
8
Înlăturarea efectului de
multicoliniaritate (1)
 Dacă putem suplimenta numărul de cazuri probabil că
această procedură va duce la diminuarea
multicolinearităţii
 În cazul în care regresia este una pe date culese în
timp (serii cronologice) dacă s-ar utiliza date
transversale am putea să ne aşteptăm ca variabilele
independente să fie mai puţin corelate între ele
 Dacă putem renunţa la o variabilă independentă
puternic corelată cu alta în condiţiile în care gradul de
determinaţie să nu se diminueze semnificativ cu
siguranţă efectul de multicoliniaritate s-ar manifesta la
dimensiuni mai reduse

9
Înlăturarea efectului de
multicoliniaritate (2)

 Estimarea prin partiţionarea matricei X în două


blocuri de variabile

 se consideră partiţionarea matricei în două submatrice ale


căror coloane sunt liniar independente: X=(Xm, Xp-m)
 se estimează parametrii modelului de regresie:
ym=Xmm+m

 se calculează apoi: y*  y  y m
 şi se estimează parametrii modelului liniar de regresie:
y*=Xrr+r

10

S-ar putea să vă placă și