Sunteți pe pagina 1din 34

Metode de cercetare în finanțe

Andrieș Alin, PhD

Universitatea Alexandru Ioan Cuza University Iasi


Facultatea de Economie și Administrarea Afacerilor
Master Bănci și Piețe financiare
2019-2020

1
Modelul de regresie liniară simplă

1. Noţiuni introduc7ve
2. Forma generală a modelului de regresie liniară
simplă
3. Ipoteze clasice formulate
4. Es7marea parametrilor modelului
5. Es7marea indicatorilor de corelaţie
6. Testarea modelului şi a parametrilor
7. Aplicaţii

2
1. Noţiuni introduc7ve

•  Natura datelor: variabile numerice.

•  Obiec7vele analizei de regresie: studiul legăturilor


dintre fenomene şi folosirea modelului în scop
predic7v.

3
1. Noţiuni introduc7ve
Covariația

•  Covarianța între două variabile aleatoare este o
măsură sta7s7că a gradului în care cele două
variabile se ”deplasează” împreună.
•  Covarianța surprinde relația liniară între două
variabile.
•  O covarianță pozi7vă indică faptul că variabilele 7nd
să se deplaseze împreună; o covarianță nega7vă
indică faptul că variabilele 7nd să se deplaseze în
direcții opuse.

4
1. Noţiuni introduc7ve
Covariația

•  Covarianța la nivelul unui eșan7on se calculează
asPel:

5
1. Noţiuni introduc7ve
Covariația
•  Dezavantaje ale indicelui de covarianță:
–  Valoarea indicelui de covarianța nu este foarte semnifica7v, deoarece
măsurarea acestuia este extrem de sensibil la scara celor două
variabile.
–  Covarianța poate varia de la -∞ la +∞ și este prezentată în termeni de
unități la pătrat (de exemplu, procente la pătrat atunci când datele
sunt exprimate în procente).

•  Din aceste mo7ve, trebuie sa calculăm coeficientului


de corelație, care transformă covarianța într-o
măsură standardizată, care este mai ușor de
interpretat.
6
1. Noţiuni introduc7ve
Corelație
•  Coeficientul de corelație este o măsură a intensității
relației liniare (corelare) între cele două variabile.

•  Coeficientul de corelație nu are nici o unitate de


măsură; aceasta este o măsură "pură" a tendinței de
două variabile să se deplaseze împreună.

7
1. Noţiuni introduc7ve
Corelație
•  Coeficientul de corelație la nivelul unui eșan7on, r,
pentru două variabile, X și Y, se calculează asPel:

8
1. Noţiuni introduc7ve
Corelație
•  Coeficientul de corelație aparține intervalului [- 1;+1]

•  un coeficientul de corelație egal cu +1 semnifică


faptul că modificările variabilelor sunt corelate
perfect pozi7v

•  un coeficientul de corelație egal cu -1 semnifică


faptul că modificările variabilelor sunt corelate
perfect nega7v.

9
1. Noţiuni introduc7ve
Corelație
•  Interpretarea coeficienților de corelație

Coeficientul de corelație, r Interpretare


r = 1 corelație pozi7vă perfectă
0 <r <1 relație liniară pozi7vă
r = 0 nici o relație liniară
-1 <R <0 relație liniară nega7vă
r = -1 corelație nega7vă perfectă

10
1. Noţiuni introduc7ve
Iden7ficarea grafică a legăturii dintre variabile
-  un grafic de 7p scafer plot este un grafic în care fiecare punct
reprezintă valorile cele două variabile (xi ,yi)

11
1. Noţiuni introduc7ve
Interpretarea grafică a indicelui de corelație

12
1. Noţiuni introduc7ve
Limite ale analizei de corelație

-  Outliers (valorile excepționale)


-  Rela7v la restul datelor din eșan7on, valoarea unui outlier poate fi
extraordinar de mare sau mică. Valori excepționale pot avea ca rezultat
existența unei relații semnifica7ve atunci când, de fapt, nu este nici una,
sau că nu există nici o relație atunci când, de fapt, există o relație.
-  Corelație falsă (Spurious correla7on)
-  Corelația falsă se referă la cazul în care sta7s7c există o relație liniară de
corelație, atunci când, de fapt, nu există nici o relație. Anumite date pot fi
puternic corelate din întâmplare.
-  Relații nelineare
-  Indicele de corelație măsoară relația liniară între două variabile, dar nu
surprinde relația neliniară dintre două variabile.

13
1. Noţiuni introduc7ve
Testarea indicelui de corelație
•  Coeficientul de corelație [- 1;+1]
•  Cu excepția limitelor extreme (r = ± 1,0), nu putem vorbi cu
adevărat despre puterea relației indicate de coeficientul de
corelație fără un test sta7s7c de semnificație.
•  În acest scop, trebuie să testăm dacă corelația la nivelul
populației celor două variabile (ρ) este egală cu zero. Ipotezele
nulă și cea alterna7vă pot fi structurate ca un test de 7p:

14
1. Noţiuni introduc7ve
Testarea indicelui de corelație
•  Presupunând că cele două variabile urmează o distribuție
normală, putem folosi un test de 7p t-test pentru a determina
dacă ipoteza nulă ar trebui să fie respinsă. Testul sta7s7c se
calculează u7lizând indicele de corelație la nivelul eșan7onului, r,
cu n - 2 grade de libertate (df):

•  Pentru a lua o decizie, valoarea calculată a testului este comparată


cu valoarea cri7ca t pentru gradele corespunzătoare de libertate și
de nivelul de semnificație. Regula de decizie se poate scrie ca:

15
1. Noţiuni introduc7ve
Variabile dependente și independente
•  Scopul regresiei liniare simple este de a explica variația la nivelul
unei variabile dependente în relație cu variația unei singure
variabile independentă.

•  Variabila dependentă este variabila a cărei variație este explicată


de variabila independentă. Variabila dependentă este, de
asemenea, menționată ca variabilă explicată, variabila endogenă,
sau variabila prezisă.

•  Variabila independentă este variabila u7lizată pentru a explica


variația variabilei dependente. Variabila independentă este, de
asemenea, menționată ca variabilă explica7vă, variabila exogenă
sau variabila predictor.
16
2. Regresia liniară simplă
•  Următorul model de regresie liniară este u7lizat pentru a descrie
relația dintre două variabile, X și Y:

Yi = βo + β1 ⋅ Xi + εi , i = 1,..., n
•  Pe baza acestui model de regresie, procesul de regresie es7mează
o ecuație pentru o linie printr-un grafic de 7p scafer plot a datelor
care explică "cel mai bine” valorile observate pentru Y in relație cu
valorilor observate pentru X.
•  Ecuația liniară sau linia de regresie ia următoarea formă:

Yˆi = β̂o + β̂1 ⋅ Xi , i = 1,..., n

17
2. Regresia liniară simplă: Definiție
•  Modelul de regresie liniară simplă explică Y in raport cu
variabila X
Constantă, Coeficientul de regresie,
Intercept panta parametrului,

Yi = βo + β1 ⋅ Xi + εi

Variabilă dependentă,
variabilă explicată, Termenul de eroare,
Variabilă independentă, disturbance,
variabilă de răspuns, variabilă explica7vă,
variabilă prezisă … unobservables,…
variabila predictor,
regresor, …

•  Eroarea de regresie este determinată de omiterea unor


factori. În general, aceș7 factori omiși sunt alți factori care
influențează Y, alții decât variabila X. Eroarea de regresie
include și eroare în măsurarea lui Y 18
Regresia liniară simplă: Interpretare
•  Modelul de regresie liniară simplă arată cum variază Y la o
modificare a variabilei X

dacă

Cu cât se schimbă variabila dependentă Interpretarea este corectă numai


dacă variabila independentă dacă toate celelalte lucruri rămân egale,
este mărită cu o unitate? atunci când variabila independentă
este crescut cu o unitate
•  O ipoteză a modelului este liniaritate: o schimbare de o unitate
în X are același efect asupra Y, indiferent de valoarea inițială a
lui X. Această restricție poate fi relaxată.
•  Modelul de regresie liniară simplă este rareori aplicabil în
prac7că, dar discuția sa este u7lă pentru a înțelege modelul
general de regresie 19
Regresia liniară simplă: Interpretare
•  Coeficientul de regresie es7mat, β̂ 1 , cuan7fică modificarea lui Y
când X se modifică cu o unitate.

•  Poate fi pozi7v, nega7v sau zero

•  Panta parametrului, , se calculează:


β̂1

cov XY
β̂1 =
σ X2

20
Regresia liniară simplă: Interpretare
•  Constanta, β̂ 0 , reprezintă valoarea punctul de intersecție al
dreptei de regresi cu axa-Y atunci când X=0

•  Interceptul es7mat, , se poate exprima ca:


β̂ 0

β̂ 0 = Y − β̂ 0 X

•  Ecuația interceptului reliefează faptul că dreapta de regresie


trece printr-un punct cu coordonatele egale cu media
variabilelor independentă și dependentă

21
Regresia liniară simplă: Exemple
•  Impactul u7lizării îngrășămintelor asupra producției agricole

Precipitațiile, temperatură,
calitate teren, prezența paraziților,…

Măsoară efectul îngrășămintelor


asupra producției, dacă toți ceilalți
factori rămân constanți
•  Impactul anilor de școlarizare asupra salariului

Experiența angajatului, experiența la locul


actual de muncă, rata șomajului,
inteligența ...
Măsoară modificarea salariului a modificaării
cu un an a perioadei de școlarizare,
dacă toți ceilalți factori rămân constanți
22
Regresia liniară simplă: Exemple
•  Relația dintre randamentul indicelui S&P 500 și randamentul
acțiunii ABC

23
Regresia liniară simplă: Exemple
•  Relația dintre randamentul indicelui S&P 500 și randamentul
acțiunii ABC

24
2. Ipotezele clasice ale regresiei liniare
simple
•  Analiza de regresie liniară presupune un număr de ipoteze
1.  Există o relație liniară între variabila dependentă și variabila
independentă
2.  Variabila independentă este necorelată cu termenul eroare
3.  Valuarea es7mată a termenului eroare este zero Σ(ε ) = 0
4.  Varianța termenului eroare este constant pentru toate observațiile

Σ(εi2 ) = σ ε2
5.  Termenul eroare este independent distribuit – termenul eroare pentru
o observație nu este corelat cu termenul eroare pentru o altă
observație Σ(εiε j ) = 0, j ≠ i

2
6.  Termenul eroare urmează o distribuție normală εi ~ N(0, σ )

25
Interpretarea coeficienților de regresie
•  Valoarea es7mată a interceptului reprezintă valoare variabilei
dependente la punctul de intersecție al dreptei de regresie și
axa variabilei dependente.
•  Cu alte cuvinte, interceptul este valoarea es7mată a variabilei
dependente atunci când variabila independentă ia valoarea
zero.
•  Coeficientul de regresie es7mat poate fi interpretat ca
modificarea variabilei dependente la o modificare cu o
unitate a variabilei independente.

–  Este foarte important să rețineți că interpretarea coeficienților de


regresie trebuie să țină seama de semnificația sta7s7că.

26
Eroarea standard a es7mației (SEE)
•  SEE reprezintă abaterea standard a termenului eroare în
regresie. Se mai numeste abaterea standard a residurilor sau
eroarea standard a regresiei.

•  SEE măsoară variabilitatea abaterii valorilor efec7ve ale lui Y


față de valorile es7mate ale lui Y cu dreapta de regresie.

•  SEE cuan7fică adecvarea dreptei de regresie.

•  Cu cât este mai mică SEE cu atât dreapta de regresie este mai
adecvată.

27
Raportul de determinație (R2)
•  Măsoară gradul de corelaţie dintre variabile şi calitatea
ajustării norului de puncte prin dreapta de regresie (goodness
of fit).

•  R2 este definit ca procentul din variația totală a variabilei


dependente explicată de variabila independentă.

•  De exemplu, un R2 egal cu 0.60 indică faptul că variația


variabilei independente explică 60% din variația variabilei
dependente

28
Analiza varianței (ANOVA)
•  ANOVA reprezintă o procedură sta7s7că pentru analiza
variabilității totale a variabilei dependente pe baza
următoarelor elemente:
–  Variația totală (SST)

–  Variația explicată (RSS)

–  Variația neexplicată(SEE)

29
Analiza varianței (ANOVA)

30
Analiza varianței (ANOVA)

Sursa variației Grade de Variația Media variației


libertate (”suma
pătratelor”)
RSS RSS
Regresie (explicată) 1 RSS MSR = = = RSS
k 1


SSE
Eroare (neexplicată) n-2 SSE MSE =
n−2

Total n-1 SST

31
Analiza varianței (ANOVA)
•  R2 și SEE pot fi calculate direct din tabelul ANOVA

2 SST − SSE
R =
SST

SSE
SEE =
n−2

32
F-sta7s7cs
•  F-test cuan7fică ”cât de bine” set-ul de variabile
independente, ca grup, explică variația la nivelul variabilei
dependente.

MSR RSS
F= =
MSE SSE
n−2

33
Limite ale analizei de regresie
•  Relația liniară se poate modifica în 7mp. Aceasta înseamnă că
ecuația es7mată pe baza datelor istorice poate să nu fie
relavantă pentru prognoza aferentă perioadei viitoare.

•  Dacă ipotezele analizei de regresie nu sunt respectate,


interpretarea și testarea ipotezelor nu sunt valide. De
exemplu, daca datele sunt heteroskedas7c (varianța
termenului eroare nu este constantă) sau prezintă
autocorelație (termenii eroare nu sunt independenți),
rezultatele regresiei pot fi invalide.

34

S-ar putea să vă placă și