Sunteți pe pagina 1din 14

Erori de tip 1 si 2 (Puterea studiilor)

Dragos Iliescu
p si dependenta lui de N
• p este dependent de marimea esantionului
– http://vassarstats.net/tabs_r.html

• de ex: r constant, variaza N


– r = .30; N = 30, p = .0536
– r = .30; N = 50, p = .0171
– r = .30; N = 100, p = .0012
– r = .30; N = 200, p = .000008

• sau: N constant, variaza r


– N = 100; r = .30, p = .0012
– N = 100; r = .20, p = .0230
– N = 100; r = .15, p = .0682
p si dependenta lui de N
• deci la un esantion suficient de mare, orice
corelatie poate fi semnificativa

• dar noi stim ca semnificatia nu e totul -


puterea efectului este si ea importanta
– de ex. la r = .10, efectul este de R2 = .01 (1%)
p si dependenta lui de N
• dar asta inseamna ca la esantioane mari o sa
acceptam drept corect (o sa detectam) un efect
care nu exista de fapt
– ooops!

– doar pentru ca esantionul este foarte mare, eu


detectez drept corect (semnificativ statistic) un efect
inexistent (effect size mic)

• aceasta e Eroarea de Tip I


Eroarea de Tip I
• Eroarea de Tip I = un fals pozitiv

– spunem ca exista efect, dar el nu exista

– cu cat e mai mic alpha (p), cu atat e mai mica sansa


pentru un astfel de fals pozitiv

– deci ne aparam (printre altele) de Eroarea de Tip I


lucrand cu praguri de probabilitate severe
• alpha < .10?
• alpha < .05?
• alpha < .01?
• alpha < .001?
Inca o privire la relatia dintre alpha,
N si marimea efectului
• daca avem un alpha=.05 si o limita de
r=.30 semnificativa (de ex., N = 30 si
atunci este sig doar ce e peste .30),
– efectul minim care poate fi pus in evidenta
este R2 = .09 !
– adica putem pune in evidenta efecte de .09, .
10, .20 etc, dar nu efecte de .08
– de ce?
• caci pentru ca noi sa avem R2 = .07, trebuie ca r sa
fie .264, dar un r = .264 este ns. (p = .079)
Cum punem in evidenta efecte mai
fine?
• asadar, daca vreau sa pun in evidenta efecte
mici, fine, am nevoie de un anumit tip de
esantion, cu un N suficient de mare incat sa am
semnificatie statistica si la r-uri mici

• altfel risc sa nu pot detecta un efect nici chiar


atunci cand el exista

• acesta este o Eroare de Tip II


– probabilitatea de avea o eroare de tip 2 se bazeaza
pe un indice similar cu alpha, numit beta
Alpha si Beta
• indici
– alpha = probabilitatea de a avea Eroare de Tip I
– beta = probabilitatea de a avea Eroare de Tip II

• deci alpha imi spune daca e posibil sa fi detectat in mod


fals un efect inexistent (fals pozitiv)
– 1-alpha = semnificatia = cat de sigur pot fi ca nu spun “este” la un
efect inexistent

• iar beta imi spune daca e posibil sa nu fi detectat un efect


real (fals negativ)
– 1-beta = puterea = cat de sigur pot fi ca nu am ratat un efect
existent
Asa arata poza
Deciziile gresite (misdecision)
• ambele erori (tip 1 si tip 2) sunt erori gresite
(misdecision)

• teoretic, cand cresc pe una, scad pe alta

• si pentru ca ambele sa fie optime, e nevoie de


un echilibru foarte fin intre
– N
– alpha
– beta
– effect size
Erori si erori ...
• dar care din cele doua erori (I si II) e mai rea?

• e mai rau sa zicem ca ceva exista si nu exista


(Tip I)

• daca nu detectam un efect real (Tip II), nu e


mare problema
– mai incercam si mai incercam si daca efectul e real,
pana la urma iese, mai ales la numarul mare de studii
care se fac astazi
Asadar e mai rea eroarea de Tip I
• de principiu e mai bine sa ignori un adevar decat sa crezi o
greseala
– de aceea se considera ca Type 1 e mai grav decat Type 2

• si se considera ca raportul de 'gravitate' dintre cele doua


este de 1:4
– deci de obicei echilibrul dintre alpha si beta este de 1:4

• asta inseamna ca pentru un alpha .05 avem un beta de .20


– asta inseamna un significance de 1-alpha = .95 si un power de 1-
beta = .80

• (totusi, la studii de eficacitate e posibil sa vrem sa micsoram


beta si sa marim power)
Cum calculam acesti indici?
• GPower

• analiza apriori:
– stim la ce effect size sa ne asteptam (sau
facem un educated guess)
– stim cu ce alpha operam
– stim cu ce beta operam
– cerem sa ni se calculeze N-ul optim
Sau dupa ce este realizat studiul
• analiza apriori nu ne scuteste insa de analiza reala a
studiului nostru real, dupa ce avem datele
– pentru ca viata bate filmul si pentru ca nu iese nimic fix cum ne-
am propus

• dupa ce avem datele stim exact


– ce effect size avem
– ce alpha avem la acel effect size
– cat e N
– deci putem calcula puterea reala a studiului nostru (1-beta)

• asta se numeste "analiza post-hoc"