Documente Academic
Documente Profesional
Documente Cultură
varianţă (ANOVA)
Lector univ.dr. Perţea Gheorghe
În situaţia în care am comparat performanţa la ţintă a celor două grupe de sportivi (practicanţi şi
nepracticanţi de training autogen), testul t a rezolvat problema semnificaţiei diferenţei dintre
două medii. În practica de cercetare ne putem întâlni însă cu situaţii în care avem de
comparat trei sau mai multe medii. De exemplu, atunci când am efectuat un test de
cunoştinţe de statistică şi dorim să ştim dacă diferenţele constatate între cele 5 grupe ale
unui an de studiu diferă semnificativ. Performanţa la nivelul fiecărei grupe este dată de
media răspunsurilor corecte realizate de studenţi. La prima vedere, am putea fi tentaţi să
rezolvăm problema prin compararea repetată a mediei grupelor, două câte două. Din păcate,
există cel puţin trei argumente pentru care această opţiune nu este de dorit a fi urmată:
•În primul rând, volumul calculelor ar urma sa fie destul de mare, şi ar creşte şi mai mult
dacă numărul categoriilor variabilei independente ar fi din ce în ce mai mare.
•În al doilea rând, problema cercetării vizează relaţia dintre variabila dependentă (în
exemplul de mai sus, performanţa la statistică) şi variabila independentă, exprimată prin
ansamblul tuturor categoriilor sale (grupele de studiu). Ar fi bine să putem utiliza un
singur test şi nu mai multe, pentru a afla răspunsul la problema noastră.
•În fine, argumentul esenţial este acela că, prin efectuarea repetată a testului t cu fiecare
decizie statistică acumulăm o cantitate de eroare de tip I de 0.05 care se cumulează cu
fiecare pereche comparată, ceea ce duce la depăşirea nivelului admis de convenţia
ştiinţifică. Să presupunem că dorim să testăm ipoteza unei relaţii dintre nivelul anxietăţii
şi intensitatea fumatului, evaluată în trei categorii: 1-10 ţigări zilnic; 11-20 ţigări zilnic şi
21-30 ţigări zilnic. În acest caz, avem trei categorii ale căror medii ar trebui comparate
două câte două. Dar, în acest fel, prin efectuarea repetată a testului t pentru eşantioane
independente, s-ar cumula o cantitate totală de eroare de tip I de 0.15 adică
0.05+0.05+0.05.
Pentru a elimina aceste neajunsuri, şi mai ales pe ultimul dintre ele, se utilizează o
procedură statistică numită analiza de varianţă (cunoscută sub acronimul ANOVA, de la
„ANalysis Of VAriance”, în engleză). În mod uzual, analiza de varianţă este inclusă într-o
categorie aparte de teste statistice. Motivul pentru care o introducem aici, imediat după testul t
pentru eşantioane independente, este acela că, în esenţă, ANOVA nu este altceva decât o
extensie a logicii testului t pentru situaţiile în care se doreşte compararea a mai mult de două
medii independente. Dar, dacă problema este similară, soluţia este, aşa cum vom vedea, diferită.
Există mai multe tipuri de ANOVA, două fiind mai frecvent folosite:
1
Pentru simplificare, în continuare ne vom referi numai la trei eşantioane, dar se va înţelege
„trei sau mai multe”
c) Să facem raportul dintre aceste două valori. Obţinerea unei valori mai ridicate a acestui
raport ar exprima apartenenţa fiecăreia din cele trei medii la o populaţie distinctă, în timp
ce obţinerea unei valori mai scăzute ar sugera provenienţa mediilor dintr-o populaţie
unică (de nul). Decizia statistică cu privire la mărimea raportului şi, implicit, cu privire la
semnificaţia diferenţelor dintre mediile comparate, se face prin raportarea valorii
raportului la o distribuţie teoretică adecvată, alta decât distribuţia normală, aşa cum vom
vedea mai departe.
(a) Estimarea dispersiei populaţiei de nul pe baza mediei dispersiei grupurilor (varianţa
intragrup)
Atâta timp cât nu cunoaştem dispersia populaţiei (σ2) din care ar putea proveni grupurile,
trebuie să o estimăm prin dispersiile celor trei grupuri (s12, s22, s32).
Calculând media celor trei dispersii vom obţine o valoare care estimează dispersia pentru
cele trei grupuri luate împreună (indiferent de metoda de antrenament utilizată). Această
valoare se consideră că estimează dispersia populaţiei totale. Deoarece ea se calculează pe baza
dispersiilor în interiorul grupurilor, este desemnată în mod uzual prin termenul de intragrup
(sau, mai frecvent, prin forma engleză: within-group) şi se notează cu s2intragrup, fiind calculată
cu una dintre formulele următoare:
Atunci când volumele eşantioanelor comparate sunt egale(N1=N2=N3), ca în formula
3.16:
(b) Estimarea dispersiei populaţiei de nul pe baza dispersiei mediilor grupurilor (varianţa
intergrup)
Mediile celor trei grupuri (eşantioane) sunt numere care pot fi analizate ca distribuţie
în sine, a căror dispersie (varianţă) poate fi calculată, fiind o estimare a împrăştierii valorilor la
nivelul populaţiei. Din cauză că se bazează pe mediile grupurilor, aceasta se mai numeşte şi
varianţă intergrupuri (between groups, în limba engleză). Între
variaţia acestor medii şi variaţia valorilor din grupurile analizate, luate împreună, există o
legătură care poate fi exprimată pe baza formulei transformate a erorii standard, astfel:
Vom putea utiliza dispersia mediilor celor trei eşantioane pentru a estima dispersia
populaţiei totale (vezi exemplul de mai jos). Aceasta se numeşte estimarea varianţei
intergrupuri, notată cu s2intergrup.
Dacă înlocuim în expresia de mai sus expresia de calcul a dispersiei (formula 3.17),
obţinem:
unde mi este media performanţei din fiecare grup, M este media celor trei grupuri luate
împreună, iar ni este numărul subiecţilor din fiecare grup, iar dfintergrup se calculează ca numărul
grupurilor-1.
unde: m1, m2, m3 sunt mediile celor trei grupuri, n1, n2, n3, sunt volumele celor trei
eşantioane, iar celelalte valori sunt cele descrise pentru formula anterioară.
Pentru situaţia în care grupurile au un număr egal de subiecţi, formula 3.19’ devine:
Ambele tipuri de estimări sunt estimări independente ale varianţei populaţiei de nul. Însă,
în timp ce varianţa intragrup o estimează în mod direct (media varianţelor), varianţa intergrup o
măsoară indirect (varianţa mediilor). Aceasta din urmă, varianţa intergrup, reprezintă o estimare a
varianţei populaţiei de nul numai dacă ipoteza de nul este adevărată. Dacă ipoteza de nul este
falsă, ea reflectă de fapt măsura în care valorile variabilei independente (factorul) influenţează
mediile variabilei dependente. Pe această particularitate se bazează procedura analizei de
varianţă. Raportul dintre cele două estimări (s2intergrup/s2intragrup) va tinde să devină cu atât mai mare cu
cât diferenţa dintre mediile grupurilor (tradusă prin dispersia mediilor) devine mai mare decât
dispersia din
interiorul grupurilor (tradusă prin media dispersiilor). Acest raport se numeşte „raport
Fisher”, după numele celui care a fundamentat acest tip de analiză3, şi se scrie astfel:
Interpretarea raportului F
Atunci când ipoteza de nul este adevărată, efectul „tratamentului” se apropie de zero,
iar raportul F este rezultatul varianţei erorii. Dacă cele două varianţe ale erorii ar fi identice, F ar
avea valoarea 1 dar, de fapt, cele două varianţe ale erorii pot avea valori diferite, ceea ce
conduce la fluctuaţii ale lui F în jurul lui 1.
Atunci când efectul tratamentului nu este zero (ipoteza de nul este falsă), ne aşteptăm
ca valoarea raportului F să fie mai mare decât 1. Însă pentru a respinge ipoteza de nul valoarea
lui F trebuie să fie nu doar mai mare decât 1, ci mai mare decât un prag critic convenţional
asumat (alfa), astfel încât probabilitatea ca un rezultat similar să decurgă din întâmplare să fie
mai mică sau cel mult egală cu alfa.
Distribuţia Fisher
Valorile raportului F (sau testul F) se distribuie într-un mod particular, numit distribuţia F
sau distribuţia Fisher. Ca şi distribuţia normală, distribuţia F este o familie de distribuţii, având
următoarele caracteristici:
1.asimetrie pozitivă (tendinţa valorilor de grupare spre partea stângă, cu valori mici);
2.poate lua valori oricât de mari;
3.valoarea minimă este 0, deoarece decurge din raportul a două dispersii, iar dispersiile nu
pot fi niciodată negative4.
4.forma distribuţiei variază în funcţie de o pereche de grade de libertate formată din numărul
grupelor (categoriile variabilei independente) şi numărul subiecţilor.
Imaginea de mai sus reprezintă curba F pentru 3 grupuri cu 30 de subiecţi în total.
Distribuţia Fisher are forme distincte în funcţie de numărul eşantioanelor comparate şi volumul
acestora.
Problema cercetării:
Avem rezultatele la o şedinţă de tragere la ţintă pentru trei grupuri de câte 6 sportivi,
fiecare grup fiind antrenat cu o altă metodă, şi vrem să vedem dacă există o legătură între
nivelul performanţei şi metoda de antrenament.
Ipoteza cercetării:
„Performanţa sportivă este în legătură cu metoda de antrenament utilizată.
Ipoteza de nul:
„Nu există o legătură între performanţa sportivă şi metoda de antrenament.”
Spre deosebire de tabelele distribuţiilor utilizate până acum, (z şi t), pentru interpretarea
lui F avem mai multe tabele, calculate fiecare pentru un anume nivel al lui α. Mai întâi căutăm
tabela pentru α dorit (să zicem, α=0.05). Apoi citim valoarea critică pentru F la intersecţia
dintre coloana care reprezintă numărul gradelor de libertate pentru numărul grupurilor (dfB) cu
linia care reprezintă numărul gradelor de libertate pentru volumul total al subiecţilor (dfW). Dacă
valoarea obţinută prin calcul este mai mare sau egală decât cea tabelară, atunci putem lua decizia
de respingere a ipotezei de nul.
O precizare importantă cu privire la ANOVA, ca test statistic, priveşte caracterul ei
„unilateral” (one-tailed). Într-adevăr, spre deosebire de celelalte teste studiate până acum,
ANOVA este interpretată într-o singură direcţie şi anume, dacă mediile grupurilor diferă
semnificativ între ele (au o variaţie mai mare decât cea normală pentru o distribuţie aleatoare). Nu
putem avea o valoare negativă pentru F şi, ca urmare, testul F este întotdeauna un test
unilateral.
Calculăm F pe baza datelor centralizate în tabelul următor5:
Metoda de antrenament
„metoda 1” „metoda 2” „metoda 3”
X1 (X1-m1)2 X2 (X2-m2)2 X3 (X3-m3)2
(puncte) (puncte) (puncte)
10 2,79 3 8.00 4 1.36
9 0,45 6 0.02 5 4.70
10 2,79 6 0.02 2 0.68
7 1,77 5 0.68 3 0.02
8 0,11 8 4.70 2 0.02
6 5,43 7 1.36 1 3.34
ΣX 50 13.33 35 14.78 17 10.14
N 6 6 6
M m1=8.33 m2=5.83 m3=2.83 M=(m1+m2+m3)/3=5.66
s2 2.66 2.96 2.02
(m-M) 2.67 0.17 -2.83
(m-M)2 7.12 0.02 8.00 2(m-M)2=15.14 |
5
Atenţie, acest mod de prezentare a datelor serveşte calculării manuale a testului F. Într-o
bază de date SPSS vom avea câte o înregistrare pentru fiecare subiect, cu două variabile,
una pentru nivelul anxietăţii şi cealaltă pentru intensitatea fumatului, aceasta din urmă cu
trei valori convenţionale, să zicem 1, 2, 3 pentru fiecare nivel de intensitate a fumatului.
faptul că nu cunoaştem dispersia populaţiei vom utiliza dispersia eşantioanelor, conform
formulei 3.19” pentru grupuri egale.
Prin înlocuire cu valorile calculate în tabelul de mai sus, obţinem:
Decizia statistică:
6
Fără a intra în amănunte, facem precizarea că indicii de mărime a efectului pot fi transformaţi
cu uşurinţă unii într-alţii, cu ajutorul unor formule de conversie.
Vom prezenta aici doar indicele eta pătrat, dat fiind faptul că este accesibil cu metoda
pe care am utilizat-o pentru calcularea lui F7. Formula de calcul pentru η2 este următoarea:
În esenţă, indicele eta pătrat descrie procentul din varianţa (împrăştierea) variabilei
dependente care este explicat de varianţa variabilei independente.
Nu există o „grilă” unică de interpretare a indicelui eta pătrat dar, prin similitudine cu
coeficientul de corelaţie, putem prelua sugestiile unor autori diferiţi, ale căror opinii sunt, în linii
mari, convergente. Redăm aici, pentru comparaţie, două variante de interpretare pentru eta
pătrat:
Vom observa că, în ambele variante, pentru a fi „important” indicele eta pătrat trebuie
să atingă cel puţin valoare de 0.50, ceea ce înseamnă că 50% din varianţă variabilei
dependente este explicată de variabila independente.
Pentru datele exemplului nostru, indicele de mărime a efectului este:
La rândul lui, Cohen (1988) a dezvoltat un indice de mărime a efectului (f) pentru
ANOVA, care atenuează ceea ce se consideră a fi tendinţa de „supraestimare a mărimii
efectului” de către indicele eta pătrat:
Dacă privim cei doi indici ai mărimii efectului calculaţi pentru exemplul dat, putem
aprecia că, în contextul datelor cercetării noastre, 44% din variaţia performanţei de instruire este
explicată de utilizarea metodelor de antrenament (ceea ce înseamnă, implicit, că un procent de
56% provine din alte surse). În conformitate cu recomandările de interpretare pentru eta pătrat,
putem afirma că relaţia dintre metodele de antrenament utilizate şi performanţă este „moderată”
sau „medie”. În acelaşi timp, indicele f al lui Cohen indică un nivel ridicat al mărimii
efectului. Nu trebuie să privim aceste două aprecieri ale mărimii efectului ca fiind
contradictoirii, ci ca pe două perspective asupra aceleiaşi realităţi.
Analiza „post-hoc”
Graficul de mai sus prezintă variaţia mediilor performanţei celor grupuri de sportivi. Aşa
cum se observă, nivelul performanţei are nivelul cel mai ridicat pentru prima metodă de
antrenament (8.33), şi din ce în ce mai reduse la următoarele două (5.83; 2.83).
8
Cu toate acestea, există autori care consideră că nimic nu ne împiedică să calculăm testele
post-hoc chiar dacă testul F s-a finalizat cu admiterea ipotezei de nul.
Avantajele ANOVA
Utilizarea ANOVA pentru testarea ipotezelor în cazul unui număr mai mare de grupuri
(eşantioane) prezintă două avantaje. Primul, ţine de ceea ce am precizat deja, şi anume faptul că
eliminăm riscul cumulării unei cantităţi prea mari de eroare de tip I, prin efectuarea repetată a
testului t. Al doilea, rezultă din faptul că avem posibilitatea să punem în evidenţă diferenţe
semnificative între mediile mai multor grupuri, chiar şi atunci când nici una dintre ele nu
diferă semnificativ una de cealaltă (testul t).
Deşi, în mod normal, analiza de varianţă este utilizată doar în situaţia în care se doreşte
testarea diferenţei dintre mediile a mai mult de două grupuri independente, ea dă rezultate
echivalente şi în cazurile în care există numai două grupuri (singura diferenţă fiind valoarea
calculată a testului, nu şi nivelul lui p). Utilizarea testului t pentru testarea diferenţei dintre două
medii este, totuşi, o metodă mult mai directă, mai uşor de aplicat şi de înţeles, decât analiza de
varianţă.
Atunci când una sau mai multe dintre aceste condiţii nu sunt întrunite, se poate adopta
una dintre soluţiile următoare:
o renunţarea la ANOVA în favoarea unei prezentări descriptive (soluţie care ne
lipseşte de posibilitatea unei concluzii testate statistic);
o transformarea variabilei dependente astfel încât să dobândească proprietăţile
necesare (printre metodele uzuale, cităm aici doar logaritmarea sau extragerea
radicalului din toate valorile variabilei dependente);
o transformarea variabilei pe o altă scală de măsurare şi aplicarea altui test statistic
(de exemplu, prin transformarea pe o scală nominală, se poate aplica testul
neparametric chi-pătrat sau, prin transformarea pe o scală ordinală, se poate
aplica testul neparametric Kruskal-Wallis, ambele urmând a fi tratate mai
departe).
EXERCIŢII
Efectul Stroop este un fenomen studiat în psihologia experimentală, care constă într-o
situaţie informaţională conflictuală. De exemplu, cuvântul „albastru” este tipărit cu litere de
culoare roşie, iar subiectul trebuie să răspundă indicând culoarea literelor.
Un cercetător efectuează următorul experiment cu privire la efectul Stroop:
-Selectionează aleatoriu patru grupuri de subiecţi, fiecare grup fiind format din şase subiecţi;
-Subiecţilor din primul grup li se prezintă pătrate colorate şi li se cere să identifice culoarea;
-Celor din grupul 2 li se prezintă adjective scrise cu culori corespunzătoare („roşu” este
scris cu roşu);
-Grupurilor 3 şi 4 li se prezintă combinaţii conflictuale între cuvinte şi culori, dar subiecţii
din grupul 3 trebuie să identifice cuvântul, în timp ce subiecţii din grupul patru trebuie să
identifice culoarea.
-Variabila dependentă este timpul pentru răspuns corect, măsurat în zecimi de secundă
-Toţi subiecţii primesc 10 stimuli de acelaşi fel, fiind consemnat timpul mediu de răspuns.
-Rezultatele sunt centralizate în tabelul următor: