Sunteți pe pagina 1din 33

Biostatistica și metodologia

cercetării științifice
Aprecierea exactității valorilor
relative și medii.
Testarea ipotezelor:
teste parametrice și non-parametrice
Exactitatea valorilor. Eroarea standard.
• Media calculată de noi diferă mai mult sau mai puţin
de media absolută (media universului statistic) .
• Media practică prezintă o eroare faţă de media
absolută, eroare ce trebuie întotdeauna calculată.
• Eroarea standard reprezintă eroarea, care denotă
diferenţa dintre valorile relative sau medii dintr-un
eşantion şi aceleaşi valori în colectivitatea generală
(lot experimental și martor) .
În cadrul cercetărilor este foarte greu să culegi o
informație primară despre toate unitățile de lucru.
Când calculăm valorile relative sau valorile medii, le
calculăm dintr-o parte a colectivității. Valorile calculate
din colectivități parțiale se numesc valori empirice,
care au o eroare, numită eroare standard.
Eroarea standard a valorilor medii
• Eroarea medie a mediei aritmetice arată care este gradul de
eroare a rezultatelor obținute într-o cercetare parțială față de
rezultatele pe care cercetătorul le-ar fi obținut într-o cercetare
integrală. Eroarea poate fi calculată cu ajutorul erorii medii care
pentru media aritmetică are următoare formulă:
Em= ± s /n
unde: Em - eroarea medie; σ - abaterea medie pătratică (deviația
standard);n - volumul eşantionului.
Ex.: Să calculăm eroarea medie a unui eșantion privind lungimea la 262 nou-
născuți, care au: n=262, Ma=50.33cm, s= ±1.37cm.
Rezolvare: Em= ± 1.37 /262= ± 0.08.
1. Ma=50.33 ± 0.08, adică între 50.25 cm și 50.47 cm – 68.27% din cazuri;
Pentru o mai mare exactitate se calculează eroarea medie dublă sau triplă.
2. 2*Em= ± 0.08 *2= ± 0.16
În acest caz probabilitatea că media absolută se află între 50.17 cm și
50.49 cm – 95.45% din cazuri;
3. 3*Em= ± 0.08 *3= ± 0.24
Probabilitatea că media absolută se află între 50.09 și 50.57 cm – 99.73% .
Eroarea standard a valorilor medii
• Cu alte cuvine, în cazul valorilor medii, pentru a stabili
exactitatea cu care s-au făcut o serie de măsurători, trebuie
să se calculeze abaterea medie a valorilor medii obţinute.
• Această abatere se numeşte eroare standard, notată cu ES,
şi se obţine prin formulele următoare:
• ES = ± s /n pentru n ≥ 120
• ES = ± s /n-1 pentru n ≤ 120 .
unde: ES - eroarea standard;
σ - abaterea medie pătratică (deviația standard);
n - volumul eşantionului (numărul frecvențelor);
n-1 – numărul gradelor de libertate.
Gradele de libertate reprezintă numărul de cazuri observate,
din care se scade o unitate. Această operaţie se face cu
scopul apropierii abaterii reale a valorilor (în eşantion) de cea
teoretică (în colectivitatea generală).
Eroarea standard a valorilor medii
Ca și în cazul deviației standard (s), eroare medie se calculază în
cifre absolute (cm, g, km, kg etc). Pentru a putea compara
eroarea medie la colectivități, calculăm valoarea procentuală a
erorii medii, care permite să aflăm certitudinea ei:
Em%= ± Em/Ma *100
Concluzii:
• O proporție sub 1% a Em% indică faptul, că media aritmetică
poate fi luată în considerare cu o certitudine foarte înaltă. Cu
cât proporția este mai mică ca 1%, cu atât certitudinea va fi mai
mare.
• O proporție mai mare de 3% indică faptul că media aritmetică
nu poate fi luată în considerare sau numărul de observări nu-i
suficient de mare.
Eroarea standard a valorilor relative
Când se testează certitudinea valorilor empirice se stabilește cu
cât a greșit cercetătorul calculând indicatorii relativi într-o
cercetare parțială față de rezultatele pe care le-ar fi obținut într-o
cercetare integrală:
• Ep = ±√ (p x q) / n, pentru n ≥ 120
• Ep = ±√ (p x q) / (n-1) , pentru n ≤ 120,
unde: Ep – eroarea indicatorului relativ;
p – indicatorul relativ (probabilitatea);
q - diferenţa dintre înmulţitorul, faţă de care s-a calculat
indicele (100, 1000, 10000 etc.) şi valoarea indicatorului
(contraprobabilitatea);
n - numărul de cazuri luate în observaţie,
n-1 – numărul gradelor de libertate.
Eroarea standard a valorilor relative

Ex.: La 400 de persoane a fost determinată tensiunea arterială


sistolică. În baza măsurării valorilor individuale s-a stabilit că
Ma = 133mm/Hg şi σ = ±18mm/Hg.
ES= ± 18 /400= ± 18 /20= ± 0.9 mm/Hg.

Ex.: Într-un eşantion de 200 de bolnavi cu traumă cranio-


cerebrala, dereglări repiratorii au fost înregistrate la 50 de
bolnavi. Datele sunt prezentate prin frecvenţa (p) dereglărilor
respiratorii: 25%.
ES= ± 25%*75% /200= ±  9.38= ± 3.06 %.
Intervalul de siguranţă (intervalul de incredere)
Intervalul valoric, determinat cu ajutorul erorii standard,
în care se estimează pentru a se afla media absolută,
se numeşte interval de siguranţă sau de încredere
statistică.
În acest interval, ţinând cont de legea distribuţiei
normale, determinat de media eşantionului ±eroarea
standard, media absolută se va găsi cu o probabilitate
egală cu 68,26%:
(M – ES) > IÎ < (M + ES)= 68,26% sau
(p – ES) > IÎ < (p + ES)= 68,26%
Conform datelor primului exemplu, intervalul de siguranţă va fi
determinat: 133 mm/Hg ± 0,9mm/Hg, astfel valorile tensiunii
arteriale în 165 colectivitatea generală, cu o probabilitate de
68,26%, vor va fi cuprinse între 132,1 mm/Hg şi 133,9 mm/Hg.
Intervalul de siguranţă (intervalul de incredere
În cel de al doilea exemplu, intervalul de siguranţă va fi 25% ±
3,06%, deci cu o probabilitate de 68,26%, frecvenţa complicaţiilor
în colectivitatea generală se estimează a fi cuprinsă între 21,94%
şi 28,06%.
Pentru a mări intervalul de încredere se pot lua în jurul mediei
valoarea dublă a erorii standard (probabilitatea de aflare a mediei
colectivităţii generale în aceste interval fiind 95,45%) şi tripla
valorii erorii standard, probabilitatea mediei colectivităţii generale
de a fi inclusă în acest interval fiind de 99,73%.

Dacă o repartiție de selecție este mai mare de 30 de unități,


68,26% din cazuri se vor găsi în intervalul dintre medie ± 1σ;
95.45% - între medie ± 2σ; și 99.73% - între medie ± 3σ.

În așa fel și media poate fluctua între aceste intervale.


Eroarea standard a valorilor relative
Ex.: Se examinează 800 persoane din localitatea X. La 112
persoane tensiunea arterială depășește limitele normei. Să se
determine nivelul incidenței HTA.
Inițial calculăm indicele intensiv, adică incidența prin HTA:
P= 112/800* 1000= 140.00%0
dacă nu înmulțim la 1000, dar la 100, atunci primim tot același rezultat dar cu
mulțe “0” înainte.
Apoi calculăm eroarea valorii relative: Deja avem P= 140.00%0,
atunci va fi q= 1000%0-140%0= 860%0
Ep= ± (140.00%0*860 /800) = ±  150.5 = ± 12.27
Dacă înmulţim Ep cu 10 și eroarea depășește indcatorul, atunci
această eroare nu este certă și indcatorul este calculat dintr-o
colectivitate nesemnicativă (12.27*10=122.7) este mai mic ca
140, indicele este cert.
Intervalul de încredere (IÎ)
Concluzie: Media aritimetică (valoare absolută ) se poate găsi :
• în intervalul Ma ± ES, cu probabilitatea de 68,26%;
• în intervalul Ma ± 2ES, cu probabilitatea de 95,45%;
• în intervalul Ma ± 3ES, cu probabilitatea de 99,73%.
La fel şi pentru valorile relative Intervalele Ma ± ESm şi P ± Esp
se numesc interval de încredere (IÎ) (sau regiuni de acceptare) a
mediei sau indicatorului relativ, iar limitele lor se numesc limite
de încredere:
(Ma - ESm) > IÎ < (Ma+ESm)
(P - ESp) > IÎ < (P + ESp)
Peste limita de încredere deja se vorbește de intervalul de
respingere.
Unei probabilități de 95% sau 99% (0.95 sau 0.99) denumită nivel
de încredere (de semnificație), îi corespunde un coeficient de
încredere cu valoare critică, notată cu “t”.
Pragul de semnificaţie („p”)
Contraprobabilitatea sau probabilitatea că mediile de eşantion să
depăşească limita maximă şi minimă ale intervalului de încredere,
situându-se în afară lor, se numește prag de semnificație.
În cazul în care intervalul de încredere (siguranță) este determinat
de M ± ES, contraprobabilitatea (pragul de semnificație) se
obține scăzând din 100% valoarea probabilității:
q= 100%- 68,26% = 31,74 %
Dacă dorim ca valoarea contraprobabilității, a posibilității de a
greși, să fie mai mică, atunci trebuie să mărim intervalul de
siguranță.
Mărimea intervalului de siguranță depinde de faptul dacă adăugăm
și scădem din valoarea mediei, valoarea erorii standard o singură
dată, de două ori sau de trei ori. Cu cât rem să lucrăm mai precis,
să greșim mai puțin, cu atât intervalul de siguranță crește.
Multiplul erorii standard 1,2 sau 3, care determină mărimea
intervalului de siguranță, se numește test de siguranță, și se
notează cu “t”.
Testul de semnificație
• La o probabilitate de 68.26% și un prag de semnificație de 31.74% valoarea
lui t =1;
• La o probabilitate de 95.45% și un prag de semnificație de 4.55% valoarea lui
t =2;
• La o probabilitate de 99.73% și un prag de semnificație de 0.27% valoarea lui
t =3.
În medicină și biologie pragurile de semnificație 31.74%, 4.55%
și 0.27%, corespunzând valorilor lui t=1, 2 sau 3 nu se prea
folosesc, în schimb, rezultatele se garantează cu pragurile de
semnificație de 0,05 (5%), 0,01 (1%) și 0,001 (0.1%).
Pe bază de calcule s-a stabilit că pentru aceste pragurile de
semnificație valorile corespunzătoare ale lui “t” sunt:
• pragul de semnificație 5%, valoarea lui t =1.96, intervalul de siguranță va fi
Ma ± 1.96ES;
• pragul de semnificație 1% valoarea lui t = 2.58, intervalul de siguranță va fi
Ma ± 2.58ES;
• pragurul de semnificație 0.1% valoarea lui t =3.59 , intervalul de siguranță
va fi Ma ± 3.59ES.
Testul de semnificație
Teste ale lui t rămân nemodificate, dacă se lucrează pe
eșantioane cu un volum mai mare de 120 de cazuri. Dacă se
lucrează pe eșantioane cu un volum mai mic de 120 de cazuri,
valoarea testului de semnificație se modifică și se ia din tabelul
testului t, această valoare o găsim în cărțile de statistică

Gradele de libertate reprezintă numărul de cazuri observate, din care se scade o unitate.
Eroarea standard procentuală. Eroare limită.
În cazul valorilor medii eroarea standard este exprimată în
unitățile de măsură ale caracteristicii, ca și deviația standard.
Ea nu poate servi pentru compararea a mai multor eșantioane,
sub specul omogenității. În așa situații se calculează eroarea
standard procentuală, pentru a scăpa de unitatea de măsură:
ES%= (ES/Ma)*100
Se consideră că o eroarea standard procentuală cu valori sub 1%
este acceptabilă, în jur de 2% - dubioasă, peste 3% -
inacceptabilă.
Eroarea maximă admisă sau eroarea limită este eroarea pe care
o acceptăm anticipat în alegerea eșantionului, în funcție de
natura cercetării, de precizia cu care vrem să garantăm
rezultatele și de volumul sau mărimea eșantionului.
Eroarea maximă admisă reprezintă intervalul de siguranță în care
se va încadra media universului, cu probabilitatea dată.
Eroarea standard procentuală. Eroare limită.
Eroarea maximă admisă se notează cu litera grecească – D
(delta) și se obține prin înmulțirea valorii testului de semnificație
(t) cu valoarea erorii standard (ES):
D= t*ES
unde: D - eroarea maximă admisă, t - testul de seminifiație, ES-
eroarea standard.
Valoarea erorii maxime admise nu trebuie să fie mai mare de 1,
atunci lucrăm cu valori absolute, sau de 1% - valori procentuale.
Pornind de la formula D= t*ES, putem stabili volumul sau mărimea
eșantionului pe care, efectuând cercetarea, să putem asigura
rezultatele cu un prag de semnificație de 0.05 (5%), 0,01 (1%)
sau 0.001 (0.1%). Cum se procedează?. În formula înlocuim
eroarea standard după formula atât în cazul valorilor medii și a
valorilor procentuale, formula devine:
D = ± t*(s /n) sau D = ± t* ( p*q/n)
n= t* s/ D sau n= (t* p*q)/ D, sau n va fi în ambele cazuri egal
cu pătratul expresiilor din formulele anterioare.
Eroarea standard a valorilor medii
În calculele de determinare a mărimii erorii standard
intervine un factor de corecţie „t”, care depinde de
numărul gradelor de libertate (n-1). Valoarea lui „t” se
.

găseşte în tabele, calculată pentru diferite probabilităţi,


în funcţie de numărul gradelor de libertate.
În concluzie, eroarea standard este constanta care ne
permite să stabilim intervalul valoric în care se
găsește media aritmetică și în jurul căreia se vor
distribui valorile medii de eșantion, cu o anumită
probabilitate.
Estimarea şi testarea ipotezei
Estimarea reprezintă procesul de utilizare a informaţiilor, obţinute
pe bază de eşantion, pentru a caracteriza parametrii populaţiei
statistice. Pentru a face estimări, cercetătorii folosesc principiile
testării ipotezei.
Testarea ipotezei urmăreşte să stabilească validitatea ipotezei
nule în faţa unei ipoteze alternative prin dovezile adunate în
cadrul unui studiu.
Etapele testării ipotezei statistice:
• Transpunerea problemei cercetate în termenii ipotezei
statistice. Ipoteza nulă (H0) decide, apriori, faptul că nu există
nici o diferenţă între grupurile (eşantioanele) studiate.
Concomitent se formulează şi ipoteza alternativă (notată H1),
care se opune ipotezei nule şi afirmă că există o diferenţă între
grupurile (eşantioanele) studiate.
Dacă, urmare studiului, ipoteza nulă este respinsă, ipoteza
alternativă devine concluzie.
Estimarea şi testarea ipotezei
• Stabilirea testului potrivit în testarea ipotezei. Este importantă,
deoarece fiecare test are o distribuţie a probabilităţii. Unele
teste ţin cont de distribuţia normală, altele nu.
• Selectarea nivelului de semnificaţie pentru testul statistic (α).
Reprezintă probabilitatea de a respinge ipoteza nulă adevărată.
Valoarea nivelului de semnificaţie trebuie să fie mică, pentru a
nu respinge greşit ipoteza nulă (0,05; 0,01; 0,001). Această
valoare reprezintă valoarea critică a testului.
• Determinarea valorii la care testul trebuie să ajungă pentru a
putea fi declarată ca fiind semnificativă;
• Efectuarea calculelor;
• Formularea concluziilor. Luarea deciziei este o componentă a
procesului de testare a ipotezei. Cercetătorul trebuie să
folosească datele obţinute pentru a determina una din cele
două decizii posibile – să accepte sau să respingă ipoteza nulă.
Estimarea şi testarea ipotezei
În testarea ipotezei se pot face două tipuri de erori:
• Eroarea de tip I – respingerea ipotezei nule, care în realitate
este adevărată, dar datele studiului indică faptul că ea este
falsă. Probabilitatea de a comite această eroare este denumită
prag de semnificaţie al studiului (p), sau nivel de semnificaţie
alfa (α);
• Eroarea de tip II – acceptarea ipotezei nule, care în realitate
este falsă, dar datele studiului indică faptul că ea este
adevărată. Probabilitatea de a comite eroarea de tip II se
numeşte nivel beta (β).
Probabilitatea respingerii ipotezei nule false se numeşte putere
statistică (1-β) a testului. Puterea este probabilitatea de a
detecta o diferenţă, care într-adevăr există.
Probabilitatea acceptării ipotezei nule adevărate se numeşte nivel
de încredere (1-α) al testului.
Estimarea şi testarea ipotezei
Nivelul de încredere este probabilitatea de a nu găsi nici o
diferenţă, atunci când această diferenţă nu există. Când se ia
decizia de a accepta sau a respinge ipoteza nulă, starea
adevărată a lucrurilor nu este cunoscută.
Indiferent cât de mici ar fi α şi β, întotdeauna există posibilitatea de
luare a deciziei greşite, datorită elementului de hazard. Decizia
de acceptare a ipotezei nule nu demonstrează faptul că ea este
adevărată; o decizie de respingere a ipotezei nule nu
demonstrează faptul că ea este falsă.
Ipoteza nulă se respinge când nivelul de semnificaţie bazat pe
eşantion, depăşeşte nivelul de semnificaţie, stabilit pentru
testarea ipotezei. Pentru a micşora riscul de a comite o eroare
de tip I, nivelul de semnificaţie se stabileşte pentru o
probabilitate mică, de regulă α = 0,05.
Cu cât volumul eşantionului este mai mare, posibilitatea de
respingere a ipotezei nule creşte. Respectiv, cu cât este mai
mare eşantionul, cu atât puterea studiului este mai mare.
Testarea ipotezelor
Pentru testarea diferenţei semnificative statistice între valorile
obţinute în loturile experimentale şi martor sau a ipotezelor se
utilizează testele de semnificaţie. Există teste parametrice și
neparametrice de testare a ipotezelor și diferențelor.
Ce este un test statistic ? •
Este o metodă de decizie care ne ajută la validarea sau
invalidarea cu un anumit grad de siguranță a unei ipoteze
statistice.
Ce test să selectăm ?•
Depinde de:
• tipul datelor(numerice, nominale, ordinale);
• eșantioane independente sau dependente;
• dimensiunile eșantionului(n>30 sau n<30);
• numărul grupelor (1,2 sau mai multe);
• distribuția datelor (simetrică sau asimetrică);
• omogenitatea datelor.
Testul t-Student – variante
Există 3 variante ale testului testul „t-Student”:
• Testul t-Student pentru eșantioane pereche, pentru date
“pereche” (eşantioane dependente);
• Testul „t” pentru date “nepereche” (eşantioane
independente) cu dispersii egale (exemplificat);
• Testul „t” pentru date “nepereche” (eşantioane
independente) cu dispersii inegale (diferite);
Aceste teste diferă prin modul în care se calculează valoarea
coeficientului “t”.
Pentru eşantioane mici există diferenţe între testul „t” şi celelalte
teste de semnificaţie parametrice, dar începând de la n > 15
cifrele testului „t” se apropie de 2, ceea ce corespunde cu
distribuţia normală.
:
Testul t-Student
În cadrul eşantionării, am discutat şi am definit testul "t" am spus
că testul "t" este multiplul erorii standard şi că cu ajutorul lui
stabilim mărimea intervalului de siguranţă. Acest test "t" a cărui
valoare - în cazul în care lucrăm pe eşantioane cu un număr mai
mic de 120 frecvenţe - o luăm din tabela testului "t", se numeşte
"t tabelar". Dar valoarea lui "t" o mai putem obţine şi prin calcul
după formula:
t =D/ sD
acest "t", obţinut raportând valoarea diferenţei (D) la eroarea sa
(sD), se numeşte "t calculat".
În cazul în care dorim să apreciem semnificaţia sau lipsa de
semnificaţie a diferenţei dintre două valori medii sau două
probabilităţi, obţinute pe eşantioane, procedăm în felul următor:
calculăm valoarea lui "t", raportând diferenţa dintre cele două
medii la eroarea sa.
Testul t-Student
unde: t - testul de semnificaţie; D - diferenţa dintre valorile medii sau
procentuale; σD = eroarea diferenţei; x1 şi x2 - valorile medii comparate; p1 şi
p2 - valorile relative comparate; ES1 şi ES2 - eroarea standard,
corespunzător fiecărei valori.
Stabilim apoi valoarea lui "t tabelar“ astfel: dacă numărul
frecvenţelor celor două eşantioane >120 atunci valoarea lui "t
tabelar" =1,96 pentru p = 0,05 (5%); 2,58 pentru p = 0,01 (1%)
sau 3,29 pentru p = 0,001 (0,1%). Dacă numărul însumat de
frecvenţe <120 de frecvenţe, atunci valoarea lui "t tabelar" o
citim în tabela testului “t”” în gradul de libertate dat de numărul
însumat de frecvenţe minus 2: (n1+n2)-2.
Deci, dacă valoarea lui "t calculat" >"t tabelar“, atunci diferenţa
între cele două valori medii sau între cele două probabilităţi este
semnificativă din punct de vedere statistic.
Dacă din contra, valoarea lui "t calculat“<"t tabelar", atunci
diferenţa dintre cele două medii sau dintre cele două
probabilităţi, este nesemnificativă din punct de vedere statistic.
Testul Fisher
Testul Fisher - este un test de semnificație statistică
utilizat în analiza tabelelor de contingență 2x2.
Deși în practică este folosit atunci când dimensiunile
eșantioanelor sunt mici, este valabil pentru toate
dimensiunile eșantioanelor.
Acesta test este numit după inventatorul său, Ronald
Fisher, și este unul dintre clasele de teste exacte,
deoarece semnificația abaterii de la o ipoteză nulă
(de exemplu, valoarea P) poate fi calculată exact.
Se utilizează de asemenea pentru verificarea
egalității dispersiilor a doua variabile independente
repartizate normal.
Testul lui Barnard
Testul lui Barnard - este un test de exactitate folosit în
analiza tabelelor de contingență 2x2.
Examinează asocierea a două variabile categoriale și
este o alternativă mai puternică decât testul exact al lui
Fisher.
Publicat pentru prima dată în 1945 de George Alfred
Barnard, testul nu a câștigat popularitate din cauza
dificultăților de calcul al valorii “p” și a dezaprobării lui
Fisher.
În zilele noastre, pentru eșantioanele mici / moderate
(n<1000), calculatoarele pot calcula testul lui Barnard
în câteva secunde.
Tehnici neparametrice de comparație între grupuri
Tehnicile statistice parametrice (testul t Student și altele)
pleacă de la o serie de condiții privind simetria și
omogenitatea distribuției datelor. Când acestea nu
sunt îndeplinite sunt utilizate tehnicile neparametrice
denumite și tehnici statistice independente de
distribuție a datelor.
Tehnici neparametrice de comparație între 2 grupuri
sunt:
• Tehnica lui X ² (hi patrat);
• Testul U a lui Mann-Whitney (echivalentul testului
parametric t independent);
• Testul Wilcoxon al rangurilor pereche (echivalent
ANOVA masuratori repetate ori t dependent);
Teste neparametrice. Testul lui Χ ²
Se aplică atunci când rezultatele sunt clasificate în funcție de gen,
vârstă, nivel de pregătire, grupuri de tratament sau orice alta
măsură nominala. Proba furnizează un test statistic asupra
semnificației discrepanței dintre rezultatele observate și
așteptate.
Formula lui Χ ²:

unde: FO = frecvența observată; FT =frecvența probabilă


(teoretică, așteptată).
Valoarea lui χ ² obținută pe baza formulei de mai sus se numește
valoarea lui “χ ² calculat”.
Pentru a vedea dacă între distribuții este diferență semnificativă,
se compară χ ² calculat cu χ ² tabelar. Valoarea lui χ ² tabelar se
citește în tabel, conform gradului de libertate care se calculează:
GL = ( Nr. Rândurilor tabelului – 1) x (Nr. Coloanelor tabelului - 1 ),
χ ² calculat > χ ² tabelar - diferența semnificativă statistică.
χ ² calculat < χ ² tabelar - diferența nesemnificativă statistică.
Tipuri de teste
• Testul ANOVA - Compară în același timp mediile mai multor
eșantioane. Ca ipoteză alternativă H1: Cel puțin două medii
diferă semnificativ. Rezultatul este un număr p care se
interpretează ca și la celelalte teste.
Tehnici neparametrice de comparație între mai multe eșantioane:
• testul ANOVA Kruskal-Wallis al rangurilor (echivalent ANOVA
simplă, însa datele sunt convertite în ranguri);
• testul Friedman ANOVA biunivoc al rangurilor (echivalent
ANOVA măsurători repetate).
Testul ANOVA KruskalWallis al rangurilor - este un test non-
parametric utilizat când există mai mult de două grupe
independente. Este comparabil cu o ANOVA simpla din statistica
parametrica. Pentru analiză, datele sunt convertite în ranguri.
Testul Friedman ANOVA biunivoc al rangurilor – testul este
analog tehnicii ANOVA cu măsurători repetate din statistica
parametrică. Rezultatele sunt ordonate pe ranguri și se
utilizează χ ² (hi pătrat) ca test de semnificație.
• Testul U al lui MannWhitney - este analog testului parametric t
independent, fiind una din cele mai puternice probe
neparametrice. Poate fi utilizat atât cu eșantioane mici de
subiecți, cât si cu eșantioane mari și necesită numai măsurători
de tip rang sau când nu îndeplinim condițiile aplicării testului t
independent. Acest test operează cu numere ordinale și grupuri
independente.
• Testul Wilcoxon al rangurilor pereche • Există studii
comparative între două grupe dependente (corelate) care nu
îndeplinesc condițiile parametrice. În astfel de situații trebuie
aplicat acest test care are aceleași principii cu testul t
dependent. Prin testul Wilcoxon se determina mărimea
diferențelor dintre rezultate (spre exemplu înainte și după o
acțiune, test/retest), ordonate după rang.

S-ar putea să vă placă și