Sunteți pe pagina 1din 118

Mihai Covaci

APPLIED STATISTICS IN PSYCHOLOGY


STATISTICĂ APLICATĂ ÎN PSIHOLOGIE
- note de curs -

Österreichisch-Rumänischer Akademischer Verein

Vienna
2020
Author: Mihai COVACI

APPLIED STATICS IN PSYCHOLOGY


STATISTICĂ APLICATĂ ÎN
PSIHOLOGIE
- note de curs -

Publisher:
Österreichisch-Rumänischer Akademischer Verein
ISBN 978-3-902938-52-7
Vienna, 2020
Cuprins

1. Teste neparametrice ............................................... 7


Câteva recapitulări ................................................. 7
Ne/Parametrice .................................................... 13
Dez/Avantaje ....................................................... 15
2. Chi-Square neparametric (Goodness of Fit) și testul
binomial .................................................................. 18
Exemplificări ....................................................... 20
Testul binomial .................................................... 27
3. Testele Runs și Kolmogorov-Smirnov.................. 29
Testul Runs .......................................................... 29
Testul Kolmogorov-Smirnov ............................... 32
4. Testul Mann-Whitney și procesul de atribuire a
rangurilor ................................................................. 38
Aplicații ............................................................... 41
Calcularea rangurilor ........................................... 43
5. Testele Wilcoxon, Sign și McNemar .................... 45
Wilcoxon ............................................................. 45
Exemplificare ...................................................... 48
Testul Semnului ................................................... 50
Testul McNemar .................................................. 51
6. Testele Friedman, Kendall’s W și Cochran’s Q .... 54
Friedman ............................................................. 54
Kendall’s W (coeficientul de concordanță) ........... 57
Cochran’s Q ......................................................... 59
7. Testele Kruskal-Wallis H și testul medianei (teste pt
k eșantioane independente) ...................................... 62
Kruskal-Wallis H ................................................. 62
Testul medianei ................................................... 67
8. Tipurile de erori statistice..................................... 69
Alte explicații ...................................................... 72
Mărimea efectului ................................................ 74
9. Analiza de cluster ................................................ 77
Hierarchical Cluster ............................................. 81
K-Means Cluster .................................................. 82
10. Coeficientul Alfa Cronbach (Cronbach’s Alpha) 86
Alte condiții ......................................................... 90
Limite .................................................................. 93
Exemplificare ...................................................... 94
11. Instrumente și analize primare............................ 97

5
Analize statistice primare ..................................... 99
12. Distribuții și ipoteze ..........................................103
13. Decizie statistică ...............................................109
Bibliografie ............................................................115

6
1. Teste neparametrice

Testele statistice sunt împărțite în programele de


analiză statistică în teste parametrice și teste
neparametrice. Teoretic, analizele neparametrice sunt
asemănătoare cu analizele parametrice. În analizele
neparametrice importanța mediei eșantionului nu mai este
crucială.

Câteva recapitulări
Statistica este disciplina care se ocupă cu
sintetizarea, prezentarea, analiza și evaluarea datelor
numerice în scopul evidențierii semnificațiilor statistice
propuse sau asumate. Astfel:
- statistica este un instrument al metodei științifice
în psihologie, care are câteva componente
(observația, elaborarea ipotezei, analiza datelor
empirice, concluzia);
- variabilele sunt caracteristici ale realității care pot
lua valori diferite și sunt direct măsurabile;

7
- variabilele latente exprimă constructe psihologice
măsurate indirect prin intermediul unor indicatori
(variabile observate);
- statistica descriptivă se ocupă cu organizarea,
sintetizarea, descrierea și prezentarea datelor;
- statistica inferențială se ocupă cu generalizarea
rezultatelor la nivelul populației din care a fost
extras eșantionul și susține concluzii cu privire la
ipotezele cercetării;
- variabilele dependente sunt cele care fac obiectul
interesului direct al cercetătorului, fiind măsurate
în vederea extragerii unei concluzii;
- variabilele independente reprezintă condiția sau
contextul din care rezultă variația valorilor
variabilei dependente și sunt acele variabile pe care
le manipulează cercetătorul;
- populația reprezintă totalitatea unităților de
informație care constituie obiectivul de interes al
unei cercetării. De regulă, în psihologie unitățile de
informație reprezintă persoane;
- eșantionul reprezintă o selecție, pe baza unei
anumite reguli, a unităților de informație, cu scopul

8
de a trage concluzii asupra populației. Un eșantion
este reprezentativ atunci când caracteristicile sale
reproduc în mod corect caracteristicile populației
din care a fost extras. Reprezentativitatea
eșantionului este întotdeauna imperfectă (conține o
anumită eroare);
- măsurarea înseamnă a atribui numere sau
simboluri unor caracteristici ale realității
(obiective sau subiective) în funcție de anumite
aspecte (cantitative sau calitative);
- nivelurile de măsurare sunt: nominal, ordinal,
interval, raport (sunt ordonate ierarhic ceea ce
reprezintă că scalele superioare includ proprietățile
scalelor inferioare). Nivelurile mai sunt denumite
și scale de măsurare. În programele statistice
coloane Measure conține trei opțiuni de codificare
(nominal, ordinal, scale). Pentru primele două
opțiuni (nominal și ordinal) măsurătorile sunt
echivalente. Pentru variabilele de interval și de
raport se utilizează opțiunea/codificarea Scale;
- măsurarea pe scală nominală, identifică prezența
unei anumite caracteristici, fără a avea o

9
semnificație cantitativă. Variabilele nominale se
referă la caracteristici calitative și categoriale (gen,
temperament, culori etc). aceste variabile exprimă
cel mai redus nivel de măsurare, codurile valorilor
sunt arbitrare, valorile au doar o semnificație
calitativă, nu suportă operații aritmetice, în afară
de însumare și pot fi grupate sau rafinate;
- măsurarea pe scală ordinală, identifică raportul de
ordine între valori (mai mare/mai mic; mai
mult/mai puțin), fără a preciza distanța cantitativă
sau intervalele dintre acestea. Variabilele ordinale
se referă la caracteristici calitative. Exemple:
poziția pe lista de promovați în funcție de notă,
clasele de vârstă (1=20-30 ani, 2=31-40 ani, 3=41-
50 ani, 4=51-60 ani), anul de studiu (1, 2, 3);
- măsurarea pe scală de interval aduce în plus față
de scala ordinală precizarea distanței dintre ranguri
sau dintre valori. Din acest motiv este o scală de
tip cantitativ (evaluarea satisfacției pe o scală de la
1 la 10, azi sunt 70 C față de 140 C de ieri);
- măsurarea pe scală de raport aduce în plus față de
scala de interval, raportarea la o valoare minimă

10
absolută. Unele caracteristici au născut câteva
controverse în psihologie (pornind de la întrebarea
dacă există valori de acest tip? Adică există
inteligență=0, anxietate=0 care teoretic nu sunt
posibile la ființele vii). În practică, distincția
dintre variabilele de interval și de raport nu este
relevantă, ambele suportând aceleași proceduri
statistice sau sunt codificate sub aceeași
măsurătoare (Scale) în programele statistice;
- tipul scalei de măsurare nu se identifică cu tipul
variabilă, chiar dacă într-o situație concretă se
folosește expresia variabilă ”nominală”,
”ordinală” sau ”de interval”. Acest lucru se reflectă
și în faptul că o variabilă exprimată la un nivel
superior de măsurare (de exemplu de interval sau
de raport) poate fi exprimată și la un nivel inferior
(ordinal sau nominal);
- statisticile parametrice se utilizează pentru analiza
variabilelor măsurate pe scale cantitative
(interval/raport);

11
- statisticile neparametrice se utilizează pentru
analiza variabilelor măsurate pe scale calitative
(nominal/ordinal);
- în cazul variabilelor categoriale, valorile lor
descriu apartenența la o categorie, indiferent pe ce
nivel de măsurare sunt exprimate;
- erorile de măsurare reprezintă variații ale datelor
cercetării care provin din surse care nu vizează în
mod direct obiectul cercetării (sau zisul scor
adevărat);
- erorile aleatorii pot afecta orice valoare, fără a
afecta media eșantionului;
- erorile sistematice afectează o parte sau toate
valorile distribuției, modificând media
eșantionului;
- atunci când variabila dependentă implicată într-un
studiu statistic este măsurată pe o scală de tip
calitativ (nominal sau ordinal), se aplică una dintre
procedurile statistice neparametrice. În cazul
variabilelor măsurate pe scale cantitative se aplică,
de regulă, statistici parametrice, fără ca acest lucru
să fie posibil întotdeauna;

12
- studiile de tip corelațional pun în evidență relația
dintre variabile fără a susține concluzii de tip
cauzal. Studiile de tip experimental pun în evidență
relații de tip cauzal între variabile (Popa, Aplicaţii
SPSS - Prezentare generală , 2006, pp. 12-13, 15).
Procedura de testare a unei ipoteze statistice
elaborate și asumate (printr-un un test statistic) constă în
următoarele etape:
- formularea unei ipoteze H0 și a unei ipoteze
alternative H1;
- obținerea de date statistice;
- calcularea datele experimentale pentru a vedea
distribuțiile aferente ipotezei H0;
- decizia pe baza probabilității critice și a nivelului
de semnificație (α) sau decizia pe baza regiunii de
respingere corespunzătoare nivelului α fixat.
(Clocotici & Stan, 2001, p. 175).

Ne/Parametrice
După opinia unor autori, “dezvoltarea testelor
neparametrice se datorează în special sociologiei unde se

13
punea adesea problema apartenenței la diferite clase
sociale” (Lungu, p. 2).
Multe dintre tehnicile statistice implică estimarea
parametrilor unei populații (medii, abateri standard,
diferențe dintre medii sau intensitatea asocierii dintre
variabile etc). Acest tip de teste statistice (ca testele t și r
pentru asociere) presupun întotdeauna îndeplinirea unor
condiții pentru aplicarea lor, legate fie de parametrii fie de
forma distribuției populației. De aceea aceste teste se și
numesc teste parametrice. Prin contrast, testele
neparametrice nu fac nici un fel de estimări ale
parametrilor populației din care a fost extras eșantionul
particular de date și de aceea ele se mai numesc și teste
non-distribuționale. Cel mai mare avantaj pe care acest tip
de teste îl au este acela de a nu se sprijini pe asumpții
legate de populația din care a fost extras eșantionul. Aceste
teste sunt mai sensibile la mediană decât la medie ca
tendință centrală. Marele dezavantaj al testelor de acest fel
este acela că, fiind mai puțin puternice statistic decât
testele parametrice, pentru a atinge o putere echivalentă cu
acestea ele reclamă un număr de date semnificativ mai
mare decât testele parametrice. Și totuși, în mod

14
paradoxal, ele sunt utilizate preponderent pentru
eșantioane de volum mic. Valorile extreme sau aberante,
care la testele parametrice au un impact atât de important
prin modificarea inflaționistă a variabilității datelor, și
implicit a factorului de eroare, au un efect foarte redus,
practic neglijabil asupra testelor neparametrice. Aceasta
deoarece testele de acest tip se bazează pe ranguri (mult
mai stabile), și nu pe valorile brute ale scorurilor, ca în
cazul testelor parametrice: prin rangare forma distribuției
devine mai puțin importantă.” (Clinciu, 2013, p. 133).
Este important să reținem faptul că alegerea
statisticii parametrice sau neparametrice se face pornind
de la natura variabilei dependente. Atunci când aceasta
este de tip cantitativ, și nu se abate de la condițiile impuse
de procedura statistică pe care dorim să o aplicăm, se
utilizează teste statistice parametrice (Popa, Aplicaţii
SPSS - Prezentare generală , 2006, pp. 14-15).

Dez/Avantaje
Testele neparametrice prezintă, în raport cu cele
parametrice, o serie de avantaje, dar și câteva dezavantaje.
Principalele avantaje sunt:

15
- se pot utiliza pe scale ale căror calități de măsurare
sunt “slabe” (ordinale, nominale);
- pot fi utilizate în cazul variabilelor afectate de
valori extreme care nu pot fi eliminate;
- utilizarea lor nu presupune condiții la fel de
restrictive ca testele parametrice (normalitatea
distribuției, omogenitatea varianței, etc.);
- pentru anumite proceduri, calculele sunt relativ
simple și ușor de efectuat, chiar și fără utilizarea
tehnicii de calcul;
- conceptele și metodele statisticii neparametrice
sunt ușor de înțeles.
Printre dezavantajele testelor neparametrice, sunt de
menționat:
- se bazează pe măsurări pe scale nominale și
ordinale, care sunt, prin natura lor, măsurări mai
puțin precise decât cele pe scale cantitative (de
interval sau de raport);
- au o „putere” mai redusă decât testele parametrice
de a proba că ipoteza cercetării este adevărată;
- tind sa fie utilizate, datorită relativei lor simplități,
și în situații în care se pot utiliza teste parametrice.

16
Este important să reținem faptul că, atunci când
sunt întrunite condițiile pentru aplicarea unui test
parametric, nu este recomandabilă transformarea
variabilei și utilizarea unui test neparametric;
- deși se bazează pe calcule elementare, adesea
acestea pot fi destul de complexe și de laborioase;
- principiul care stă la baza evaluării mărimii
efectului pentru testele parametrice (proporția
explicată a varianței) nu este ușor de aplicat în
cazul testelor neparametrice. Ca urmare, pentru
multe dintre testele neparametrice nu se poate
calcula un indice de mărime a efectului.” (Popa,
Aplicaţii SPSS - Prezentare generală , 2006, p.
2/11).

17
2. Chi-Square neparametric (Goodness of Fit) și testul
binomial

S-ar putea spune că este echivalentul testului One


sample t test doar că spre deosebire de acesta, Chi-Square
neparametric analizează fiecare categorie de frecvențe
separat și împarte numărul de subiecți la numărul de
răspunsuri (sau categorii de frecvențe) în proporții egale.
Specificul acestui test este că poate fi utilizat pentru un
singur grup și chiar pentru o singură variabilă (indiferent
de tipul acesteia).
Practic, testul χ2 permite analiza doar a unei
singure variabile, comparând frecvențele teoretice cu cele
observate (Opariuc-Dan, 2011, p. 254).
În aplicare acestui test, problema pe care dorim s-
o observăm este dacă există vreo diferență semnificativă
statistic între categoriile de răspunsuri la o anumită
întrebare. În cazul unei distribuții nominale, testul Hi-
pătrat este folosit pentru a verifica dacă distribuția
teoretică a frecvențelor relative (ipoteza de nul presupune
că toate categoriile au proporții egale) este egală. De
asemenea, poate verifica dacă distribuția existentă este

18
egală cu o distribuție de frecvență propusă. Aplicarea
acestui procedeu de testare presupune următorul demers:
meniul Analyze – Non-Parametric Statistics – Chi
Square…
“Executarea comenzii determină lansarea ferestrei
de configurare pentru testul statistic χ2 . Fereastra are mai
multe elemente de noutate, astfel încât vom insista puțin
asupra ei. Lista variabilelor din baza de date se află în
partea stângă, lista variabilelor incluse în vederea analizei
o regăsim în partea dreaptă. Secțiunea „Expected Range”
permite configurarea modalității de calcul a amplitudinii
frecvențelor teoretice. Astfel, cazul cel mai des întâlnit
este „Get from data”, situația în care programul calculează
automat amplitudinea frecvențelor estimate, pornind de la
datele existente. Se poate alege și opțiunea „Use specified
range”, caz în care frecvențele estimate sunt cuprinse între
limita minimă („Lower”) și limita maximă („Upper”).
Această ultimă situație se folosește în cazul în care dorim
să comparăm frecvențele observate cu alte frecvențe.
Relaționată cu această secțiune se află și secțiunea
„Expected values”, care se referă nu la amplitudinea
frecvențelor estimate ci chiar la valoarea acestora. Cazul

19
tipic este „All categories equal”, adică frecvențele
observate se compară cu situația în care fiecare categorie
ar avea o frecvență de apariție teoretică, egală. Opțiunea
„Values” se folosește la fel ca și opțiunea „Use specified
range” din secțiunea anterioară. Valorile pot fi adăugate
folosindu-se butonul „Add”, pot fi modificate cu butonul
„Change” sau pot fi eliminate cu ajutorul butonului
„Remove”. Lansarea efectivă a analizei se face prin
apăsarea butonului „OK”. Programul furnizează două
tabele.” (Opariuc-Dan, 2011, pg. 254-256).
Exemplificări
Să presupunem că vrem să evaluăm frecvențele a
cinci note obținute de studenți la un examen. Cele 5 note
sunt 6, 7, 8, 9 și 10 iar numărul de studenți este de 60. Vom
crea o variabilă Note după care vom insera frecvențele
obținute. Cele 5 note au fost etichetate astfel: 6=Nota 6;
7=Nota 7 și tot așa până la 10.

20
Ulterior selectăm din meniul Analyze – Non-
Parametric Statistics – Chi Square… Transferăm Note

21
(etichetate Note statistica) în câmpul Test Variables și
lăsăm celelalte opțiuni marcate prin default. Click pe OK.
Rezultatul obținut este următorul: pentru Nota 6 numărul
frecvențelor (sau al studenților) este 8 (sau 8 note de șase).
Însă frecvența așteptată era de 12. Pentru nota 7 numărul
frecvențelor era 10 iar cea așteptată era tot 12 și așa mai
departe până la nota 10. De reținut că programul împarte
numărul de frecvențe introduse la numărul de categorii ale
acestora. Altfel spus 60 de frecvențe sau răspunsuri la cele
5 categorii de note (6, 7, 8, 9 și 10). De aici avem
“Expected N” sau numărul de frecvențe (persoane) care în
mod normal trebuiau să răspundă la acea categorie.
Ultimul câmp (Residual) din primul tabel ne arată și
valoarea reziduală pentru fiecare categorie.

22
23
În al doilea tabel se poate vedea outuput-ul acestei
analize. Raportarea output-ului se poate face astfel: nu a
existat nici o diferență semnificativă statistic între
frecvențele observate și frecvențele așteptate pentru cele 5
categorii de note (χ2 = 3.33, df = 4, p = 0.504).
Pentru analiză suplimentară, să presupunem că
sponsorii studenților se așteptau ca aceștia să nu obțină
rezultatele pe care le-au obținut. Astfel așteptările acestora
erau următoarele: nota 6 să fie obținută de un număr de 16
studenți; nota 7 de un număr de 14 studenți; nota 7 de un
număr de 12 studenți; nota 8 de 10 studenți și nota 10 de 8
studenți. Aspect important: numărul rezultatelor trebuie să
fie egal cu numărul frecvențelor. Pentru a vedea dacă
există semnificație statistică între așteptările sponsorilor și
realitatea întâmplată, se va proceda ca în cazul precedent
însă la opțiunea Expected Values introducem pe rând
estimările sponsorilor pentru fiecare din cele cinci
categorii de note (introducerile se vor face în ordinea
crescătoare a frecvențelor/notelor) și click pe Add după
fiecare introducere. După care click pe OK.
În al doilea tabel se poate vedea outuput-ul acestei
analize. Raportarea output-ului se poate face astfel: există

24
diferență semnificativă statistic între frecvențele observate
și frecvențele (numărul studenților) anticipate/așteptate de
sponsori pentru cele 5 categorii de note (χ2 = 14.74, df =
4, p = 0.005). Indirect spus, studenții au fost cu mult peste
așteptările/estimările sponsorilor în ce privește notele
obținute la examenul de statistică (hooray!)

25
Mai trebuie menționat că în câmpul Expected Range se pot
introduce valorile minime și maxime pentru care dorim să
facem o analiză la un moment dat. Să presupunem că
dorim să folosim acest test pe o variabilă nominală Gen.
Vom crea variabila și vom codifica frecvențele astfel:
1=Masculin; 2=Feminin și 3=Nedefinit. Dacă dorim să
excludem frecvența “3” din cadrul analizei, vom completa
la Expected Range – Use specified range la Lower 1 și la
Upper 2. Astfel deși existau frecvențe “3” ele/ei au fost
excluse din analiză (deocamdată).

26
Testul binomial
“O variantă a acestui test, pentru situația în care
variabila are doar două categorii (variabile de tip Masculin
– Feminin sau Da – Nu) este testul binomial. Acesta poate
fi lansat din aceeași categorie („Nonparametric Tests”),
opțiunea „Binomial…”, fiind mai precis decât chi-pătrat
atunci când variabila are exact două categorii.” (Opariuc-
Dan, 2011, p. 257).
Ipoteza nulă a acestui nou studiu este aceea că nu
există nicio diferență semnificativă între frecvențele
studenților din anul 1 și cei din anul 2. Desigur, în această
situație, utilizarea testului binomial este cea mai adecvată.
Fereastra de configurare a testului binomial nu pune
27
probleme deosebite. Diferența față de testul anterior
constă doar în titulatură. Avem acum secțiunea „Define
Dichotomy” în care putem alege calculul acesteia automat
din date cu ajutorul opțiunii „Get from data” sau putem
introduce o valoare în caseta „Cut point” pentru a construi
instantaneu una (sau echivalentul lui Use specified range).
Ultima opțiune o vom alege dacă variabila nu are o
dihotomie reală. De exemplu, dacă avem variabila
„studenți”, cu 3 frecvențe și dorim să folosim această
variabilă în testul binomial. În acest caz, în caseta „Cut
point” vom introduce una din frecvențe/valori iar
programul va transforma instantaneu variabila într-una
dihotomică – subiecții din anul3 vor fi excluși. Caseta de
text „Test proportion” permite specificarea proporției
teoretice cu care se va face comparația. Implicit este
inclusă valoarea 0,50, ceea ce arată o comparație cu
situația în care cele două grupuri ar avea proporții egale,
50% și 50%. Interpretarea rezultatului se face asemănător
precum la testul precedent.

28
3. Testele Runs și Kolmogorov-Smirnov

Testul Runs
Testul neparametric Runs verifică dacă ordinea
prezențelor a două valori ale unei variabile este aleatorie
sau întâmplătoare. Un run exprimă de fapt un set de
observații consecutive care sunt sau mai mari sau mai mici
decât o valoare specificată. Un run mai poate fi identificat
cu o secvență de observații asupra valorilor variabilei.
Dacă un eșantion cuprinde prea multe sau prea puține runs
rezultă că eșantionul nu este extras aleatoriu.
Punctul de divizare/împărțire sau valoarea
specificată este un punct critic care dihotomizeazã
variabilele pe care le alegem. Se poate folosi (ca punct de
divizare) media, mediana, modulul sau o valoare specifică
ca punct de divizare. Înregistrările cu valori mai mici decât
punctul de divizare sunt atribuite unui grup, iar
înregistrările cu valori mai mari sau egale cu punctul de
divizare sunt atribuite altui grup. Pentru fiecare punct de
divizare ales se aplică un test. Opțiunea Custom ofer[
posibilitatea introducerii unei valori ca punct de divizare
și astfel pragul de întrerupere va împarte înregistrările în

29
două categorii: cele cu valori mai mari decât punctul de
întrerupere la un grup și restul cazurilor la cel de-al doilea
grup.
Accesarea testului se face prin meniul Analyze –
Non-Parametric Statistics – Runs… Se transferă variabila
supusă analizei și din opțiunea Cut point se bifează punctul
de divizare dorit.

30
Ipotezele propuse. H0: prezența valorilor în cadrul
variabilei Note nu este aleatorie. H1: prezența valorilor în
cadrul variabilei Note este aleatorie. Reguli de decizie:
Zcalculat ≤ Zteoretic – se acceptă H0; Zcalculat > Zteoretic – se
respinge H0; sigcalc > 0.05 – se acceptă H0; sigcalc < 0.05 –
se respinge H0. Interpretări posibile: Z calculat pentru
medie (-2.34) > Z teoretic (±1.96). Sig. calculat (0.019) <
0.05. Prin urmare se acceptă ipoteza H0; Z calculat pentru
mediană (-1.66) < Z teoretic (±1.96). Sig. calculat (0.96)
> 0.05. Prin urmare se acceptă ipoteza H1; Z calculat
pentru mod (-3.61) > Z teoretic (±1.96). Sig. calculat
(0.001) < 0.05. Prin urmare se acceptă ipoteza H0. Astfel,

31
cu un risc de 5% putem afirma că prezența valorilor în
cadrul variabilei Note nu este/este aleatorie.
O scurtă precizare. Pentru acest tip de test, PSPP-
ul calculează semnificația prin inversarea algoritmului.
Astfel o valoare a lui p de 2.000 înseamnă de fapt 0.000.
Valorile reale ale lui p se calculează prin scădere din
2.000. Astfel p=1.981 se calculează scăzând 1.981 din
2.000 = 0.019 deci semnificativ statistic. Alt exemplu:
p=1.904 înseamnă de fapt p=0.96 adică nesemnificativ
statistic. În cazul în care p=0.000 vom rămâne la valoarea
specificată.

Testul Kolmogorov-Smirnov
Testul Kolmogorov-Smirnov (K-S) One sample
(gradul de corespondență) se utilizează pentru un singur
eșantion și compară funcțiile distribuției cumulative
observată pentru o variabilă cu o distribuție teoretică
existentă.
Distribuția teoretică poate fi:
- normală - distribuție ce urmează legea
normalității;

32
- uniformă - distribuția în care probabilitatea de
apariție a oricărei valori este aceeași (constantă);
- Poisson - lege specifică proceselor cu o frecvență
mică de producere sau o distribuție de probabilitate
discretă care depinde de un parametru. Variabila Poisson
este o variabilă aleatorie;
- exponențială - se referă la distribuția de timp între
evenimente independente care apar cu o rată constantă
sugerând astfel o nouă probabilitatea de apariție a
evenimentelor.
Din cele patru tipuri de distribuții, se recomandă
utilizarea distribuției uniforme.
Zetul Kolmogorov Smirnov este calculat pe baza
celei mai mari diferențe (în valoare absolută) dintre
distribuția cumulativă observată și cea teoretică. Prin acest
test se testează dacă observațiile provin dintr-o distribuție
specificată.
Testul de normalitate (K-S) testează gradul de
suprapunere dintre distribuția cumulativă a variabilei
analizate și distribuția cumulativă a variabilei care
urmează forma curbei Gauss.

33
Probabilitatea distribuțiilor, preluat de pe (TUTORIALS)

Testul Kolmogorov-Smirnov se utilizează


îndeosebi când avem eșantioane cu mai mult de 50 de
scoruri. Interpretarea testelor de normalitate este legată de
faptul că, pe măsură ce eșantionul este mai mic crește
dificultatea aprecierii corecte a normalității distribuției
unei variabile. Pentru mai puțin de 5 valori, programele
statistice nu mai calculează testul de normalitate chiar
dacă este cerut. Pentru un grad de încredere acceptabil în
rezultatele testelor de normalitate distribuția trebuie să
aibă cel puțin câteva zeci de scoruri. În concluzie

34
interpretarea rezultatului la testele de normalitate depinde
simultan de valoarea lui p (Sig.).
Accesarea testului se face prin meniul Analyze –
Non-Parametric Statistics – 1 Samples K-S… Se transferă
variabila supusă analizei în Test variable list și din
opțiunea Test Distribution se bifează distribuția teoretică
dorită. Nu trebuie uitat faptul că: media și abaterea
standard a eșantionului sunt parametrii pentru o distribuție
normală; valorile minime și maxime ale distribuției
definesc intervalul unei distribuții uniforme; media
eșantionului este parametru pentru distribuția Poisson;
media eșantionului este și parametru pentru distribuția
exponențială.

35
Ipotezele propuse. H0: variabila Note urmează o
distribuție normală. H1: variabila Note nu urmează o
distribuție normală. Reguli de decizie: Zcalculat < Zteoretic –

36
se acceptă H0; Zcalculat > Zteoretic – se respinge H0; sigcalc >
0.05 – se acceptă H0; sigcalc < 0.05 – se respinge H0.
Interpretări posibile: Zcalculat pentru distribuția
normală (1.35) < Zteoretic (±1.96) (Sig. calculat (0.038) <
0.05). Prin urmare se acceptă ipoteza H1; Zcalculat pentru
distribuția uniformă (1.55) < Zteoretic (±1.96) (sigcalc (0.011)
< 0.05). Prin urmare se acceptă ipoteza H1; Zcalculat pentru
distribuția Poisson (1.65) < Zteoretic (±1.96) (sigcalc (0.005)
< 0.05). Prin urmare se acceptă ipoteza H1. Zcalculat pentru
distribuția Exponential (7.75) > Zteoretic (±1.96) (sigcalc
(0.005) < 0.05). Prin urmare se acceptă ipoteza H1. Astfel,
putem afirma că valorile distribuțiilor teoretice normale,
uniforme și a celei Poisson pentru variabilei Note nu este
normală. Și pentru valorile distribuției teoretice
Exponențiale este/sunt normală.

37
4. Testul Mann-Whitney și procesul de atribuire a
rangurilor

Acest test se poate aplica în PSPP doar prin


utilizarea sintaxei. Astfel se accesează meniul File – New
– Syntax. În noua fereastră care apare se tastează
următoarea sintaxă:
NPAR TEST
/MANN-WHITNEY = Note BY An(1,2).
Run – All.

Testul U Mann-Whitney se utilizează pentru două


eșantioane independente și este unul dintre cele mai
utilizate teste/tehnici de analiză a datelor din sfera
neparametrică, alături de testul Wilcoxon pentru
eșantioane dependente (perechi). De altfel, unii autori
chiar îl denumesc testul U Mann-Whitney-Wilcoxon nu
pentru că cele două teste ar reprezenta același lucru, ci
pentru a reflecta contribuția celor trei statisticieni la
dezvoltarea testului U. Testul se aplică, la fel ca și proba
medianei, rangurilor pe care le au datele, nefiind sensibil
la distribuția acestora, ci doar la numărul de cazuri

38
(Opariuc-Dan, 2011, p. 192). Testul U Mann-Whitney se
bazează, pe ierarhia rangurilor observațiilor din cele două
grupuri” (Lungu, p. 182). Testele non-parametrice nu țin
cont de valoarea variabilelor, ci numai de ordinea lor (rank
tests), adică dacă sunt mai mari sau mai mici una față de
cealaltă, indiferent de ordinul de mărime.
Această tehnică de testare a ipotezelor relative la
diferențe este o alternativă foarte puternică la testul t
pentru eșantioane independente. Utilizarea sa presupune
prezența a două condiții: condiția de normalitatea pentru
populația din care a fost extras eșantionul nu poate fi
susținută; nivelul minimal de măsurătoare este scala
ordinală, unde cel mai indicat lucru este rangarea datelor.
Însă este o alternativă valabilă și pentru scalele de interval
sau de raport în care condiția de normalitate a distribuției
datelor este compromisă (Clinciu, 2013, p. 134).
Testul Mann-Whitney U este asemănător în multe
privințe cu testele parametrice pentru diferența dintre
mediile aritmetice a două eșantioane independente. În
ambele cazuri, comparăm două eșantioane independente
pentru a face inferențe despre diferențele dintre cele două
populații de referință și comparăm rezultatul calculării

39
testului statistic cu distribuția de eșantionare a rezultatelor
tuturor eșantioanelor posibile. Pe de altă parte, acest test
se bazează pe ordonarea scorurilor eșantioanelor, astfel că
este aplicabil la date de nivel ordinal (Gheorghiu, 2003, p.
155).
Utilizarea testului Mann-Whitney este indicată, cu
predilecție, atunci când variabila pentru care se efectuează
compararea populațiilor este continuă, dar nu se poate
decide asupra normalității ei. În această situație, nu se mai
poate aplica testul Student și s-a dezvoltat o procedură
specifică, nu singura, de altfel. Prin modul de aplicare,
testul U poate fi utilizat, și pentru compararea a două
mărimi ordinale, cu relativ puține valori determinate.
Testul este denumit uneori test de verificare a
omogenității.
Dacă avem două serii de date independente în mod
cert ele sunt analizate/gândite ca provenind din două
eșantioane independente de volum n, respectiv m. Ipoteza
nulă este aceea a identității repartițiilor. Dacă variabila
este continuă, atunci identitatea se reflectă în egalitatea
mediilor, medianelor etc. în acest caz, se poate considera
că testul este unul de comparare a valorilor medii. Practica

40
arată de altfel, că testul U este mai sensibil la diferențe ale
mediilor decât la diferențe ale dispersiilor. Ipoteza
alternativă este nedirecțională și afirmă că repartițiile sunt
distincte în cele două populații (Clocotici & Stan, 2001,
pp. 207-208).

Aplicații
Să presupunem că la nivelul celor trei ani de la
psihologie avem variabila Note cu rezultate pentru 60 de
studenți. Mai departe, dorim să vedem dacă există
diferență între notele studenților indiferent de anul de
studiu sau raportat la anii de studiu. Problema este una
tipică pentru a fi rezolvată cu testul t al diferenței dintre
mediile a două eșantioane independente. Avem o variabilă
independentă de tip nominal-dihotomic și una dependentă,
de tip interval/raport. Din păcate, analiza preliminară a
variabilei dependente (Note) relevă abateri mari de la
condițiile de normalitate (un indice de asimetrie, boltire
etc., disproporționate) precum și o slabă reprezentativitate
a mediei, ambele datorate, mai ales, prezenței unei/unor
valori extreme. După ce verificăm corectitudinea valorii
respective, ajungem la concluzia că ea nu poate fi

41
eliminată și, ca urmare, nu este recomandabilă utilizarea
unui test parametric. Într-o situație de acest gen este
aplicabil testul “Mann-Whitney U” pentru date ordinale
(Popa, Aplicaţii SPSS - Prezentare generală , 2006).
Prin urmare accesăm File – New – Syntax. În noua
fereastră care apare se tastează următoarea sintaxă:
NPAR TEST
/MANN-WHITNEY = Note BY An(1,2).
Unde Note este variabila dependentă iar An este variabila
independentă. Cifrele din paranteză semnifică codificările
celor doi ani (1=An 1 și 2=An 2). Puteam alege și 1,3 dacă
în tabel sunt incluse notele anului 3. Sau 2,3 1,3. Important
este să se rețină că trebuie să fie două grupe/eșantioane.
La final click pe Run – All. Se vor genera două
tabele

42
Pentru primul set de tabele, rezultatele
analizei/testului U Mann-Whitney evidențiază că scorurile
la notele studenților din anul 1 nu sunt semnificativ diferite
comparativ cu notele studenților din anul 2 (U = 209.5, N1
= 20, N2 = 22, Z = .27, p = .785). Pentru al doilea set de
tabele, rezultatele analizei/testului U Mann-Whitney
evidențiază că scorurile la notele studenților din anul 1
sunt semnificativ diferite față de cele ale anului 3 (U = 107,
N1 = 20, N2 = 18, Z = -2.17, p = .03).

Calcularea rangurilor
Să presupunem că dorim să calculăm rangurile la
cei 60 de studenți de la psihologie care au notele între 4 și
10. Mai întâi trebuie văzut câte grupuri de note avem,
adică grupul cu nota 4, cu nota 5 etc. În total avem 7

43
grupuri. Ulterior trebuie să calculăm câți studenți avem
pentru fiecare grup. Pasul următor este atribuirea pozițiilor
de la 1 la n pentru fiecare student începând de la grupul
mai mic sau mai mare. După atribuirea pozițiilor, se
însumează numerele pozițiilor de pe fiecare grup și se
împarte la numărul de studenți din acea categorie. Cifra
rezultată în urma acestei împărțiri reprezintă rangul
atribuit acelei note. Acest aspect poate fi calculat automat
de programele statistice. În cazul PSPP se urmează calea
Transform – Rank cases.

44
5. Testele Wilcoxon, Sign și McNemar

Wilcoxon
Este o alternativă neparametrică a testului t pentru
eșantioane dependente. Acest test detectează diferențele
între distribuțiile a două eșantioane dependente extrase din
aceeași populație și/sau testează dacă există sau nu
diferențe între valorile variabilelor. Dacă testul t pentru
eșantioane dependente examinează existența diferențelor
semnificative între media înregistrărilor, testul Wilcoxon
analizează diferențele semnificative între mediile
rangurilor.
Întemeierea acestui test se sprijină pe supoziția
potrivit căreia dacă distribuția populațiilor din cele două
condiții experimentale este identică va exista un număr
relativ apropiat, aproximativ egal, al diferențelor negative
și pozitive dintre perechi. În felul acesta suma rangurilor
dintre diferențele pozitive și negative nu va varia pe o
extindere prea mare. Dacă totuși distribuția celor două
eșantioane nu este aceeași (adică ele nu reprezintă o
singură populație) se poate aștepta să fie mai multe
diferențe de ranguri pentru un semn decât pentru celălalt

45
semn. Astfel, cu cât suma rangurilor ce apar mai puțin este
mai mică, cu atât mai mult populațiile reprezentate de cele
două condiții sunt mai diferite (Clinciu, 2013, p. 138).
Acest test se folosește atunci când planul de
cercetare presupune măsurări repetate și utilizăm
eșantioane perechi. Proba ne permite să analizăm
semnificația diferențelor care apar între cele două serii de
măsurători. Prin urmare, accentul nu se pune numaidecât
pe valori, ci pe diferențele care apar între valori diferite
sau altfel spus la semnul diferențelor dintre valori. Ipoteza
nulă vizează egalitatea proporțiilor de semne + și - în șirul
de date comparative (Opariuc-Dan, 2011, p. 200).
Examen Examen
Subiecți Diferența
PID Statistică
1 4 7 -3
2 5 7 -2
3 4 7 -3
4 5 4 +1
5 5 7 -2
6 5 7 -2
7 5 6 -2

46
8 8 8 0
9 7 7 0
10 6 6 0
11 8 8 0
12 8 8 0

Astfel se poate observa că în tabel avem șase valori


negative rezultate din scăderea valori (nota) numărul doi
din valoarea (nota) numărul unu. Și avem și o valoare
pozitivă. Celelalte valori (note) sunt excluse din analiză
datorită corespondenței identitare. Analiza statistică se va
face între valorile pozitive și negative și care evident, sunt
diferite de zero.
Testul Wilcoxon se folosește atunci când se
măsoară aceeași variabilă continuă în două momente de
timp diferite chestionând aceiași respondenți și nu se
dorește sau nu este posibil ca distribuția continuă să fie
tratată ca fiind parametrică.
Câteva dintre asemănările testului T Wilcoxon cu
testul U Mann-Whitney: în ambele este implicată operația
de rangare; în ambele ipoteza specifică se susține cu atât
mai mult cu cât valoarea obținută la test este mai mică
47
decât valoarea tabelară pentru situația respectivă; ambele
sunt teste de putere mică, care în principiu ar avea nevoie
de numere mari pentru a fi mai concludente, dar în realitate
se aplică pentru numere mici, de regulă sub 20 de cazuri;
pentru ambele, efectivele mai mari sunt aproximate prin
distribuția normală z (Clinciu, 2013, p. 139).

Exemplificare
Să presupunem că dorim să vedem dacă există
diferență între notele obținute de același grup la două
discipline diferite. Vom parcurge următoarele etape:
formulăm ipoteza nulă (diferența dintre ranguri este egală
cu 0); calcularea diferenței fiecărei perechi, di = xi – yi ,
unde xi , yi , reprezintă perechea de cazuri observate;
acordarea rangurilor pentru fiecare diferență neluând în
calcul semnul (de exemplu, se va acorda rangul 1 celei mai
mici diferențe absolute, rangul 2 celei ce urmează imediat
după indiferent de semnul care îl au cele două valori); se
vor acorda etichete fiecărui rang cu semnul corespunzător
diferenței; calcularea sumei pentru rangurile pozitive și a
sumei pentru rangurile negative; totalul celor două sume

48
ar trebui să fie egal cu n(n+1)/2, unde n – numărul de
perechi din cadrul eșantionului.
Analyze – Non-Parametric Statistics – 2 Relate
Samples… Se transferă variabilele analizate în Test Pair(s)
iar la Test Type se bifează opțiunea Wilcoxon și ulterior
click pe OK.

În primul tabel se pot vizualiza mediile rangurilor


negative și pozitive, rezultatele care s-au suprapus etc., iar
în al doilea tabel se pot vedea scorurile Z și rezultatele
testării bidirecționale (2-tailed). Astfel ipoteza nulă a fost
infirmată deoarece diferența dintre ranguri este
semnificativ diferită.
Posibile interpretări la raportarea output-ului: s-a
găsit o diferență semnificativă statistic între notele

49
obținute la PID și notele obținute la Statistică (Wilcoxon:
N=12, z=-2.02, two-tailed=0.043).

Testul Semnului
Testul Wilcoxon se bazează pe rangul valorilor
absolute al diferențelor dintre două variabile, comparând
separat diferențele pozitive și negative. Testul Sign se
bazează pe comparația diferențelor pozitive și negative
dintre cele două variabile utilizând apoi testul binomial
pentru a compara proporția de diferențe negative cu cea a
diferențelor pozitive (Lungu, p. 185).
Din opțiunea Test Type se bifează Sign și ulterior
click pe OK. Vom alege aceleași variabile ca și pentru
testul Wilcoxon.

50
În primul tabel se pot vizualiza frecvențele
negative, pozitive și cele suprapuse. În tabelul 2 se pot
vizualiza rezultatele testări bidirecționale și
unidirecționale precum și punctul de probabilitate al
diferenței exprimate pe axa OX.
Ipotezele statistice: H0 nu există diferențe
semnificative între cele două variabile; H1 există diferențe
semnificative între cele două variabile.
Testul McNemar
Testul Wilcoxon se bazează pe rangul valorilor
absolute al diferențelor dintre două variabile, comparând
separat diferențele pozitive și negative. Testul Sign se
bazează pe comparația diferențelor pozitive și negative
dintre cele două variabile utilizând apoi testul binomial
pentru a compara proporția de diferențe negative cu cea a
diferențelor pozitive în timp ce testul McNemar testează
dacă oricare două combinații posibile de valori extreme au
o aceeași probabilitate de apariție. Aplicarea sa se face
numai dacă variabilele testate sunt dihotomice (Lungu, pg.
185-186).

51
Testul McNemar verifică semnificația diferenței
dintre două eșantioane dependente atunci când variabila
este una dihotomică, el testează schimbările în răspunsuri
folosind distribuția Hi-pătrat. Acest test este folosit de
obicei în situații repetitive, în care răspunsul fiecărui
subiect este solicitat de două ori, o dată înainte și o dată
după producerea unui experiment. Testul McNemar
determină dacă rata inițială a răspunsurilor (înaintea
producerii evenimentului) este egală cu rata finală a
răspunsurilor (după producerea evenimentului) fiind
folosit pentru a detecta schimbările în rata răspunsurilor
datorită intervenției. Numit și McNemar’s test of
symmetry sau McNemar’s symmetry chi-square arată
numărul de cazuri pentru fiecare combinație a categoriilor.
Diagonala tabelului include cazurile care au aceleași
răspunsuri pentru ambele variabile. Datele care nu sunt pe
diagonală se referă la cazurile care au răspunsuri diferite
pentru cele două variabile.
Din opțiunea Test Type se bifează McNemar și
ulterior click pe OK. Vom merge pe un exemplu ipotetic
în cadrul căruia avem 10 subiecți care participă la un curs

52
de coaching în vederea schimbării deciziei de învăța foarte
bine statistică.

Posibile interpretări. S-a înregistrat o creștere


destul de semnificativă (aproape de semnificație statistică)
la nivelul numărului de studenți care s-au hotărât să învețe
foarte bine statistica în urma cursurilor motivaționale la
care au asistat la (χ2 p = 0.063).

53
6. Testele Friedman, Kendall’s W și Cochran’s Q

Friedman
Testul Fiedman cunoscut ca și two-way analysis of
variance, testează ipoteza nulă conform căreia nu există
nici o diferență între grupuri după variabila criteriu. Testul
Friedman este asemănător cu distribuția Hi-pătrat. Ideea
care stă la baza testului este aceea că dacă nu este nici o
diferență între grupuri, rangul fiecărui subiect ar fi
aleatoriu și nu ar exista nici o diferență între mediile
rangurilor.
Testul se folosește atunci când se dorește
măsurarea repetată a aceleiași variabile pe același grup de
subiecți în momente de timp diferite. Iar atunci când se
descoperă diferențe semnificative se continuă cu testul
Wilcoxon, Sign luând două câte două variabilele (Clinciu,
2013, p. 146).
Exemplificare
Dorim să aflăm dacă punctajul la șase referate a 10
dintre cei mai buni studenți este suficient de mare sau mic
pentru a fi semnificativ statistic. Vom crea șase variabile
(R1=Referat 1 – R6=Referat 6), vom introduce notările

54
(între 1-5) și vom verifica prin testul Friedman prezența
sau absența semnificației statistice. Analyze – Non-
Parametric Statistics – K Related Samples… Transferăm
variabilele în Test Variables, bifăm opțiunea Friedman
după care OK.

55
H0: Nu există diferențe semnificative între
rezultatele obținute de studenți la cele șase referate. H1:
Există diferențe semnificative între rezultatele obținute de
studenți la cele șase referate.
Posibile interpretări: cu o încredere de 95% putem
afirma că există diferențe semnificative între rezultatele
obținute de studenți la referatul 6 comparativ cu celelalte
rezultate și mai ales cu rezultatele obținute la referatul 1
(mr1 = 2.75, mr6 = 4.75, χF2 = 11.35, p = .045). Rezultatele
obținute permit respingerea ipotezei de nul.

56
Kendall’s W (coeficientul de concordanță)
Kendall’s W este o normalizare a testului
Friedman și se interpretează ca și coeficient de
concordanță, ceea ce este o măsură a înțelegerii între
fiecare caz și fiecare variabilă. Coeficientul de
concordanță W Kendall verifică gradul de acord dintre
evaluatori și poate lua valori cuprinse între 0 și 1, fiind un
coeficient nedirecțional. Valorile apropiate de 0 indică
lipsa acordului, în timp ce valorile apropiate de 1 arată
acordul perfect (Opariuc-Dan, 2011, p. 61).
Coeficientul de concordanță W Kendall se bazează
pe ranguri, fiind folosit, de obicei, la stabilirea acordului
dintre evaluatori (Opariuc-Dan, 2011, p. 58).

Exemplificare
Să presupunem că un număr de 10 studenți sunt
evaluați de către o comisie de licență formată din trei
evaluatori. Rezultatele vor fi trecute într-un tabel după
care vor fi utilizate în analiza Kendall’s W.

57
În partea stângă a Print Screen-ului se pot observa
notele acordate de evaluatori iar în partea dreaptă
rezultatele analizei. Nu trebuie să uităm că este vorba
despre evaluatori și nu despre licențiați. În primul caz s-a
obținut un acord de 0.30 sub forma coeficientului de
concordanță W Kendall însă semnificativ din punct de
vedere statistic. În al doilea caz, acordul este de 0.27 și
nesemnificativ statistic. În primul caz, putem spune că
acordul între profesorii evaluatori este slab însă
semnificativ statistic (W Kendall = 0.30, p = .050), în al
doilea caz acordul între profesorii evaluatori este slab și
nesemnificativ statistic (W Kendall = 0.27, p = .067).

58
Cochran’s Q
Este identic cu testul Kendall dar este aplicabil
atunci când toate răspunsurile sunt binare (variabile
dihotomice). Poate fi folosit chiar și atunci când numărul
de cazuri testate este mic.
Testul Cochran testează dacă mai multe variabile
dihotomice, dependente, au aceeași pondere și determină
dacă proporția cazurilor din prima categorie a unei
variabile egalează proporția cazurilor din prima categorie
a altei variabile. Valori mici ale Sig. (<0.05) indică faptul
că cel puțin una dintre variabile diferă de celelalte. O
examinare a frecvențelor pentru fiecare variabilă poate
arăta care variabilă diferă de celelalte.
Exemplificare. Să presupun că un număr de 10
studenți discută timp de trei săptămâni despre importanța
participării la seminariile cursului de statistică. Se aduc
variate argumente și contra-argumente. În același timp,
desfășurăm o cercetare legată de participarea sau
neparticiparea lor la seminariile în cauză. Cercetarea
constă în verificarea și notarea participări în trei coloane
distincte: inițial (adică înainte de începerea discuțiilor),

59
intermediar (în perioada celor 3 săptămâni) și final (după
terminarea discuțiilor). Astfel pentru neparticipare se

alocă cifra 1 iar pentru participare cifra 2. Introducem


scorurile în baza de date, după care Analyze – Non-
Parametric Statistics – K Related Samples… Transferăm
celei trei variabile în Test Varibiles:, selectăm opțiunea
Cochran’s Q și click pe OK. Rezultatele se pot vizualiza
în imaginea de mai jos.

Interpretări posibile. În urma discuțiilor purtate,


studenții au ajuns la concluzia că este bine să participe la
seminariile cursului de Statistică întrucât acest lucru va
avea efecte inevitabile asupra notei pe care o vor obține la
sfârșitul semestrului (Cochran = 11.14, p = .004). De

60
asemenea, au concluzionat că le poate influența și nota de
la lucrarea de diplomă și posibil ulterioarele studii.

61
7. Testele Kruskal-Wallis H și testul medianei (teste pt
k eșantioane independente)

Kruskal-Wallis H
Această tehnică este considerată a fi o generalizare
a testului U Mann-Whitney deoarece a fost concepută
pentru compararea mediilor a mai mult de două grupuri
atunci când ele au fost măsurate pe o scală ordinală sau pe
scale real numerice (de interval sau de raport), dar datele
nu întrunesc condițiile pentru efectuarea testului ANOVA
OneWay. Deoarece tratează date măsurate pe scale
ordinale sau distribuții atipice, similitudinea cu testul U
Mann-Whitney este evidentă, singura diferență majoră
fiind aceea că acum pot fi comparate mediile a mai mult
de două grupuri, rezultatul testului (H) putându-ne ajuta să
decidem dacă aceste grupuri provin dintr-o aceeași
populație (ipoteza de nul H0) (Clinciu, 2013, p. 141).
Ca și în analiza post-hoc din ANOVA, dacă H este
găsit semnificativ, atunci pot fi desfășurate mai departe
analize de comparație a grupurilor de câte două prin testul
U Mann-Whitney, pentru a determina între care dintre
variabilele analizate diferențele sunt semnificative.

62
Pornind de la ipoteza de nul – distribuțiile grupurilor
comparate sunt similare și deci ele provin dintr-o aceeași
populație – se poate infera că suma rangurilor este
apropiată sau foarte similară pentru toate grupurile
comparate. Sumele rangurilor care sunt semnificativ
diferite între ele vor duce la rejectarea ipotezei nule și la
admiterea ipotezei specifice (de cercetare) (Clinciu, 2013,
p. 142).
Testul Kruskal-Wallis este utilizat atunci când
avem o variabilă dependentă ordinală, măsurată pentru
mai mult de două grupuri independente (formate din
subiecți diferiți), și dorim să testăm diferența dintre
acestea (Popa, Aplicaţii SPSS - Prezentare generală , 2006,
p. 81).
Exemplificare. Să presupunem că dorim să vedem
dacă există diferență din punct de vedere statistic între
reacțiile emoționale pozitive ale studenților anilor 1-3 de
la psihologie măsurate pe durata unei săptămâni.
Introducem datele în baza de date și le etichetăm. Analyze
– Non-Parametric Statistics – K Independent Samples…
Transferăm variabila dependentă (Frecventa reactiilor
pozitive/saptamana) în Test Varibiles: iar varibila

63
independentă (An de studiu) în opțiunea Grouping
Variable. Din butonul Define Groups la Lower limit
selectăm anul 1 sau completăm 1 iar din opțiunea Upper
limit selectăm anul 3 sau scriem cifra 3 și click pe
Continue. Bifăm opțiunea Kruskal-Wallis H din caseta
Tests for Several Independent Samples și click pe OK.
Rezultatele se pot vizualiza în imaginea de mai jos.

64
65
Din rezultatele obținute se poate observa că există
semnificație statistică la diferențele existente între cei trei
ani. Prin urmare ipoteza de nul poate fi respinsă (χ2 = 6.13,
df = 2, p = 0.047). Datele confirmă ipoteza că reacțiile
emoționale ale studenților înregistrate timp de o
săptămână se diferențiază semnificativ între ele din
perspectiva anului de studiu.
Însă la o testare bidirecțională ulterioară cu Mann-
Whitney între anul 1 și anul 2 (extremele), a reieșit că
rezultatul este apropiat de semnificație statistică (U = 6, N1
= 6, N2 = 6, Z = -1.85, p = 0.065).

66
Testul medianei
Acest test statistic neparametric mai este denumit
proba medianei și se poate aplica datelor situate cel puțin
la un nivel de măsură ordinal, deoarece se bazează pe
calculul rangurilor, pe poziția pe care o ocupă scorurile în
cadrul șirului de date (Opariuc-Dan, 2011, p. 189). Este
utilizat pentru comparații între k eșantioane independente
pentru variabile măsurate la nivel ordinal.
Analiza semnificației testului medianei rezidă în
analiza semnificației testului χ2 și a coeficientului de
contingență χ2. Proba medianei se folosește, de obicei, în
cazul în care avem un număr mare de ranguri egale. Dacă
numărul rangurilor egale nu este foarte mare, se preferă
alte teste, mai precise, cu ar fi, de exemplu, testul U Mann-
Whitney (Opariuc-Dan, 2011, p. 192).
Exemplificare. Pe exemplul precedent, să
presupunem că dorim să vedem dacă există diferență din
punct de vedere statistic, la testul medianei, între reacțiile
emoționale pozitive ale studenților anilor 1-3 de la
psihologie măsurate pe durata unei săptămâni. Introducem
datele în baza de date și codificăm. Să nu uităm că testul
medianei în PSPP poate fi aplicat doar împreună cu testul

67
Kruskal-Wallis H. Ne-bifarea și a opțiunii Kruskal-Wallis
H duce la generarea unei erori.

Întrucât valoarea lui p este semnificativă statistic


se poate respinge ipoteza de nul, ceea ce înseamnă că
există diferență statistic semnificativă între reacțiilor
emoționale pozitive ale studenților anilor 1-3 de la
psihologie măsurate pe durata unei săptămâni (χ2 = 7.20,
df = 2, p = 0.027).

68
8. Tipurile de erori statistice

Interpretarea pragului de semnificație poate fi


îmbogățită prin discutarea a două erori posibile ce pot
apărea în testarea ipotezelor (sinteză preluată din (Sava,
2004, pg. 31-32)).
Pentru a simplifica înțelegerea se va utiliza un
exemplu în cadrul căruia un cercetător este interesat să
studieze în ce măsură ascultarea muzicii clasice facilitează
obținerea unor performanțe superioare în domeniul
învățării unei limbi străine. Pentru a testa această ipoteză,
se alege un lot de 50 de studenți. Aceștia sunt împărțiți
aleatoriu în două grupe. Prima, denumită experimentală,
este formată din 25 de subiecți care vor învăța timp de
patru săptămâni limba suedeză într-un mediu controlat, al
cărui fundal muzical baroc. Ceilalți 25 de participanți, din
grupul de control, vor învăța limba suedeză într-un mediu
din care lipsește orice fond muzical. După cele patru
săptămâni, participanții din ambele grupe sunt testați
privind cunoștințele lor de limbă suedeză. Conform
ipotezei de cercetare, ne așteptăm ca subiecții care au
învățat limba suedeză în condițiile unui fundal muzical să

69
obțină rezultate mai bune la testul de limbă suedeză în
comparație cu studenții din grupul de control. Pentru a
testa ipoteza va trebui se apelează la conceptul de ipoteză
nulă. De cele mai multe ori ipoteza statistică are o formă
opusă ipotezei de cercetare. În acest caz, ipoteza nulă ar
putea fi: Nu există diferențe semnificative în
performanțele de învățare a limbii suedeze între cele două
grupe de subiecți. Cu alte cuvinte muzica clasică nu
facilitează învățarea limbilor străine.
În urma datelor obținute, ne putem afla în una din
următoarele situații:
- respingem ipoteza nulă, constatând diferențe
semnificative între cele două grupe de subiecți, iar
această decizie este corectă, deoarece în realitate
muzica clasică afectează pozitiv învățarea limbilor
străine (cadranul 1 din tabel);
- respingem ipoteza nulă, constatând diferențe
semnificative între cele două grupe, iar această decizie
este greșită, deoarece în realitate muzica clasică nu are
nici o influență asupra învățării limbilor străine
(cadranul 2 din tabel);

70
- nu respingem ipoteza nulă, constatând că nu există
diferențe semnificative între cele două grupe, iar
decizia este corectă, în realitate muzica clasică
neinfluențând învățarea limbilor străine (cadranul 3 din
tabel);
- nu respingem ipoteza nulă, constatând absența
diferențelor semnificative între cele două grupe cu
privire la performanțele de învățare a limbii străine, iar
decizia este greșită, deoarece în realitate muzica clasică
influențează învățarea limbilor străine (cadranul 4 din
tabel).

Ipoteza nulă în cercetare


În realitate A fost Nu a fost
respinsă respinsă
Există efect (H0 Decizie OK Eroare de tip
trebuia respinsă) (1) II (4)
Nu există efect (H0 nu Eroare de Decizie OK
trebuia respinsă) tip I (2) (3)

71
Alte explicații
Eroarea statistică se referă la eroarea deciziei
statistice în raport cu “realitatea vieții” și nu la aplicarea
greșită a procedurii de testare. În raport cu “realitatea
vieții”, decizia cu privire la ipoteza de nul poate fi corectă
sau greșită. Cercetătorul nu poate ști cu certitudine dacă
decizia statistică este corectă sau este greșită (dacă ar putea
ști, nu ar mai avea nevoie de statistică) (Popa, 2011).
Eroare de tip 1
Să presupunem că testăm nivelul IQ la studenții
anului 1 și anului 2. În urma testării rezultă că H0 trebuie
respinsă deși în realitate este adevărată. Chiar și un
eșantion selecționat aleatoriu poate prezenta valori
neobișnuit de îndepărtate de parametrii populației.
Supunându-ne în mod corect regulilor convenționale ale
deciziei statistice, respingem ipoteza de nul, făcând o
eroare de tip 1.
Ce am testat de fapt? Că fiecare student din anul 2
este mai inteligent decât unul din anul 1? Nu, deoarece au
fost comparate mediile. În cadrul eșantionului din anul 2
este posibil ca unii studenți să fi tras în sus media pe când
în eșantionul anului 1 unii să coboare această media. Prin

72
urmare există posibilitatea ca H1 să fie adevărată? (ca cei
din anul 2 sunt mai inteligenți). Nu, deoarece testul se
referă în mod direct la H0. Am testat probabilitatea ca H1
să fie falsă (cei din anul 2 nu sunt mai inteligenți). Decizia
privind H1 este derivată din H0. Proporția de inteligență a
studenților selectați în cele două eșantioane nu a fost egală
deși realitate este alta (Popa, 2011)..
Eroare de tip 2
În anul 2 sunt într-adevăr studenți foarte
inteligenți. Însă ei n-au fost selectați în eșantion și în
consecință eșantionul nu-i “conținea” pe acești studenți
(după cum în anul 1 se putea ca situația să fi fost inversă).
Deci nu avem dovada faptului că în anul 2 sunt studenți
foarte inteligenți. Ca urmare a hazardului eșantionării,
diferența dintre media eșantionului anului 2 și media
anului 1 nu atinge pragul semnificației statistice.
Rezultatul testului este un fals negativ. În
consecință, datorită hazardului, eșantioanele celor doi ani
sunt aproximativ egale/omogene și deci rezultatele impun
acceptarea H0. Prin urmare, un important potențial din
anul 2 a rămas în afara eșantionării și deci nefructificat
statistic (Popa, 2011).

73
Eroare de tip 3
Ipoteza H0 este respinsă dar cauza neatribuirii
corecte. Adică la o testare bidirecțională se poate
concluziona greșit că un anumit efect este prezent în
direcția pozitivă. Rezultatul cercetării conduce la
confirmarea prezenței unui efect sau a relațiilor între
variabile, dar sensul (direcția) efectului este greșit
interpretat. Rezultatele cercetării susțin că studenții anului
1 sunt mult mai inteligenți decât studenții anului 2 deși, în
realitate, situația stă exact invers, concluzia fiind greșită.
Adică nu știm dacă pe distribuția normalității valorile sunt
mai multe spre negativ sau spre pozitiv.
Exemplificare. În anul 2 chiar nu sunt studenți mai
inteligenți decât în anul 1. Ipoteza de nul este în realitate
falsă. În acest caz respingerea ipotezei H1 duce la
acceptarea ipotezei H0 (Popa, 2011).

Mărimea efectului
Semnificația statistică nu spune nimic despre
intensitatea relației (efectului) dintre variabile. Prin
urmare se apelează la calcule suplimentare pentru a
cunoaște mărimea efectului în cadrul rezultatelor obținute

74
sau la ceea ce se numește în limbaj statistic Cohen's d
effect size.
Puterea testului este definită prin capacitatea sau
sensibilitatea unui test statistic de a detecta un efect real
(sau o legătură reală) între variabile. Prin efect real (sau
mărimea acestuia) se înțelege faptul că modificările
valorilor unei variabile se regăsesc în modificări ale
valorilor celeilalte variabile (indiferent dacă relația este de
tip cauzal sau de tip asociativ). Formulat în termeni
statistici, puterea testului este probabilitatea de a respinge
ipoteza de nul atunci când ea este cu adevărat falsă.
Calcularea mărimii efectului pentru variate tipuri
de teste se face de către programe specializate sau se poate
face în cadrul unor platforme precum:
https://www.psychometrica.de/effect_size.html
https://www.socscistatistics.com/effectsize/defaul
t3.aspx
https://www.uccs.edu/lbecker/

Rezultatele obținute la Cohen's d se interpretează


conform următoarei grile:

75
Cohen's d effect size
0.2 – 0.5 0.5 – 0.8 > 0.8
efect mic efect mediu efect mare

76
9. Analiza de cluster

Termenul de analiză cluster (cluster în limba


engleză înseamnă mănunchi, ciorchine, grup) a fost
utilizat pentru prima dată de către Tryon în 1939 și se
referă la o serie de algoritmi de clasificare care dau
posibilitatea grupării unor obiecte (indivizi) în grupe
omogene. Utilizarea de algoritmi diferiți are ca efect
clasificări diferite. Analiza de cluster, cunoscută și ca
analiza de segmentare sau de taxonomie are ca scop
identificarea unui set de grupe omogene prin gruparea
elementelor astfel încât să minimizeze variația în cadrul
grupelor și să maximizeze variația dintre grupe. Analiza
cluster este o tehnică de analiză multivariată care cuprinde
un număr de algoritmi de clasificare a unor obiecte
(elemente sau indivizi) în grupe omogene. Variabilele sau
cazurile sunt sortate în grupe (clusteri) astfel încât între
membrii aceluiași cluster să existe asemănări, similitudini
cât mai mari, iar între membrii unor clustere diferite să
existe asemănări cât mai slabe. Pentru aceasta se are în
vedere în primul rând alegerea distanței dintre elemente,
apoi alegerea algoritmului de grupare și în final se decide

77
cu privire la nivelul clusterului. În analiza de cluster există
câteva noțiuni de bază ce se impun a fi amintite pe scurt:
clusterul (grupa), distanța dintre obiecte, distanța dintre
grupe și algoritmul de cluster (Ana-Gabriela, 2007, p.
311).
Analiza grupurilor este o procedură multivariată de
identificare a grupurilor de date. Procedura constă într-o
colecție de tehnici prin care un set de obiecte este divizat
în grupuri relativ omogene. Acesta este și obiectivul
principal al analizei statistice în general, și anume, de a
clasifica obiectele în grupuri omogene, în funcție de un set
dat de variabile. Obiectele grupurilor pot fi cazuri sau
variabile (Muntean, p. 4).
Un cluster reprezintă o unitate care prin ea însăși și
se prezintă ca un individ dintr-o populație. Spre exemplu,
dacă populația o considerăm ca fiind aceea a facultăților
de psihologie din România, un cluster este Facultatea de
Psihologie de la Universitatea Hyperion iar un alt cluster
o altă facultate și tot așa. În acest caz, eșantionarea se face
pe unități de eșantionare, iar evaluarea se face exhaustiv la
nivelul clusterului. Așadar, eșantionul este stabilit pe
unități de eșantionare și nu pe indivizi, iar la nivelul unei

78
unități de eșantionare se evaluează exhaustiv toate
persoanele. Spre exemplu, dacă baza de eșantionare o
constituie facultățile de psihologie din România, care sunt,
să presupunem, în număr de 18, atunci vom extrage
aleatoriu un eșantion de 6 facultăți pe care le vom investiga
exhaustiv. O asemenea facultate joacă rolul unui individ
dintr-o eșantionare randomizată și poartă numele de
unitate de eșantionare (Opariuc-Dan, 2011, p. 76).
“Numim clasă (grup, cluster) o mulțime de obiecte
(elemente) similare între ele și nesimilare obiectelor din
alte clase. Un cluster poate fi gândit sub forma unor
interpretări (reprezentările grafice reflectă aceste
interpretări) și ca o mulțime de puncte care sunt apropiate
(la distanțe mici) între ele și depărtate de punctele din alte
clase, sau ca o regiune conexă dintr-un spațiu
multidimensional care are o densitate mare (relativ) de
puncte, clusterele fiind separate între ele de regiuni cu o
densitate scăzută (relativ) de puncte.” (Clocotici).
În PSPP avem o modalitate pentru a vizualiza
densitatea acestor puncte din/în cadrul clusterelor. Se
utilizează interogarea prin sintaxă (File – New – Syntax):
EXAMINE nume variabilă

79
/PLOT = NPPLOT.
La final click pe Run.
Să presupunem că dorim să știm care este media
IQ-ului din Africa. Rezultatele sunt sumarizate sub forma
unor diagrame ca cea de mai jos. Deși variabila cuprindea
400 de respondenți, se poate inspecta sumar distribuția
acestora în funcție de punctajele obținute. Pentru variate
seturi de înregistrări, graficele numite dendrograme, se
furnizează o imagine excelentă a modului în care fiecare
caz sau variabilă este unită cu alta, și matricea distanței
poate fii de asemenea informativă.

“Analiza cluster este o procedură multivariată


pentru a determina grupurile de date. Obiectele din aceste

80
grupuri pot fi cazuri sau variabile. O analiză cluster a
cazurilor se aseamănă cu analiza discriminantă într-un
anumit punct – cercetătorul caută să clasifice un set de
obiecte în grupuri sau categorii, dar, în analiza cluster, nici
numărul și nici membrii grupurilor nu sunt cunoscuți. În
analiza cluster se începe fără nici o cunoștință legată de
structura grupului și cel mai adesea nu se știe câte clustere
sunt. Clustering este o tehnică bună folosită în analiza
exploratorie, când se crede că eșantionul nu este omogen.
SPSS furnizează două metode pentru a grupa obiectele în
categorii:
- Hierarchical Cluster Analysis;
- K-Means Cluster Analysis.
Hierarchical Cluster Analysis lucrează ori cu
cazuri, ori cu variabile, pe când KMeans Cluster Analysis,
doar cu cazuri.” (Muntean, p. 6). Din nefericire PSPP
dispune doar de opțiunea K-Means Cluster Analysis.

Hierarchical Cluster
Folosind metoda ierarhizării, gruparea începe prin
găsirea celor mai apropiate perechi de obiecte (cazuri sau

81
variabile), în funcție de tipul unității de măsură folosit și
le combină pentru a forma un cluster. Algoritmul continuă
pas cu pas, unind perechi de obiecte, perechi de clustere,
sau un obiect cu un cluster, până când toate datele sunt
într-un cluster. Metoda se numește ierarhizare deoarece
odată ce două obiecte sunt unite într-un cluster, ele rămân
împreună până la ultimul pas. Un cluster format într-un
stadiu ulterior al analizei, conține clustere dintr-un stadiu
anterior, care conține clustere dintr-un stadiu și mai
anterior (Muntean, p. 6).

K-Means Cluster
Această procedură începe prin folosirea valorilor
primelor k cazuri din baza de date, ca estimări temporare
a k medii ale grupurilor, unde k este numărul de clustere
specificat de utilizator. Centrele inițiale ale grupurilor
(mai sunt numiți centroizi) sunt formate prin compararea
și atribuirea fiecărui caz următor, pe rând, unui cluster cu
cel mai apropiat centru și apoi făcându-se media celor
două se obține centrul clusterului. Apoi un proces iterativ
este folosit pentru a găsi centrele finale ale clusterelor. La
fiecare pas cazurile sunt grupate în grupul cu cel mai

82
apropiat centru și centrele clusterelor sunt recalculate.
Acest proces continuă până când nu mai au loc schimbări
în centrele grupurilor sau până când este atins numărul
maxim de iterații (Muntean, pp. 7-8).
Procedura analizei grupării după factorul K solicită
specificarea numărului de grupuri, astfel încât va trebui să
încercăm diferite analize (de exemplu, pentru folosirea a
3, 4 și 5 grupuri). Trebuie specificat că nu există nici un
test magic care să ne spună numărul optim al grupurilor și
nici nu există, deocamdată, o metodă de stabilire general
acceptată (depinde de obiectivele cercetătorului în
legătură cu utilizarea acestora). La analiza grupării după
factorul K, se standardizează datele înainte de a se interoga
o analiză a grupărilor. Analiza K are o opțiune care
repartizează cazurile pe baza distanțelor introduse din
toate variabilele cu valori nenule (Muntean, pg. 8-9).
Exemplificare
Să presupunem că dorim să facem o analiză de
cluster pe două variabile: Media IQ-ului din Africa și
Media IQ-ului din EU. Pentru fiecare eșantion avem 400
de subiecți.

83
Analyze – K-Means Cluster. Transferăm cele două
variabile în zona de analiză și la Number of Cluster
specificăm numărul clusterelor în funcție de care dorim să
se desfășoare analiza (7 în cazul dat). Rezultatul generat
se poate vizualiza în figura alăturată. În primul tabel se pot
observa mediile celor 7 clustere în funcție de cele două
variabile. Iar în al doilea tabel, numărul de cazuri din
cadrul fiecărui cluster.

Utilitatea analizei de cluster poate fi valorificată la


analiza eșantioanelor mari și din grupări diferite și în

84
raport cu analiza de regresie, în căutarea unor structuri de
date, în generarea de ipoteze legate de clasificări în funcție
de scor (estimăm că cel mai mare număr de subiecți din
cadrul celor două eșantioane va avea IQ-ul de…) etc.

85
10. Coeficientul Alfa Cronbach (Cronbach’s Alpha)

Coeficientul alfa, denumit în mod curent Cronbach


alfa (α), a fost propus de reputatul psihometrician
american Lee J. Cronbach (1951) și măsoară analiza de
consistență internă a itemilor. “Analiza consistenței
interne este o metodă de verificare a fidelității, nu o
metodă de verificare a validității. Nu se bazează pe tratarea
erorilor sistematice, ci pe tratarea erorilor aleatorii, fiind o
derivație a metodei split-half” (Opariuc-Dan, 2011, p.
298).
Una din condițiile fundamentale a unui instrument
de evaluare psihologică este aceea de a fi sigur și
consistent ceea ce înseamnă că itemii din care este
constituit (întrebări sau sarcini de altă natură) să contribuie
la constituirea semnificației unui construct psihic anume:
scala unui chestionar, scorul la o caracteristică psihică de
performanță etc. Un instrument este sigur și consistent
atunci când itemii din care este compus corelează, atât
între ei cât și fiecare dintre ei cu rezultatul tuturor itemilor
(sau cu scorul global). Analiza de consistență internă, prin
calcularea coeficientului Cronbach alfa, este metoda

86
statistică prin care se verifică respectarea exigențelor
enunțate (Popa, Aplicaţii SPSS - Prezentare generală ,
2006, p. 57).
Când se dorește utilizarea unui instrumente
psihologic sau crearea acestuia (cel mai adesea
chestionare), evaluarea consistenței interne este o etapă
absolut obligatorie în elaborarea și finalizarea
respectivului instrument. Întrebările unui chestionar sau
itemii unui test de performanță sunt concepuți pentru a
măsura un anumit atribut (atitudine, factor, comportament,
cunoștință). Consistența internă se definește ca
proprietatea itemilor de a corela cu scorul global al testului
sau scalei din care fac parte. Din moment ce toți itemii
trebuie să reflecte un anumit atribut, ei trebuie să manifeste
o varianță comună, să coreleze unii cu alții și, în același
timp, să coreleze fiecare cu scorul care reflectă atributul
respectiv. Corelația dintre un item și scorul total, din care
se omite acel item, ne oferă o indicație cu privire la
relevanța itemului respectiv pentru rezultatul global al
testului. Atunci când fiecare item este relevant, putem
spune că testul respectiv are consistență internă (Popa,
Aplicaţii SPSS - Prezentare generală , 2006, p. 57).

87
În mod normal, valoarea indicelui Cronbach alfa
tinde să crească pe măsură ce numărul itemilor crește. Unii
autori estimează că raportul trebuie să de 1 la 5, adică
numărul subiecților să fie de cinci ori mai mare decât
numărul itemilor pentru a valida corespunzător acel
instrument. De altfel, utilizarea unor teste cu mulți itemi
este neconvenabilă din mai multe motive. Unul dintre
acestea este timpul consumat cu aplicarea lor, altul, poate
fi inutilitatea de a păstra itemi a căror contribuție la scorul
global este nulă, mică sau, dimpotrivă, merge în altă
direcție decât acesta. Identificarea și eliminarea acestor
itemi, ori modificarea lor în spiritul atributului măsurat,
este unul dintre obiectivele analizei de itemi. Ea are un
caracter recursiv, cu evaluări succesive ale relațiilor dintre
itemi și dintre itemi și scorul global și operarea selecției
itemilor în funcție de relația lor cu acesta. Criteriul de bază
pentru această operație este valoarea indicelui Cronbach
alfa, care are o plajă de variație între 0 și 1. O scală, pentru
a fi considerată consistentă, trebuie să atingă o valoare cât
mai aproape de 1, nivelul de 0.70 fiind acceptat de
majoritatea cercetătorilor ca prag limită de validare a
criteriului de consistență internă. Oricum, valoarea lui

88
Cronbach alfa nu poate fi mai mică de 0.60 (Popa,
Aplicaţii SPSS - Prezentare generală , 2006, p. 57).
Valoarea recomandată pentru acest coeficient
(0,80) poate fi o valoare de referință în cazul testelor de
inteligență, în timp ce pentru inventarele de personalitate
se poate coborî până la 0,70, iar pentru chestionarele de
opinie chiar și mai jos. Totuși, niciun autor nu susține
posibilitatea ca un coeficient de consistență internă să fie
mai mic de 0,60. Pe măsură ce crește numărul de itemi
dintr-un instrument, crește și coeficientul α Cronbach. De
aceea, există posibilitatea să obținem un instrument sau o
scală consistentă, nu pentru că aceasta ar fi, într-adevăr,
fidelă, ci pentru că are un număr foarte mare de întrebări
(Opariuc-Dan, 2011, pp. 300-301).
Coeficientul de consistență internă Cronbach alfa
se calculează în următoarele situații:
- atunci când realizăm un instrument nou;
- atunci când se traduce un instrument vechi într-o
altă limbă;
- atunci când un instrument utilizat în anumite
condiții, urmează a fi utilizat în cu totul alte
condiții (de exemplu, trecerea la utilizarea

89
computerizată a unui test aplicat până atunci în
regim creion hârtie) (Popa, Aplicaţii SPSS -
Prezentare generală , 2006, p. 57).

Alte condiții
Crearea unor variabile distincte care conțin
răspunsurile la fiecare item (întrebare). Valorile
înregistrate pentru răspunsuri vor fi valorizate în funcție
de semnificația lor în raport cu rezultatul global (scala). Cu
alte cuvinte, variabilele trebuie să conțină valori care
exprimă semnificația răspunsului în raport cu scala
globală, și nu răspunsul efectiv al subiectului. De exemplu,
dacă variantele de răspuns sunt codificate cu 1, respectiv
2, pot exista întrebări pentru care varianta 1 aduce un punct
la scala iar varianta 2 aduce zero puncte la scală. Într-o
asemenea situație, pentru analiza de itemi valorile
codificate de răspuns vor fi transformate în valori
corespunzătoare (0 și 1). În același mod se va opera și
pentru itemii care au mai multe variante de răspuns, cum
este cazul scalelor de tip Likert. Codurile convenționale
ale variantelor de răspuns vor fi transformate în valori, în
funcție de semnificația contribuției lor la construirea

90
scorului global. (Popa, Aplicaţii SPSS - Prezentare
generală , 2006, pp. 57-58).
De obicei, coeficientul de consistență internă are
valori pozitive. S-ar putea, însă, să se obțină și coeficienți
negativi. Acest aspect apare în cazul în care covarianța
negativă este mai mare în comparație cu cea pozitivă.
Pentru a evita tendința subiecților către un răspuns pozitiv,
de multe ori se folosesc itemi inversați. Adică, dacă la unii
itemi răspunsul „Da” este semnificativ și primește un
punct, la alți itemi primește un punct răspunsul „Nu”. Sau,
dacă avem o evaluare pe o scală de la 1 la 5, pentru unii
itemi 5 înseamnă „foarte mult”, în timp ce pentru alți itemi,
1 va însemna „foarte mult”. În acest caz, unii itemi vor
corela negativ. În funcție de numărul itemilor inversați,
per ansamblu este posibil să se obțină o covarianță
negativă mai mare în comparație cu cea pozitivă, și,
evident, un coeficient negativ (Opariuc-Dan, 2011, pp.
301-302).
Se recomandă ca numărul variantelor de răspuns să
fie cât mai mare. Atunci când subiecții au de ales între mai
multe variante de răspuns, indicele Crobach alfa tinde să
fie mai mare. Sunt preferabile scalele cu 5 sau 7 trepte. Cel

91
mai scăzut nivel de consistență internă se obține la scalele
cu trei variante de răspuns (Gorbănescu).
Coeficientul de consistența internă sau indicele de
omogenitate nu sunt utili în cazul testelor de viteză. În
asemenea situații, alte metode de calculare a fidelității se
dovedesc a fi utile precum metoda testelor paralele sau
metoda test retest pot fi folosite. Cu toate acestea, multe
teste de abilitate au, de asemenea, o limită de timp. Mai
ales în cazul în care un procentaj semnificativ din subiecții
testați nu au fost capabili să completeze ultimii itemi ai
testului, consistența internă nu ar trebui calculată automat,
deoarece poate rezulta o fidelitate care poate fi
supraestimată. În această situație, o estimare rezonabilă a
fidelității poate fi obținută prin: împărțirea testului în două
jumătăți (de exemplu, itemii pari și itemii impari),
administrarea subtestelor în timpul de testare înjumătățit,
calcularea corelației dintre cele două jumătăți și, în final,
corectarea corelației luându-se în considerare
înjumătățirea lungimii testului. Când viteza nu este un
factor principal (aceasta este atunci când cel puțin 70% din
subiecții testați completează ultimul item), poate fi
aplicată o formulă de corectare a coeficientului de

92
consistență internă. Pentru toate tipurile de teste adaptive
sau ajustate, consistența internă nu poate fi stabilită fără a
se face o diferențiere. În acest caz, fidelitatea este estimată,
folosindu-se regulile diferitelor puncte de întrerupere și
prin calcularea corelațiilor dintre scorurile obținute și
variabila criteriu (Craşovan, 2011, pg. 173-174). Uneori se
pot folosi coeficienți split-half (de înjumătățire a itemilor)
deoarece chiar dacă rezultatele depind de împărțirea
arbitrară a itemilor, uneori pot fi relevante. Split-half”
prezintă posibilitatea de analiză a fidelității prin metoda
înjumătățirii numărului de itemi. Acest lucru nu este
identic cu cel în care dorim să măsurăm strict itemii pentru
o anumită componentă.

Limite
Analiza consistenței interne nu se folosește, de
obicei, independent, ci este asociată cu alte metode de
explorare ale dimensionalității instrumentelor. Cele mai
utilizate proceduri asociate consistenței interne sunt
analiza factorială, scalarea multidimensională sau analiza
de cluster (Opariuc-Dan, 2011, p. 337).

93
Spre deosebire de α Cronbach, care se poate
calcula pentru orice fel de itemi, coeficientul Kuder-
Richardson se folosește numai pentru itemi dihotomici
(Opariuc-Dan, 2011, p. 305). Metoda consistenței interne
prin calculul coeficientului α Cronbach nu este,de fiecare
dată, cea mai bună variantă. Mai există o modalitate de
analiză a consistenței interne, numită fidelitate compozită
sau fidelitate Raykov ρ, care pleacă de la un principiu al
analizei factoriale, conform căreia un set de variabile poate
să acopere o singură dimensiune, un singur factor. Această
metodă este, la ora actuală, preferată metodei lui Cronbach
și se consideră că estimează mult mai bine fidelitatea reală
a unei scale. Din nefericire, procedurile de calcul nu au
fost încă implementate în SPSS (cu atât mai puțin în
PSPP). Ele sunt însă disponibile în alte aplicații, precum
EQS și LISREL sau AMOS (Opariuc-Dan, 2011, p. 336).

Exemplificare
Să presupunem că dorim să verificăm consistența
internă a unui chestionar cu 20 de itemi completat de 87
de subiecți. Analyze – Reliability… Transferăm itemii în
caseta Items, bifăm Show descriptive for scale if items is

94
deleted. La final OK. Rezultatele pot fi vizualizate în
imaginea de mai jos. În al doilea tabel se poate citi
coeficientul Cronbach’s Alpha (.73). În al treilea tabel în
coloana Corected Item – Total Correlation observăm că
toți itemii corelează pozitiv cu scala cu excepția itemului
15. Dacă eliminăm acest item din cadrul analizei indicele
de consistență internă va crește până la .75 după cum
apare menționat și în coloana Cronbach’s Alpha if Item
Deleted.

95
Interpretare. Coeficientul Alpha de validitate a
scalei cu 20 de itemi are valoarea de 0.73 ceea ce
demonstrează că scala are un nivel acceptabil de
fidelitate.

96
11. Instrumente și analize primare

Analizele statistice trebuie precedate de alegerea


unei teme de cercetare sau a unei probleme clare spre care
vor fi concentrate eforturile de analiză. Alegerea temei
depinde de câțiva factori. Primul este în conexiune cu
preocupările avute de fiecare student și cu domeniile de
interes pe care le consideră atractive și interesate. Al doilea
factor, poate mai important ca primul, este alegerea
instrumentelor de investigare (chestionare). Chestionarele
alese trebuie să fie din cele recunoscute sau utilizate deja
în alte lucrări de specialitate. Este extrem de important ca
aceste chestionare să aibă și interpretarea punctajului pe
care-l vor obține respondenți. În caz contrar, chestionarul
nu este util. Al treilea factor constă în alegerea metodei de
aplicare a chestionarelor (minim două). Pot fi aplicate prin
metoda clasică, adică printate și distribuite respondenților
sau pot fi aplicate în varianta online.
Cea mai cunoscută platformă pentru crearea și
completarea online este cea oferită de Google Forms. Alte
variante ar fi https://www.survio.com ,
https://zurvey.io/zurvey/en ,

97
https://www.typeform.com/surveys etc. Pentru studenți
ideale sunt cele care sunt și gratuite. De menționat că
fiecare din aceste platforme necesită crearea unui cont.
Ulterior se pot introduce întrebările, se pot alege formele
de răspuns etc. Avantajul completării online este că se
creează instant baza de date chiar dacă necesită
ulterioarele intervenții și corecturi.
Baza de date din Excel de obicei necesită mai
multe prelucrări înainte de importarea ei în programe de
analiză statistică. Aceste prelucrări trebuie să țină cont de
felul în care se interpretează chestionarul în cauză. Pentru
eficiență și simplificare, itemii se pot codifica în funcție de
specificul chestionarului. De obicei se pot alege notări
precum I1, I2…, iar pentru răspunsuri cifre arabe. Dacă
pentru fiecare item al chestionarului subiecții au de ales
între patru variante de răspuns, atunci codificarea poate fi
sub forma I1a, I1b, I1c, I1d, I2a, I2b, I2c, I2d…
Pentru analizele parametrice și neparametrice
niciodată nu se importă în programele de analiză statistică
itemii chestionarului. Interpretarea chestionarelor se
bazează de obicei pe însumarea punctajului total sau pe
anumiți itemi. Astfel, în Excel se va însuma punctajul

98
aferent fiecărui respondent într-o altă coloană. Dacă în
cadrul aceluiași chestionar sunt măsurate mai multe
dimensiuni ale aceleiași caracteristici, se vor crea atâtea
coloane câte dimensiuni sunt măsurate (și care rezultă din
interpretare) și se vor însuma pentru fiecare dimensiune
itemii care țin de fiecare dimensiune în parte. Astfel la
final, se vor importa doar variabilele independente și
coloanele care însumează caracteristicile măsurate și care
vor fi denumite adecvat.

Analize statistice primare


Analizele statistice pot debuta în mai multe feluri.
După stabilirea scopului/rilor, obiectivelor, ipotezelor
cercetării și după ce sunt adunate și centralizate
informațiile din cadrul instrumentelor de cercetare,
întrebarea următoare ar fi de unde se începe? Care
informații, rezultate, date, analize etc., trebuie prezentate
mai întâi? Sau analizele existente în ce ordine ar trebui
expuse? Etc.
Recomandarea generală are următorul parcurs
logic. Inițial trebuie descris detaliat și clar
eșantionul/oanele analizate sau supuse investigațiilor.

99
Care este numărul persoanelor din cadrul eșantioanelor, în
ce categorie de gen, profesie, vârstă etc., sau alte clasificări
(variabile) care au fost solicitate despre aceștia. Nu trebuie
uitat că înainte de colectarea informațiilor cu caracter
personal trebuie menționate câteva aspecte legate de
GDPR. De către cine sunt colectate acele date personale,
scopul pentru care sunt colectate acele informații și în ce
scop vor fi utilizate, o adresă de contact unde vor putea
solicita eventualele informații suplimentare sau unde vor
putea transmite eventualele neclarități, și acordul exprimat
clar (prin bifarea unei opțiuni DA) pentru participarea la
respectiva cercetare.
Este ideal să se solicite cât mai multe informații
despre respondenți, informații care vor fi transformate
ulterior în variabile independente. Însă nici prea multe ca
să nu fie prea obositor. Variantele de răspuns la datele
solicitate trebuie să fie cât mai clar exprimate și cât mai
simplist formulate. Este de preferat să se solicite acele
informații despre care se estimează că vor putea fi
transformate în variabile. De asemenea, plaja de
răspunsuri să nu fie prea extinsă mai ales în cazul
eșantioanelor mici. Dacă sunt de exemplu șase variante de

100
răspuns la o întrebare și eșantionul este de 60 de persoane,
posibilitatea medie este să se înregistreze 10
persoane/variantă de răspuns. Însă există și posibilitatea ca
doar cinci persoane să fie per variantă de răspuns. Dacă
sunt doar cinci persoane care au răspuns la o variantă de
răspuns șansele de a valorifica aceste răspunsuri este
destul de redusă. În consecință, numărul variantelor de
răspuns la o întrebare trebuie să fie potrivit cu mărimea
eșantionului investigat.
După introducerea informațiilor în Excel, este de
preferat ca descrierea eșantionajului să se facă prin variate
grafice/diagrame/histograme/boxploturi/etc. După
selectarea variabilelor pentru care se dorește realizarea
diagramelor, Excel-ul sugerează automat care ar fi cea mai
potrivită variantă de diagramă pentru respectivul caz.
Descrierea precisă și minuțioasă a eșantionului se poate
face și textual cu menționarea clară a numărului de
persoane/procente din fiecare categorie etc., ca în
diagramele de jos.

101
26; 40%
39; 60%

Masculin Feminin

102
12. Distribuții și ipoteze

După descrierea inițială a datelor demografice,


următorul procedeu (al doilea) ar fi analiza distribuțiilor
de normalitate (analizele exploratorii și descriptive).
Programele de analiză statistică oferă o variabilitate mare
pentru aceste tipuri de analize. Pentru utilizarea acestor
analize se utilizează sub-meniul Explore sau Descriptives
din Analyze – Descriptive Statistics. Rezultatele furnizate
de analizele exploratorii sau descriptive pot fi consistente
și necesită atenție pentru descrierea lor detaliată. Să
presupunem, de exemplu, că avem o bază de date cu patru
variabile independente (gen, studii, mediu și vârsta) și
patru variabile dependente (4 tipuri de dependențe: fumat,
internet, telefon și calculator). Facem a analiză
exploratorie la variabila vârstă. Rezultatele se pot
vizualiza în tabelul de jos.

103
Ce se poate descrie din cadrul acestui set de tabele?
Cele mai consistente informații sunt conținute în ultimul
tabel. Se poate parcurge următoarea schemă de descriere.
Rezultatele obținute la nivelul grupului indică faptul că
vârsta subiecților variază între 19 – 47 de ani. Vârsta
medie a eșantionului de 60 de respondenți este de 27.1 ani
(lower bound 95% = 25.1; upper bound 95% = 29.1) cu o
abatere standard a mediei de 7.73 puncte și o eroare
standard a mediei de un punct. Variația quartilică este
asimetric pozitivă (.9), nivelul median al scorurilor fiind

104
de 24 de ani. Conform valorilor percentilice (cuartile) 50%
dintre subiecți centrali au scorurile cuprinse între 21 și 34
de ani. Valorile boltirii indică o ușoară distribuție
aplatizare (-.34) ceea ce înseamnă că subiecții sunt
distribuiți spre extremități sau preponderent spre
extremitatea stângă sau spre vârste mai mici. Această
procedură se poate aplica în dreptul fiecărei variabile
in/dependente.
Aplicarea testului Kolmogorov-Smirnov (cu
bifarea opțiunii Poisson în PSPP) la variabilele
dependente ne poate furniza informații despre distribuția
scorurilor în cadrul fiecărei variabile și ne poate sugera
dacă variabila respectivă conține date cu semnificație
statistică. După cum se poate vizualiza în imaginea de mai
jos, primele două variabile au valori semnificative statistic
iar ultima variabilă se apropie de semnificație statistică.

Formularea exactă a textului trebuie să fie ceva de genul:

105
Distribuția bidirecțională la testul normalității
Kolmogorov-Smirnov (K-S) la Dependența de fumat este
semnificativ diferită față de distribuția normală (p=0.008).
În SPSS se pot citi și valorile la testul Shapiro-Wilk.

Dacă distribuția este nesemnificativă (< 0.05)


pentru eșantioane formate din două grupuri independente
se aplică testul t, iar pentru n grupuri se plică ANOVA One
Way (dacă distribuția este omogenă se poate aplica testul
post-hoc Bonferroni. Dacă distribuția nu este omogenă se
poate aplica Tamhane). Dacă diferența este semnificativă
statistic (> 0.05) se poate aplica Mann-Whitney pentru
două eșantioane independente sau Kruskal-Wallis pentru
n grupuri.
Al treilea procedeu este legat de formularea
ipotezelor și de evaluarea tipurilor de teste care urmează
să fie aplicate. În unele cazuri formularea ipotezelor se
poate face după ce se evaluează tipurile de teste care pot fi
utilizate. Formularea ipotezelor și folosirea ulterioară a
testelor ține de creativitatea cercetătorului și de anumite
reguli statistice minimale. În cazul în care avem cele patru
variabile independente (gen, studii, mediu și vârsta) și

106
patru variabile dependente (4 tipuri de dependențe: fumat,
internet, telefon și calculator) putem avea următoarea
schemă pentru ipoteze:

Conform imaginii din stânga putem formula 16


ipoteze. Conform imaginii din dreapta puteam formula 4

107
ipoteze. Acest aspect ține de imaginația și creativitatea
cercetătorului, de scopurile și obiectivele cercetării etc.
Ulterioarele teste statistice aplicate pot fi multiple. Dacă
se aplică și teste pentru corelații Pearson, Spearman etc.,
numărul ipotezelor poate crește în funcție de ce corelații
sunt vizate. În total, pentru cele 8 variabile se pot înregistra
28 de corelații.

108
13. Decizie statistică

Deciziile pentru testele statistice care urmează să


fie aplicate pot fi luate în funcție de mai mulți factori.
După cum se poate vizualiza în tabelul de jos, deciziile
statistice pot fi luate în funcție de tipul de eșantion
(precizare: sunt menționate doar o parte a testelor care pot
fi utilizate).
Eșantion Teste Teste
dedicate generale
Testul t Analiza
Goodness of exploratorie,
Fit descriptivă;
Testul Runs Corelații
Un singur
Testul Pearson,
eșantion
Kolmogorov- Spearman;
Smirnov Testele
Testul pentru un
binomial singur
Test t eșantion

109
Două
Mann-
eșantioane
Whitney
independente
Test t
Două Wilcoxon
eșantioane Testul Sign
dependente Testul
McNemar
ANOVA
unifactorial
ANOVA
factorial
n eșantioane
Testul
independente
Kruskal-
Wallis H
Testul
medianei
Testul
n eșantioane Friedman
dependente Testul
Kendall’s W

110
Testul
Cochran’s Q

Sau în funcție de fenomenul de interes (preluat


(Clinciu, 2013, p. 156)).

111
Sau în funcție de tipul de date (preluat (Clinciu, 2013, p.
157)).

Preluat din sursă neidentificată.

112
Sau în funcție de tipul comparației dorit (Imagine
preluată din sursă neidentificată).

113
114
Bibliografie

Ana-Gabriela, B. (2007). Utilizarea analizei cluster în


comparaţii teritoriale. Analele Universităţii
"Constantin Brâncuşi" din Târgu-Jiu(1), 311-316.
Babbie, E. (2010). Practica cercetării sociale. iași:
Polirom.
Bârsan-Pipu, N. (fără an). Analiza varianţei (ANOVA).
Preluat pe 05 02, 2018, de pe http://universitatea-
cantemir.ro/Cercetare/documente/TEMA%205%2
0-%20ANALIZA%20VARIANTEI.pdf
Bolboacă, S. D. (fără an). Statistică descriptivă. Preluat
pe 03 06, 2018, de pe
http://sorana.academicdirect.ro/pages/doc/TD201
4/Curs04.pdf
Căbulea, L., & Breaz, N. (fără an). Interpretarea
statistică a informaţiilor. Elememnte de data
mining şi prognoză. Modul de instruire nr. 7.
Preluat pe 03 06, 2018, de pe

115
http://www.uab.ro/cursuri_perfectionare/program
_perfectionare_profesionala/pagini/cursuri/Modul
-7-Cabulea-Breaz/curs_modul7.doc
Clinciu, A. I. (2013). Statistica aplicată în psihologie.
Editura Universităţii Transilvania din Braşov.
Clocotici, V. (2018, 05 15). Asocierea variabilelor
discrete. Preluat de pe profs.info.uaic.ro:
https://profs.info.uaic.ro/~val/statistica/AsocVarD
isc.pdf
Clocotici, V. (fără an). Dicţionar explicativ de statistică.
Preluat pe 03 26, 2018, de pe
https://profs.info.uaic.ro/~val/statistica/StatGloss.
htm
Clocotici, V. (fără an). Statistică multivariată. Lucrarea
nr. 12 — Clasificare - SPSS. Preluat pe 05 02,
2019, de pe
https://profs.info.uaic.ro/~val/statistica/StatWork_
12.pdf
Clocotici, V., & Stan, A. (2001). Statistică aplicată in
psihologie. Polirom.
Craşovan, D. I. (2011). Fundamentele testării
psihologice. Timișoara: Eurostampa.

116
Gheorghiu, D. (2003). Statistică aplicată în psihologie.
Editurii Universităţii Titu Maiorescu.
Gorbănescu, A. (fără an). Preluat pe 05 14, 2019, de pe
https://www.coursehero.com/file/41250310/Anali
za-de-itemipdf
Howitt, D., & Cramer, D. (2006). Introducere în SPSS
pentru psihologie. Iași: Polirom.
Isaic-Maniu, A. (fără an). Prelucrarea primară a datelor
statistice. Preluat pe 03 06, 2018, de pe
www.ase.ro/upcpr/profesori/288/curs2.ppt
Lungu, O. (fără an). SPSS 10.0. Familiarizarea cu
programul spss 10.0.
Marian, J. (fără an). Average IQ in Europe by country
(map). Preluat pe 04 22, 2018, de pe
https://jakubmarian.com/average-iq-in-europe-by-
country-map/
Muntean, C. (fără an). Referat-lecţie SPSS-TCM.
Hierarchical Cluster Analysis. K-Means Cluster
Analysis. FEAA. Facultatea de Economie și
Administrarea Afacerilor. Universitatea
“Alexandru Ioan Cuza” din Iaşi.
Naidin, M. (2011). Introducere în SPSS.

117
Opariuc-Dan, C. (2011). Statistică aplicată în ştiinţele
socio-umane. Analiza asocierilor şi a diferenţelor
statistice. Constanţa.
Popa, M. (2006). Aplicaţii SPSS - Prezentare generală .
Popa, M. (2011). Erori statistice. Puterea testului statistic.
Mărimea efectului. Preluat de pe
https://psygnificant.files.wordpress.com/2013/01/
st1_07_erori_putere_efect.pdf
psihologietm.ro. (fără an). Preluat pe 04 24, 2018, de pe
https://www.psihologietm.ro/download/membrii//
Help/index.html
Răulea, C. (2010). Statistică psihologică și prelucrarea
informatizată a datelor.
Sava, F. (2004). Analiza datelor în cercetarea
psihologică. Metode statistice complementare.
Cluj-Napoca: ASCR.
TUTORIALS, S. (fără an). SPSS Kolmogorov-Smirnov
Test for Normality. doi:https://www.spss-
tutorials.com/spss-kolmogorov-smirnov-test-for-
normality/

118
Österreichisch-Rumänischer
Akademischer Verein
ISBN 978-3-902938-52-7

S-ar putea să vă placă și