Sunteți pe pagina 1din 96

Prelucrarea statistică a datelor

în cercetarea pedagogică

MARIA PAVEL, DR., CONF. UNIV.


CATEDRA ITI, UST/UPSC
Cercetarea psihopedagogică

Cercetarea pedagogică - proces critic, dinamic şi continuu de cunoaștere, în care se


formulează întrebări sistematice în legătură cu
componentele şi variabilele fenomenului educaţional şi în
care se încearcă să se răspundă la aceste întrebări.

Pedagogia inseparabilitate Psihologia

CERCETAREA PSIHOPEDAGOGICĂ

Didactica științelor
(matematică, informatică,
biologie, chimie, geografie etc.)
Cerințele față de o cercetare obiectivă și eficientă sunt:

✓ înregistrarea fidelă a datelor utilizând o aparatură corespunzătoare;


✓ investigația unui număr suficient de cazuri, care să se justifice statistic;
✓ asigurarea cadrului natural al situațiilor pedagogice de investigație pe baza
cărora se culeg datele;
✓ folosirea îmbinată atât a datelor din izvoarele directe cât și indirecte, dar și a
metodelor de investigație cu caracter cantitativ și calitativ (acordând o pondere
deosebită analizei calitative, pentru stabilirea concluziilor) specifice fenomenului
educațional;
✓ înainte de stabilirea concluziilor finale să se reia acțiunea de prelucrare și
interpretare a datelor, aceasta oferind posibilitatea de a evita concluziile eronate,
neadecvate sau incomplete;
✓ folosirea unor mijloace tehnice moderne, îndeosebi informatice;
✓ valorificarea rezultatelor cercetării în lucrări scrise (cărți, tratate, reviste, etc.).
Metodele de cercetare tradiționale

observația experimentul

Reprezintă cea mai


importantă metodă de
Etapele cercetării pedagogice sunt: cercetare, deoarece
furnizează date precise şi
obiective
➢ Delimitarea problemei de cercetat;
➢ Proiectarea activității de cercetare;
➢ Organizarea și desfășurarea cercetării;
➢ Analiza, prelucrarea și interpretarea datelor obținute;
➢ Elaborarea concluziilor cercetării;
➢ Valorificarea cercetării;
➢ Introducerea și diseminarea noului în practica educațională.
Analiza, prelucrarea și interpretarea datelor obținute

Interpretarea rezultatelor - activitatea de ordonare și sistematizare a datelor,


stabilirea relațiilor dintre ele, pentru a descoperi
dependențele cauzale și legitățile cărora se supun.
Această etapă evidențiază capacitatea creatoare a cercetătorului de a extrage
din datele furnizate de cercetare adevăruri științifice riguros fundamentate.
Prelucrarea statistică a datelor cercetării:
- datele se prezintă sub formă numerică, cantitativă;
- datele sunt grupate, ordonate, clasificate, sistematizate și corelate;
- se realizează pe baza datelor: tabele, matrice, calcule de procente, grafice,
raportări de scări de evaluare, diagrame de structură, diagrame de
comparație;
- se calculează indici statistici care exprimă tendința centrală în grup sau
variația ( medii, mediane, dispersii etc.).
Statistica
(matematică, economică, socială)

Statistica - ştiinţa care studiază aspectele cantitativ numerice


ale fenomenelor şi proceselor din natură,
tehnologie şi societate. O artă - arta colectării
datelor care caracterizează aceste fenomene şi
procese.
Datele statistice - informaţiile cu privire la diferite
fenomene educaționale observate în mod repetat,
care alcătuiesc, din punct de vedere matematic
nişte mulţimi omogene.
Științele educației sunt parte a științelor sociale, prin
urmare datele furnizate de cercetarea psihopedagogică vor fi
prelucrate cu ajutorul metodelor statisticii sociale.
Concepte statistice de bază
Colectivitatea statistică (populaţia statistică) - totalitatea elementelor
de aceeaşi natură şi generate de acelaşi complex de cauze
esenţiale, supusă unui studiu statistic.
Eșantion - un set de elemente selectate dintr-o populație statistică.
Unităţi statistice - elementele unei populaţii statistice.
Variabilă statistică (caracteristică statistică, variabilă aleatoare) -
trăsătură comună tuturor unităţilor unei populații
statistice, care se evidențiază în cadrul analizei statistice
și care prezintă interes la un moment dat.
Valoare (variantă) a unei variabile statistice - forma concretă de
manifestare a unei variabile la nivelul unei unităţi sau
unui grup de unităţi statistice (studentul poate fi angajat
după absolvire ca programator).
Frecvenţă (pondere) - numărul de apariţii a unei variante într-o
populație statistică.
Variabile statistice
După modul de exprimare:
✓ calitative - sunt exprimate prin cuvinte (studii, localitate, sex, etc.) ;
✓ cantitative – sunt exprimate numeric (nota la examen, vârsta, numărul de studenți etc.).

După natura variaţiei:


✓ continue - pot lua orice valoare dintr-un interval finit sau infinit, ce reprezintă scara de variaţie
(înălțime, greutate, temperatura corpului etc.);
✓ discrete sau discontinue – pot lua doar anumite valori întregi pe o scară fixată de variaţie (nota la un
examen, anul de studii, numărul de discipline la care a susținut examenul etc.).

După conținut:
✓ timp - indică apartenenţa la un moment sau o perioadă de timp (anul de înmatriculare);
✓ de spaţiu - indică amplasarea unităţii statistice în funcție de loc (liceul absolvit);
✓ atributive - nu indică nici timpul nici spaţiul (locul de angajare după absolvire).

După numărul variantelor de răspuns:


✓ alternative (binare sau dihotomice) - au doar două variante de răspuns (sexul, starea civilă) ;
✓ nealternative - au mai multe variante de răspuns (specialitatea la care este înmatriculat).
Datele statistice
Datele statistice - caracterizări numerice ale unităţilor, grupelor şi colectivităţilor, obţinute de
statistică.
După cantitatea variabilelor statistice:
 univariate – se referă la o singură variabilă statistică (bursa fiecărui student al UST);
 bivariate – se referă la 2 variabile statistice (bursa și media notelor fiecărui student UST);
 multivariate – se referă la 3 sau mai multe variabile statistice (bursa, media notelor fiecărui
student, media grupei, numărul de studenți în grupă).
După tipul variabilelor statistice:
 date cantitative (pentru variabilele numerice)
 date calitative (pentru variabilele calitative)
 date discrete
 date continue
 date statice
 date dinamice.
Informaţia statistică - mesajul datelor statistice.
Indicatori statistici - statistice, raportată la timp, spaţiu şi caracteristică a unui fenomen sau un
proces social care se repetă cu regularitate și reprezintă expresia numerică
a unei determinări calitative obiective, obţinute în urma efectuării unei
cercetări structură organizatorică.
Reprezentarea datelor statistice

Într-o cercetare statistică, după ce datele statistice au fost culese şi verificate, se trece la prelucrarea lor,
pentru ca ele să poată fi apoi analizate şi interpretate. De regulă, în etapa de prelucrare, datelor statistice li se
aplică formule. Pentru aceasta, se impune ca nivelurile şi valorile variabilelor (caracteristicilor) să fie
cuantificate, ceea ce înseamnă să se utilizeze numere pentru reprezentare. Numerele nu sunt simple simboluri,
ele reprezintă cantităţi distincte sau categorii distincte pentru variabilele studiate.
Pentru analiza caracteristicilor, se foloseşte teoria măsurii statistice. Conform acestei teorii, datele
statistice se deosebesc în funcţie de scala de măsurare cu ajutorul căreia se stabilesc valorile observate. În
funcţie de nivelul de precizie şi generalitate, se disting patru scale de observare:
✓ Scala nominală - unităţilor statistice li se atribuie însuşiri corespunzătoare variantei în cauză a unei
caracteristici calitative (ocupaţia, tipul de instituție de învățământ absolvită). În cazul acestei scale, numerele
sunt atribuite observaţiilor în calitate de atribute, doar pentru a face judecăţi despre anumite identităţi sau pentru
a face diferenţieri de categorie (de exemplu, se atribuie 1 pentru instituția absolvită - liceu, 2 - colegiu, 3 - școală
profesională, ordinea nu contează). Această scală este, de fapt, un mod de clasificare.
✓ Scala ordinală - se aplică atunci când manifestările concrete ale caracteristicii nu se pot măsura, însă ele se
pot ordona crescător sau descrescător şi li se pot atribui numere de ordine numite ranguri. Măsurătorile pe o
scală ordinală le putem compara utilizând judecăţi ca „mai mare”, „mai mic” sau „egal” (1 - „mai jos decât 150
cm”, 2 - „între 150 și 160 cm”, 3 – „mai înalt decât 160 cm”). Scala ordinală realizează o ierarhizare (anul în
care a avut loc înmatricularea celui mai mare număr de studenţi).
Reprezentarea datelor statistice

✓ Scala de interval – se aplică în cazul caracteristicilor numerice. Caracteristicii


măsurate i se atribuie valori numerice, în funcţie de intervalul dintre valori. Spre
deosebire de scala nominală şi cea ordinală, în acest caz, intervalele dintre
categoriile de pe scală sunt presupuse a fi egale, iar punctul 0 al scalei şi unitatea de
măsură se aleg arbitrar. Prin urmare, o astfel de scală este caracterizată prin absenţa
unui punct 0 absolut (punctul 0 pe scara de temperatură Celsius).
✓ Scala de raport – cea mai înaltă treaptă de măsurare. În acest caz, există un punct 0
fix şi absolut. Indiferent de unitatea de măsură folosită, două valori măsurate cu
ajutorul acestei scale se află în acelaşi raport (cursul valutar de schimb).

În funcţie de treapta de măsurare, variabilele (caracteristicile) statistice se pot exprima


în:
✓ cuvinte - în cazul caracteristicilor alternative;
✓ ranguri (numere de ordine) - în cazul caracteristicilor cu valori ordonabile
crescător sau descrescător;
✓ valori numerice - în cazul caracteristicilor cantitative.
Sistematizarea datelor statistice

Sistematizarea datelor statistice se realizează prin clasificarea şi gruparea datelor


statistice, ceea ce înseamnă împărţirea datelor în grupe, clase omogene, în funcție de
variaţia uneia sau mai multor caracteristici.
O grupă, clasă este omogenă dacă unităţile din interiorul ei se aseamănă cât mai
mult şi variază cât mai puţin. Variaţia este dată de prezenţa factorilor externi, aleatori.
În cercetarea statistică, metoda grupării îndeplineşte următoarele funcţii:
✓ sistematizarea datelor individuale prin restrângerea numărului de valori ale
caracteristicii de grupare;
✓ împărţirea colectivităţii în grupe omogene;
✓ prezentarea şi descrierea structurii colectivităţii;
✓ relevarea tipurilor sociale;
✓ caracterizarea legăturilor dintre caracteristicile statistice.
Sistematizarea datelor calitative se numeşte clasificare - împărţirea unităţilor variabilei
numerice considerate (clasificarea studenților după specialitate, după an de studii, după
forma de studii).
Sistematizarea datelor statistice

Sistematizarea datelor cantitative se numeşte grupare.


Însuşirea care stă la baza împărţirii colectivităţii în grupe omogene constituie caracteristica de
grupare.
După numărul de caracteristici folosite, grupările statistice pot fi:
 grupări simple în cadrul cărora se foloseşte o singură caracteristică de grupare;
 grupări combinate în care se folosesc simultan 2 sau mai multe caracteristici de grupare, care
se află în interdependenţă.
După conţinutul caracteristicii de grupare, grupările statistice sunt:
✓ grupări teritoriale, obţinute prin separarea unităţilor, după o caracteristică de spaţiu;
✓ grupări cronologice, obţinute prin separarea unităţilor după o caracteristică de timp;
✓ grupări atributive, obţinute prin separarea unităţilor după o caracteristică atributivă, indiferent
dacă ea este exprimată numeric sau nominativ.
După mărimea variaţiei caracteristicii de grupare, putem avea:
✓ grupări pe variante, atunci când numărul valorilor pe care le poate lua caracteristica nu este
foarte mare (numărul de copii pe care îi are un angajat);
✓ grupări după intervale de variaţie, atunci când numărul unităţilor şi câmpul de împrăştiere a
valorilor caracteristicii (amplitudinea variaţiei caracteristicii) sunt mari (salariul pe care îl
poate obține un absolvent după angajare).
Centralizarea datelor statistice

Centralizarea (agregarea) datelor - strângerea la centrul de prelucrare a tuturor formularelor şi însumarea


datelor fiecărei caracteristici, în vederea obţinerii indicatorilor.
Centralizarea poate fi simplă sau pe grupe.
Centralizarea corectă a datelor presupune:
✓ ca ea să fie precedată de controlul datelor culese;
✓ datele care urmează a fi însumate să fie comparabile, adică să se refere la aceeaşi caracteristică înregistrată şi
să fie exprimată în aceleaşi unităţi de măsură;
✓ grupele constituite să fie omogene.
Datele obţinute prin operaţia de centralizare se înscriu, de regulă, în tabele statistice, care trebuie să satisfacă
anumite condiţii pentru conţinut şi formă. Regulile ce trebuie respectate la întocmirea unui tabel sunt:
✓ Macheta tabelului trebuie să fie formată din: titlul general, titlurile interioare, reţeaua de linii ce alcătuiesc
tabelul şi notele explicative;
✓ Subiectul tabelului este reprezentat de colectivitatea şi/sau părţile sale componente, la care se referă datele
înscrise, de regulă, în capetele rândurilor;
✓ Predicatul tabelului cuprinde totalitatea caracteristicilor după care s-au sistematizat datele. Se înscriu, de
regulă, în capetele coloanelor;
✓ Rubricile tabelului vor fi completate cu date numerice şi denumiri textuale;
✓ Se va menţiona, de fiecare dată, sursa tabelului;
✓ Se va numerota tabelul.
Reprezentarea grafică a datelor statistice

Grafic - imagine spaţială, care ilustrează informaţii despre prelucrarea datelor, cu ajutorul unor figuri geometrice
sau naturale.
Elementele constitutive ale graficului sunt:
✓ titlul graficului (în cazul în care graficul se obţine în urma prelucrării unui tabel, el va lua denumirea
tabelului)
✓ reţeaua graficului, formată din totalitatea de linii utilizate pentru construcţia lui poate fi: sistem de axe
rectangulare, reţea de cercuri concentrice, reţea curbilinie, reţea în evantai.
✓ scara de reprezentare, care stabileşte corespondenţa dintre unitatea de măsură aleasă pentru reprezentarea
grafică şi unitatea de măsură a caracteristicii statistice.
✓ legenda graficului, care explică simbolurile, liniile, haşurile, culorile folosite în reprezentarea grafică.
✓ sursa datelor se trece sub numele graficului.
✓ notele explicative se trec fie sub reţeaua graficului, fie în subsolul paginii pe care se află graficul.
Tipuri de grafice:
✓ Diagrame linie;
✓ Poligon al frecvențelor;
✓ Diagrama prin coloane;
✓ Diagrama de structură etc.
Programul SPSS
(Statistical Package for the Social Sciences)

https://www.ibm.com/analytics/spss-trials
Programul SPSS
(Statistical Package for the Social Sciences)
Programul SPSS
(Statistical Package for the Social Sciences)

 Programul SPSS (Statistical Package for the Social Sciences) este unul

dintre cele mai utilizate în analiza statistica a datelor. Prima versiune a apărut

în anul 1968, a evoluat pana la versiunea 29 și aria de aplicabilitate s-a extins

de la versiune la versiune, odată cu modul de operare și cu facilitățile oferite.

 este utilizat în marketing, cercetare experimentală, educație, sănătate etc.;

 analizele statistice puternice;

 componente puternice pentru managementul datelor (selectare, reconfigurare,

creare de date noi) și pentru documentarea datelor;

 flexibilitatea privind tipurile de date acceptate și modulul de construire a

rapoartelor.
INTERFAȚA PSPPIRE

http://ftp.gnu.org/gnu/pspp/
INTERFAȚA PSPPIRE

http://ftp.gnu.org/gnu/pspp/
CARACTERISTICI PSPP

● Suportă peste 1 miliard de unități statistice.


● Suportă peste 1 miliard de variabile statistice.
● Are sintaxă și fișiere de date care sunt compatibile cu cele ale SPSS.
● Permite utilizatorului alegerea mediului de lucru: la terminal sau prin
intermediul interfeței grafice PSPPIRE.
● Susține o gamă de formate de ieșire: text, postscript, pdf, opendocument sau
html.
● Permite interoperarea cu aplicațiile Gnumeric, LibreOffice, OpenOffice.Org și
alte programe gratuite.
● Permite ușor importul de date din foi de calcul, fișiere text și surse de baze de
date.
● Deschide, analizează și editează două sau mai multe seturi de date simultan,
care pot fi, de asemenea, fuzionate, unite sau concatenate.
CARACTERISTICI PSPP

● Interfața utilizatorului acceptă toate seturile de caractere comune și a fost


tradusă în mai multe limbi.

● Conține proceduri statistice rapide, chiar și pe seturi de date foarte mari.

● Nu solicită taxe de licență.

● Nu are perioadă de expirare.


● Nu solicită „acorduri de licență pentru utilizatorul final” lipsite de etică.
● Oferă un manual de utilizare complet indexat.
● Oferă libertate asigurată; este licențiat conform GPLv3 sau o versiune mai
nouă.
● Este portabil; rulează pe multe computere diferite și multe sisteme de operare
diferite (GNU sau GNU/Linux sunt platformele preferate, dar sunt multe
rapoarte că funcționează bine și pe alte sisteme).
Tipuri de statistici

Aplicația SPSS permite realizarea a două tipuri de statistici: statistica descriptivă și


statistica inferenţială

 Statistica descriptivă:
 Descrie datele, aşa cum sunt (numeric, grafic);

 Prezintă frecvențe, medii, abateri standard etc.

 Statistica inferenţială:
 Susţine concluzii (inferenţe) cu privire la o populaţie, pe baza datelor obținute pe un
eşantion extras din acea populaţie;
 Are la bază rezultatele semnificative statistic obținute în urma aplicării unor teste de
semnificație (teste t, corelații, ANOVA, regresie etc.).
Analiză descriptivă în SPSS

Analyze → Descriptive → Statistics → Frequencies…


Tabelul 1.1. Instituția absolvită
Cumulative
Frequency Percent Valid Percent
Percent
Tabelul 1.4. Ce browser Web utilizaţi?
Valid Liceu 181 70,7 70,7 70,7
Cumulative
Colegiu 46 18,0 18,0 88,7 Frequency Percent Valid Percent
Alta IS 29 11,3 11,3 100,0 Percent
Total 256 100,0 100,0 Valid Google Chrome 37 14,5 14,5 14,5
Mozila Firefox 54 21,1 21,1 35,5
Internet Explorer 105 41,0 41,0 76,6
Altele 45 17,6 17,6 94,1
Nici unul 15 5,9 5,9 100,0
Total 256 100,0 100,0

Tabelul 1.9. În pregătirea sarcinilor pentru acasă tindeați să recurgeți la ajutorul adulților?
Frequency Percent Valid Percent Cumulative
Percent
Valid Nu întotdeauna sau niciodată 68 26,6 26,6 26,6
Foarte rar, de obicei, întâmplător 59 23,0 23,0 49,6
Mai mult nu decât da, uneori-mi amintesc 67 26,2 26,2 75,8
Da, de mai multe ori, uneori uit 49 19,1 19,1 94,9
Întotdeauna da, permanent 13 5,1 5,1 100,0
Total 256 100,0 100,0
Indicatori statistici de bază
 Media (media aritmetică) - măsură a tendinței centrale a unei distribuții.
 Mediana - valoarea care împarte distribuţia în două părţi egale, din punctul de vedere al frecvenţelor (numărul
care arată de câte ori apare o valoare).
Fie următorul șir de distribuții: 3, 1, 8, 1, 7, 5, 9, 1, 3, 6, 4;
Aranjăm frecvențele în ordine crescătoare: 1, 1, 1, 3, 3, 4, 5, 6, 7, 8, 9;
Fie n numărul scorurilor. Dacă n este impar: Mediana = valoarea de pe poziția (n+1)/ 2, iar dacă N este par, atunci
se calculează media celor două valori din centrul seriei.
 Modul - valoarea cu frecvenţa cea mai mare. Conform distribuției din exemplul anterior, vom avea următorul
tabel al frecvențelor și mod = 1. Valoare 1 3 4 5 6 7 8 9
Frecvență 3 2 1 1 1 1 1 1

 Minim - valoarea cea mai mică a unei distribuții (Ex: min = 1).
 Maxim - valoarea cea mai mare a unei distribuții (Ex: max = 9).
 Varianța - media patratică a abaterilor în mărime absolută a valorilor înregistrate fată de media aritmetică.
Fiind date n numere, xi, unde i = 1, ..., n și media aritmetică m, varianța (var) este:
Din exemplul de mai sus: n = 11, m = 4,36.
1 2 2 2 2 2 2 2 2 2
𝑣𝑎𝑟 = 3 − 4,36 + 1 − 4,36 + 8 − 4,36 + 1 − 4,36 + 7 − 4,36 + 5 − 4,36 + 9 − 4,36 + 1 − 4,36 + 3 − 4,36
11 − 1
2 2
1
+ 6 − 4,36 + 4 − 4,36 = 1,85 + 11,29 + 13,25 + 11,29 + 6,97 + 0,41 + 21,53 + 11,29 + 1,85 + 2,69 + 0,13 = 8,26
10
 Abaterea standard - Măsură a gradului de variabilitate a scorurilor şi arată cât de mult se abat acestea de la
tendinţa centrală. Abaterea standard reflectă abaterea in mărime absolută a valorilor inregistrate fată de media
aritmetică. Se calculeaza ca radical din varianță
Indicatori statistici de bază
Tabele conjugate (crosstabs)

Analyze →
→ Descriptive Statistics →
→ Crosstabs

Tabelul 1.18. Localitate * Instituția absolvită Crosstabulation


Institutia absolvita
Alta
Liceu Colegiu IS Total
Localitate Sat Count 157 39 0 196
% within 100,0
80,1% 19,9% 0,0%
Localitate %
Oras Count 24 7 29 60
% within 100,0
40,0% 11,7% 48,3%
Localitate %
Total Count 181 46 29 256
% within 100,0
70,7% 18,0% 11,3%
Localitate %
Tipuri de variabile
O cercetare analizează relaţia dintre variabilele acesteia. Prin urmare, în contextul
cercetării se face distincţie între variabile dependente (VD) și variabile
independente (VI):
 VD – suportă un efect, variază în funcţie de ceva. Face obiectul central al cercetării.
 VI – determină un efect, induce variaţia VD.

Pentru a face distincție între VD şi VI, le plasăm într-un raţionament de tip cauzal.
 Variabila „cauză” = VI
 Variabila „efect” = VD.

Ex: identificaţi VD şi VI în fiecare din cazurile de mai jos:


 Relaţia dintre ereditate şi inteligenţă;
 Relația dintre strategiile de învățare (profundă sau de suprafață) și performanță
academică;
 Relația dintre eșantionul implicat în cercetare și reușita elevilor din cadrul acestuia;
 Relația dintre extraversiune și leadership.
Teste statistice

Într-o cercetare psihopedagogică se înaintează ipoteze, al căror adevăr se testează prin diferite proceduri statistice de
calcul, care au ca scop evidențierea legăturilor dintre variabile. Dacă variabilele dependente, supuse acestor calcule,
sunt cantitative, atunci procedura se va numi parametrică. Iar dacă variabilele dependente sunt calitative, atunci
procedura se va numi neparametrică. Ambele tipuri de proceduri statistice de calcul se realizează în cadrul softului
specializat SPSS prin intermediul testelor parametrice și neparametrice, unde prin parametru se înțelege o
proprietate numerică a unei populații statistice. Fiecare tip de test este aplicabil în situații de cercetare diferite și
necesită îndeplinirea unor anumite condiții.
Test statistic - metodă de decizie care ne ajută la validarea sau invalidarea cu un anumit grad de siguranţă a unei
ipoteze statistice.
Testarea unei ipoteze statistice se face prin compararea a două ipoteze concurente:
1. Ipoteza nulă H0 – modelul pe care cercetătorul doreşte să îl înlocuiască;
2. Ipoteza alternativă H1– noul model, menit să înlocuiască ipoteza nulă.
Scopul testului statistic este de a dovedi că ipoteza nulă este falsă.
Rezultatul testului:
✓ Nu putem afirma că acceptăm ipoteza nulă;
✓ O putem sau nu nega.
Pragul de semnificaţie - (nivelul) reprezintă mărimea riscului de eroare pe care cercetătorul este dispus să îl
accepte, implicit să şi-l asume.
De obicei se alege un nivel de semnificaţie între 1 şi 5% (0,05). Se calculează valoarea parametrului definit anterior
pe baza datelor de cercetare și se notează, de obicei, cu p.
Interpretarea valorii p

 0,01≤ p ≤ 0,05 – rezultate statistic semnificative


 0,001≤ p < 0,01 – rezultate înalt semnificativ statistic
 p<0,001 - rezultate foarte înalt semnificativ statistic
 p>0,05 – rezultate nesemnificative statistic
 0,05< p ≤ 0,1 – tendinţă către semnificaţie statistică

În funcţie de semnificaţia statistică se poate face una din următoarele concluzii la


un test statistic :
 Ipoteza nulă H0 poate fi negată dacă rezultatul testului are cel puţin
semnificaţie statistică;
 Dacă rezultatul testului nu are cel puţin semnificaţie statistică, ipoteza nulă H0
nu poate fi negată.
Teste statistice
Analiza corelațională
Teste de asociere bivariată: Corelația r-Pearson; Corelația -Spearman;
Corelația -Kendall

32

Analiza corelațională este o tehnică statistică folosită pentru a analiza legătura sau asocierea dintre
două variabile atunci când acestea sunt cantitative sau ordinale.
De exemplu: ne-ar putea interesa sa verificăm, de exemplu, dacă există o relaţie între numărul de ore
alocate studiului la matematică şi notele elevilor la matematică.
Pentru testarea asocierii dintre două variabile se pot calcula următorii coeficienţi de corelaţie:
1. coeficientul de corelaţie Pearson r;
2. coeficientul de corelaţie Spearman ρ;
3. coeficientul de corelaţie Kendall τ;
4. coeficientul de corelaţie parţială.
Primele trei tipuri se mai numesc şi corelaţii bivariate.
Coeficienții de corelație
r Pearson,  Spearman și -Kendall

33

Valorile coeficientului de corelaţie r pot varia în intervalul [– 1, 1]:


• o valoare a lui r pozitivă arată că există o corelaţie pozitivă între cele două
variabile, astfel că odată cu creşterea orelor alocate studiului tinde să crească şi
performanţa şcolară.
• atunci când r ia o valoarea negativă rezultă că există o corelaţie negativă între cele
două variabile, astfel că o dată cu creşterea scorurilor la una dintre variabile,
scorurile la cealaltă tind să scadă, şi reciproc.
De exemplu, ar putea fi o corelaţie negativă între orele alocate jocurilor pe calculator
şi performanţa şcolară: elevii care alocă mai multe ore jocurilor pe calculator tind să
obţină note şcolare mai scăzute şi invers, elevii care alocă mai puţine ore jocurilor pe
calculator tind să obţină note şcolare mai ridicate. De asemenea, r poate lua şi valoarea
zero iar în acest caz nu există o corelaţie între cele două variabile.
Coeficienții de corelație
r Pearson,  Spearman și -Kendall

34

Dincolo de valoarea unui coeficient de corelație, atunci când interpretăm un


test statistic trebuie să avem în vedere și valoarea pragului de semnificație p.

Pragul de semnificație standard utilizat în statistică este p = 0.05 (riscul de


eroare, admitem că există 5 % șanse de a greși, de a comite o eroare).

Dacă p ≤ 0.05 pentru un test statistic, atunci putem afirma că rezultatul la acel
test este semnificativ statistic.
Coeficienții de corelație
r Pearson,  Spearman și -Kendall

35
• Dacă variabile sunt cantitative (pe scale de interval/ raport), se aplică corelația r Pearson.
• Dacă variabile sunt ordinale, sau una ordinală și una cantitativă, se aplică corelația ρ Spearman.
• Dacă variabile sunt ordinale, sau variabilele au număr redus de categorii, sau există un număr ridicat
de ranguri egale, se aplică corelația  Kendall.

Calea în SPSS: Analyze → Corelate → Bivariate.


În fereastra deschisă se bifează coeficientul necesar. Din output-ul obținut, analizăm:
• Semnul corelației (r):
• pozitiv: relație direct proporțională;
• negativ: relație invers proporțională.
• Semnificația legăturii (pragul de semnificație p sau, în SPSS, sig.);
• Mărimea/ puterea corelației (în valoare absolută):
• 0-0.29 = legătură slabă;
• 0.3-0.49 = legătură medie;
• 0.50-0.69 = legătură puternică;
• 0.70-1 = legătură foarte puternică.
Coeficienții de corelație
r Pearson,  Spearman și -Kendall
Exemplu de calcul al coeficientului de corelație r Pearson.
Se va verifica ipoteza: Există o corelație semnificativă între creativitate și leadership (valori obținute prin
chestionare și calculul punctajului primit).

36

Correlations

leadership creativitate
leadership Pearson Correlation 1,000 ,660**
Sig. (2-tailed) , ,000
N 104 104
creativitate Pearson Correlation ,660** 1,000
Sig. (2-tailed) ,000 ,
N 104 104
**. Correlation is signif icant at the 0.01 level (2-tailed).

Deoarece ambele variabile sunt cantitative (scoruri la chestionare), aplicăm corelația Pearson.
• r = 0.660, p = 0.000, așadar există o corelație pozitivă semnificativă statistic între creativitate și
leadership, în sensul că subiecții care au scoruri ridicate la creativitate au scoruri ridicate și la
leadership, și reciproc, subiecții care au scoruri scăzute la creativitate au scoruri scăzute la leadership.
Coeficienții de corelație
r Pearson,  Spearman și -Kendall
Exemplu de calcul al coeficientului de corelație ρ Spearman.
Se analizează existenţa unei corelaţii între ierarhizarea elevilor
dintr-o clasă de către profesor de la 1 la 5
(1 = pe primul loc, 5 = pe ultimul loc) în ceea ce priveşte
aptitudinile matematice şi rezultatele elevilor la un test de inteligenţă.
37

Correlations • Deoarece una dintre variabile este ordinală și


evaluarea profesorului una cantitativă, se aplică corelația Spearman.
privind abilitatile
matematice ale elevilor QI • ρ = - 0.714, p = 0.000, așadar există o corelație
Spearman's evaluarea Correlation
1,000 -,714**
negativă semnificativă statistic între QI și
rho profesorului Coefficient aprecierea privind aptitudinile matematice, în
privind abilitatile Sig. (2-tailed) . ,000
matematice ale N sensul că elevii care au un QI ridicat au scoruri
28 28
elevilor scăzute la variabila evaluare profesori, și invers.
QI Correlation Știm că scor scăzut la variabila evaluare
-,714** 1,000
Coefficient
Sig. (2-tailed) ,000 . profesori înseamnă abilităţi matematice ridicate
N 28 28 (primele locuri). Aşadar, elevii evaluaţi de către
**. Correlation is significant at the 0.01 level (2-tailed).
profesori ca având abilităţi matematice
dezvoltate au un QI ridicat, şi invers.
Coeficienții de corelație
r Pearson,  Spearman și -Kendall
Exemplu de calcul al coeficientului de corelație  Kendall.
Se analizează existenţa unei corelaţii între implicarea elevilor
în sarcina de grup (1 - puternică, 2 - medie, 3 - slabă)
și poziția acestora în cadrul grupului (1 – poziție de lider,
2 - poziție medie, 3 - poziție marginală)
38
.

Correlations
pozitia in
implicare cadrul • Deoarece ambele variabile sunt ordinale, se
in sarcina grupului aplică corelația Kendall.
Kendall's implicare in Correlation
tau_b sarcina Coefficient
1,000 ,580** •  = 0.580, p = 0.003, așadar există o corelație
Sig. (2-tailed) . ,003 pozitivă semnificativă statistic între implicarea
N 25 25 elevilor în sarcină și poziția acestora în cadrul
pozitia in Correlation grupului.
,580** 1,000
în sarcina de cadrul
grup . Coefficient
grupului Sig. (2-tailed) ,003 .
N 25 25
**. Correlation is significant at the 0.01 level (2-tailed).
Normalitatea distribuției

Normalitatea distribuției - distribuția scorurilor


variabilei cantitative nu diferă semnificativ de o
distribuție normală (condiție a testelor parametrice).
Testarea normalității unei distribuții se face prin
două metode:
- Grafic (reprezentarea datelor sub formă de
histogramă);
- Statistic (testul Kolmogorov-Smirnov, testul
Shapiro-Wilk) și verificarea coeficienților de
asimetrie și boltire (skewness și kurtosis).
Normalitatea distribuției

Demersul grafic: Graphs → Legacy dialogs → Histogram.

Dezavantaj: subiectivismul
în aprecierea normalității.
Estimăm vizual dacă distribuția respectivă se încadrează
sub curba normalității
(bifăm opțiunea Display Normal Curve).
Redactăm histograma executând un dublu click peste detaliul dorit.
Normalitatea distribuției

Demersul statistic, testul Kolmogorov-Smirnov pentru un eșantion: Analyze → Nonparametric Tests →


Legacy dialogs → 1-Sample K-S.

Testul compară distribuția scorurilor variabilei pe eșantion cu o distribuție normală ce are aceeași medie și
deviație standard. Dacă rezultatul este nesemnificativ statistic (p>0.05), atunci distribuția variabilei pe
eșantion nu diferă semnificativ de o distribuție normală.
Exemplu: se verifică normalitatea distribuției variabilei Evaluare I. Nu este normal distribuită deoarece,
Z=0,315, p=0,000<0,05: există diferențe semnificative între distribuția variabilei Evaluare I și distribuția
normală. Acest lucru este confirmat și de histograma din exemplul anterior.
Normalitatea distribuției

Demersul statistic, testul Shapiro-Wilk: Analyze → Descriptive Statistics → Explore. Se trece


variabila cercetată la normalitatea distribuției în câmpul Dependent List, apoi se acționează butonul
Plots și se bifează opțiunea Normality plots with tests, Continue, OK.

Testul verifică normalitatea distribuției și este mai puternic decât testul Kolmogorov-Smirnov. Dacă
rezultatul este nesemnificativ statistic (p>0.05), atunci distribuția variabilei pe eșantion nu diferă
semnificativ de o distribuție normală.
Normalitatea distribuției

Exemplu test Shapiro-Wilk: se verifică normalitatea distribuției variabilei Evaluare I. Tabelul


principal Tests of Normality prezintă rezultatele testelor Kolmogorov-Smirnov și Shapiro-Wilk, care
trebuie să fie nesemnificative statistic pentru o distribuție normală. Prin urmare variabila Evaluare I
nu este normal distribuită deoarece K-S(31)=0,315, p=0,000 (<0,05), iar S-W(31)=0,840, p=0,000
(<0,05).

Deci, există diferențe semnificative între distribuția variabilei Evaluare I și distribuția normală. Acest
lucru confirmă rezultatele anterioare.
Normalitatea distribuției

Verificarea coeficienților de asimetrie și boltire (skewness și kurtosis)


Coeficientul de asimetrie (skewness) exprimă gradul de deplasare la stânga (valori
negative) sau la dreapta (valori pozitive) a distribuției unei variabile față de distribuția
normală.
Coeficientul de boltire (kurtosis) exprimă gradul de grupare a observațiilor în jurul valorii
centrale. Pentru o valoare pozitivă, curba este mai boltită, iar valoare negativă, curba este
mai puțit boltită față de curba unei distribuții normale.
Coeficienții se citesc din tabelul Descriptives și se recomandă transformarea lor în note z,
𝑆−0 𝐾−0
după formulele: 𝑧𝑠𝑘𝑒𝑤𝑛𝑒𝑠𝑠 = , 𝑧𝑘𝑢𝑟𝑡𝑜𝑠𝑖𝑠 = .
𝑆𝐸𝑠𝑘𝑒𝑤𝑛𝑒𝑠𝑠 𝑆𝐸𝑘𝑢𝑟𝑡𝑜𝑠𝑖𝑠

Dacă notele z sunt mai mari decât 2.0 sau 2.5, după modul, atunci distribuția diferă
semnificativ de o distribuție normală.
De exemplu, conform tabelului de mai sus, pentru Skewness avem: S=0,540,
SEskewness=0,421
Zs=0,540/0,421=1,28
Iar pentru Kortoisis avem K=0,080, SEKurtosis=0,821
Zk= 0,080/0,821= 0,62=0,31
Testul t pentru compararea de medii

1. Testul t pentru un eșantion (One-Sample T Test)


2. Testul t pentru două eşantioane perechi (Paired-Samples
T Test)
3. Testul t pentru eşantioane independente (Independent
Samples T-Test)
Testul t pentru un eșantion (One-Sample T Test)

• Aplicarea acestui test urmărește compararea mediei unei variabile cu o


valoare standard fixată anterior. Se verifică astfel dacă există o diferență
semnificativă între media pe eșantion și o valoare specificată a priori de
către cercetător.
• Variabila trebuie să fie cantitativă.
• Calea în SPSS este: Analyze → Compare Means → One-Sample T Test.
Testul t pentru un eșantion (One-Sample T Test)

• Să analizăm dacă elevii dintr-o şcoală au obţinut note semnificativ mai mari sau
mai mici comparativ cu media pe țară la examenele de bacalaureat în anul 2019,
adică 7,14.
• Trecem VD media la examenele de Bacalaureat în câmpul din dreapta Test
Variable(s) iar în câmpul Test Value trecem valoarea 7,14, apoi click OK.
• Se obțin următoarele tabele:

• În tabelul One-Sample Statistics sunt prezentate informaţii privind numărul de subiecţi


(31) și media obţinută de aceștia la examenele de Bacalaureat (8.37).
• Comparând media obţinută de subiecţii noştri (8.37) cu media pe țară (7.14) constatăm
că elevii din eşantionul experimental au obţinut o medie mai mare.
Testul t pentru un eșantion (One-Sample T Test)

• Tabelul One-Sample Test prezintă rezultatele la testul t de comparare a mediilor.


Observăm că t (30) = 7.376, p ≤ 0.001, ceea ce înseamnă că diferenţa dintre medii de
1.23 este semnificativă statistic.
• Aşadar, elevii din şcoala noastră au obţinut rezultate semnificativ mai mari la
examenele de Bacalaureat, comparativ cu elevii din țară. În general semnul la testele t
nu se trece atunci când se prezentă rezultatele.
Testul t pentru două eşantioane perechi (Paired-Samples T Test)

Acest test urmăreşte compararea scorurilor a două variabile pereche:


• compararea scorurilor la o variabilă în două condiţii experimentale pretest-posttest (de
exemplu, performanţă pretest şi performanţă posttest).
• compararea evaluărilor subiecţilor asupra a două aspecte diferite, scala de evaluare
fiind aceeaşi (de exemplu, interesul privind două materii de învăţământ diferite sau
două produse diferite).
Exemplu. Verificăm eficienţa unui program de training vizând dezvoltarea abilităţilor de
comunicare la elevi (demersul 1, pretest-posttest). Aplicăm un chestionar care măsoară
abilităţile de comunicare conţinând două forme paralele A şi B. Forma A este aplicată înainte de
training (pretest), iar forma B este aplicată după training (posttest). VI este momentul temporal
(cu două nivele: înainte de intervenţie şi după intervenţie) iar VD reprezintă abilităţile de
comunicare.
Condițiile ce trebuie respectate sunt:
 variabila dependentă este cantitativă, măsurată pe scale de interval sau proporţii;
 variabila dependentă este normal distribuită;
 variabila independentă este dihotomică, iar nivelele sale sunt pereche, sau legate într-un
anumit mod (pretest - posttest, copii - părinți etc.)
Testul t pentru două eşantioane perechi (Paired-Samples T Test)

 Fie că se dorește compararea mediilor subiecților incluși în eșantionul experimental la


evaluarea inițială și evaluarea finală.
Calea SPSS: Analyze → Compare Means → Paired-samples T Test.
Trecem variabilele evaluare_initiala şi evaluare_finala în câmpul Paired Variables,
apoi click OK.

Se vor obține următoarele tabele:


Testul t pentru două eşantioane perechi (Paired-Samples T Test)

 Tabelul Paired Samples Statistics afişează – pentru fiecare dintre cele două variabile –

mediile, numărul de subiecţi, deviaţiile standard şi erorile standard a mediilor.


Observăm că media la evaluarea inițială înainte de intervenţie este 7.70 iar la evaluarea
finală după intervenţie este 8.21.

 Tabelul Paired Samples Test, prezintă rezultatele testului t: t (30) = 5.703, p = .000.

Cum t este semnificativ rezultă că există o diferenţă semnificativă între mediile la cele
două evaluări, media la evaluarea finală după intervenţie fiind semnificativ mai mare
comparativ cu media la evaluarea inițială înainte de intervenţie.
Testul T – student, pentru două eșantioane independente

Testul T-student pentru două eșantioane independente permite verificarea existenţei de


diferenţe semnificative între două grupuri comparate, în ceea ce priveşte mediile variabilei
dependente analizate. Condiţiile aplicării testului t pentru eşantioane independente sunt:

 independenţa grupurilor– fiecare subiect face parte doar dintr-un grup, iar aceste

grupuri sunt independente;

 variabila dependentă este cantitativă, măsurată pe scale de interval sau proporţii;

 variabila dependentă este normal distribuită; unii autori consideră totuşi că testele t

sunt destul de robuste, putând fi aplicate şi atunci când această condiţie este încălcată;

 omogenitatea varianţelor – grupurile trebuie să facă parte din populaţii cu varianţe

egale.
Testul T – student, pentru două eșantioane independente

Calea SPSS: Analyze → Compare Means → Independent-Samples T Test. La Test


Variable(s) introducem câmpul a cărui valori vrem să le comparăm (de ex: Nota (Media la
lecțiile de laborator (rotunjită)), iar la Grouping variable introducem câmpul Eşantion,
apoi definim grupurile, executând un clic pe butonul Define groups. Vom nota prin 1 –
„eşantionul experimental”, iar prin 2 – „eşantionul de control”.
Interpretarea rezultatelor Testului T – student,
pentru două eșantioane independente

După clic pe Continue, apoi OK se obține un fișier de ieșire (OutPut – fereastra Viewer) cu
tabelele Group Statistics și Independent Samples Test.
În tabelul Group Statistics se afișează – pentru fiecare dintre cele două eșantioane
(experimental și de control) – numărul de subiecți, mediile, deviațiile standard și erorile
standard a mediilor. Observăm că Media la lecțiile de laborator (rotunjită) pentru
eșantionul experimental este 7.43, iar pentru eșantionul de control este 7.83.

Tabelul 2.6. Group Statistics

Eșantion N Mean Std. Deviation Std. Error Mean

Experimental 56 7,43 1,536 ,205


Media la lecțiile de laborator
rotungită
De control 12 7,83 1,267 ,366
Interpretarea rezultatelor Testului T – student,
pentru două eșantioane independente

 În tabelul Independent Samples Test se afișează mai întâi rezultatele testului Levene de
omogenitate. Acestea trebuie să fie nesemnificative, pentru ca să se asume omogenitatea
varianțelor. Deci, în exemplul de mai jos, F(66)=1.153, cu un prag de semnificație (Sig.)
p=0.287>0,05, prin urmare se îndeplinește omogenitatea varianțelor.

 În acest caz se citesc rezultatele lui t din primul rând (Equal variances assumed): t(66)=0.851, cu
un prag de semnificație (Sig.) p=0. 398>0,05, ceea ce înseamnă că nu sunt diferențe semnificative
între mediile celor două eșantioane.
Tabelul 2.7. Test pentru eşantioane independente (Independent Samples Test)
Levene's Test for
Equality of
Variances t-test for Equality of Means
95% Confidence
Sig. Mean Std. Error Interval of the
F Sig. t df Difference
(2-tailed) Difference Difference
Lower Upper
Media la lecțiile Equal variances
de laborator assumed
1,153 ,287 -,851 66 ,398 -,405 ,475 -1,354 ,544
rotungită

Equal variances
not assumed
-,965 18,643 ,347 -,405 ,419 -1,284 ,474
Testele neparametrice de comparare a mediilor

 Testul Mann-Whitney pentru două eșantioane independente

 Testul Wilcoxon – pentru 2 eșantioane perechi

 Testul binomial de verificare a egalității unei proporții cu o valoare specificată

 Testele Chi-Square
Testul Mann-Whitney

Se compară mediile unor grupe diferite de participanți la aceeași variabilă după ranguri.
Condiții:
 Grupele sunt independente (2 grupuri formate din participanți diferiți);

 Scala VD: ordinală (niveluri/ ranguri) SAU de interval (scor total la un instrument),
dar datele nu sunt normal distribuite.

Test variable: VD;


Grouping variable: VI.

Analyze → Nonparametric Tests →


→ Legacy Dialogs →
→ 2 Independent Samples.
Testul Mann-Whitney

Rang – număr de ordine al fiecărui subiect.


Algoritmul testului:
- se ordonează crescător după scorul la variabila cercetată subiecții din ambele grupe
experimentale;
- Se adună rangurile pentru fiecare eșantion în parte și se obține suma rangurilor – Sum
of Ranks (apoi se împarte la numărul corespunzător de subiecți din fiecare eșantion și
se calculează media rangurilor – Mean Rank);
- Se calculează coeficientul U Mann-Whitney, pentru fiecare grup statistic, conform
𝑛 𝑛−1
formulei: 𝑈 = 𝑆 − 2 .
- Se consideră U final, cel mai mic U calculat, W - suma rangurilor pentru grupul cu U
cel mai mic.
Testul Mann-Whitney

În SPSS, aplicația selectează automat testul Mann-Whitney U, deoarece în câmpul Tests


este bifată opțiunea Mann-Whitney U. La Test Variable List trecem variabila Nota (Media
la lecțiile de laborator (rotunjită)), iar la Grouping variable introducem câmpul Eșantion,
apoi definim grupurile, executând un clic pe butonul Define groups. În caseta de dialog
deschisă, vom introduce 1 pentru „eşantionul experimental”, și 2 pentru „eșantionul de
control”. După aceasta executăm un clic pe Continue, apoi OK.
Interpretarea rezultatelor Testului Mann-Whitney

În tabelul Ranks se afișează pentru fiecare dintre cele două eșantioane (experimental și de control) –
numărul de subiecți, media și suma rangurilor, Observăm că Media rangurilor pentru eșantionul
experimental este 33.71, iar pentru eșantionul de control este 38.17.
În tabelul Test Statistics avem: U(68)=292.00, W=1888.00, cu un prag de semnificație (Sig.)
p=0.469>0,05, prin urmare nu sunt diferențe semnificative între mediile celor două eșantioane.
Tabelul 2.8. Ranks
Sum of
Eșantion N Mean Rank Ranks
Media la lecțiile de Experiment
56 33,71 1888,00
laborator rotungită al
De control 12 38,17 458,00
Total 68 Tabelul 2.9. Teste statistice (Test Statisticsa)

Media la lecțiile de laborator rotungită


Mann-Whitney U 292,000
Wilcoxon W 1888,000
Z -,725
Asymp. Sig. (2-tailed)
,469

a. Grouping Variable: Eșantion


Testul Wilcoxon – pentru 2 eșantioane perechi

Scop: se compară rezultatele aceluiași grup de subiecți la două variabile diferite sau la aceeași
variabilă măsurată în momente temporale diferite.
Condiții:
 Avem doar 2 situații (variabile/ momente temporale);

 Scala variabilelor: ordinală (niveluri/ ranguri) SAU de interval (scor total la un instrument),
dar datele nu sunt normal distribuite.
Calea în SPSS: Analyze – Non-parametric test – Legacy Dialogs – 2 Related Samples.
 Test variable: VD;

 Grouping variable: VI.


Testul Wilcoxon – pentru 2 eșantioane perechi

Din primul tabel identificăm suma rangurilor pozitive (cazul când valoarea variabilei cercetate în cazul
experimental final – posttest, este mai mare decât valoarea variabilei în situația experimentală inițială –
pretest, notat cu b sub tabel) și suma rangurilor negative (cazul când valoarea variabilei cercetate în cazul
experimental final – posttest, este mai mică decât valoarea variabilei în situația experimentală inițială –
pretest notat cu a, sub tabel). De asemenea sunt calculate mediile acestor ranguri, care ne vor ajuta să
decidem în favoarea cui sunt diferențele de medii, dacă acestea se vor atesta.
Tabelul doi este principal și ne furnizează rezultatele la testul Wilcoxon. Dacă aceste rezultate sunt
semnificative (dacă pragul de semnificație este p=Asymp.Sig. <0.05). În exemplul de mai sus pragul de
semnificație este p=0,000, prin urmare se atestă diferențe semnificative între media valorilor la evaluarea
finală și cea de la evaluarea I. Deoarece media rangurilor pozitive este mai mare decât a celor negative
(mean rank=15.50, se atestă la 26 subiecți din 31 o creștere semnificativă a rezultatelor la evaluarea finală
față de evaluarea I).
Testul binomial de verificare a egalității unei proporții cu o
valoare specificată

Scopul: compararea unei proporții cu o valoare specificată (analog testului t pentru un eșantion).
Analyze → Nonparametric Tests → Legacy Dialogs → Binomial .
La Test Variable List trecem variabila sexul, apoi OK.

Se compară proporția așteptată cu 0,50 (50%). Dacă pragul de semnificație este mai
mare decât 0,05, atunci nu există diferențe semnificative între proporția observată și
proporția stabilită anterior. În caz contrar, pragul de semnificație este mai mic decât
0,05, atunci există diferențe semnificative între proporția observată și cea comparată.
Testul Chi-Square pentru o variabilă

Scop: se compară frecvențele teoretice cu frecvențele observate, pentru o variabilă.


Calea în SPSS: Analyze –Nonparametric tests –Legacy dialogs – Chi-Square 𝜒 2 .
Când nu se cunosc frecvențele teoretice se consideră frecvențe teoretice egale (all categories
equal)

 Ex.1. Interpretare output: din tabelul principal Test Statistics, observăm că rezultatele la testul 𝝌𝟐 sunt
semnificativ statistice, deoarece p=Asymp. Sig.=0,007<0.05. Deci sunt diferențe semnificative între frecvența
așteptată (distribuție egală – este bifată opțiunea All categories equal, câte 10 unități la fiecare valoare din
totalul de 20 de unități) și frecvența observată a valorilor variabilei testate (16 unități UST, 4 unități altele).
Pentru a decide aspectul diferențelor analizăm informația din primul tabel: dacă valoarea reziduală este
pozitivă atunci diferențele sunt în favoarea cazurilor observate.
Testul Chi-Square pentru o variabilă

 Ex. 2. rezultatele la testul 𝝌𝟐 sunt  Ex.3. rezultatele la testul 𝝌𝟐 sunt


nesemnificative statistic, deoarece nesemnificative statistic, deoarece
p=Asymp. Sig.=1,0>0.05. Deci sunt nu p=Asymp. Sig.=1,0>0.05. Deci sunt nu
diferențe semnificative între frecvența diferențe semnificative între frecvența
așteptată și frecvența observată a valorilor așteptată și frecvența observată a valorilor
variabilei testate observate. variabilei testate observate.
Mărimea efectului

Mărimea efectului unei VI asupra VD reprezintă puterea relației dintre VI și VD, este relevantă
pentru semnificația practică a rezultatelor. Specificarea este obligatorie, furnizează indicatori de două
tipuri:
 bazați pe o diferență standardizată între medii (d Cohen);
 bazați pe procentul de variație explicată (r).
1. În cazul testelor t pentru un eșantion și pentru eșantioane perechi:

𝑡2 𝑡2 𝑡2 𝑡2
𝑑= = , r= = .
𝑑𝑓 𝑁−1 𝑡 2 +𝑑𝑓 𝑡 2 + 𝑁−1

Formulele de transformare a lui d în r și invers sunt:


𝑟 𝑑2 𝑑
𝑑= ,r = =
1− 𝑟2 𝑑2 + 1 𝑑2 + 1
2. În cazul testelor t pentru eșantioane independente, grupe inegale:
𝑡 𝑛1 +𝑛2 𝑡 𝑛1 +𝑛2 𝑑 𝑛1 𝑛2
𝑑= , 𝑟= ,𝑟=
𝑑𝑓 𝑛1 𝑛2 𝑡 2 𝑛1 +𝑛2 2 +4𝑑𝑓 𝑛1 𝑛2 𝑑 𝑛1 𝑛2 + 𝑛1 +𝑛2 2
Mărimea efectului

Ex. 1: pentru eșantioane perechi (vedeți titlul tabelului – Paired Samples Test )
t=-6.602, df=24 :
𝑡2 6.6022 𝑡2 6.6022 43.586
𝑑= = = 1.816=1.347, r= = = = 0.80.
𝑑𝑓 24 𝑡 2 +𝑑𝑓 6.6022 +24 67.586

d=1,347>1, r>0.7 rezultă că efectul Variabilei independente (strategia de creștere a stimei de sine) asupra
variabilei dependente (stima de sine) este foarte puternic.

𝑡 𝑛1 +𝑛2 4,527 42+34 344,052


Ex. 2: pentru eșantioane independente, grupe inegale: 𝑑 = = = 325,072 = 1,058, efect foarte puternic
𝑑𝑓 𝑛1 𝑛2 74∗ 42∗34

𝑡 𝑛1 + 𝑛2
𝑟=
𝑡 2 𝑛1 + 𝑛2 2 +4𝑑𝑓 𝑛1 𝑛2
Mărimea efectului

3. În cazul testelor t pentru eșantioane independente, grupe egale:


2𝑡 𝑑2 2𝑟
𝑑= ,𝑟= , 𝑑=
𝑑𝑓 𝑑 2 +4 1−𝑟 2
4. Pentru testele neparametrice z sau 2:
𝑧2 2
r= = .
𝑛 𝑛

Interpretarea mărimii efectului:


Mărimea efectului D Cohen r
Foarte puternic ≥1,00 ≥0,70
Puternic 0,80 0,5
Mediu 0,50 0,30
Slab 0,20 0,10
ANOVA simplă (One-Way)

Scopul acestei metode îl reprezintă testarea diferențelor între mediile a trei sau mai multe grupe
independente.
Cerințe: VI este categorială cu 3 sau mai multe categorii, VD este cantitativă.
Exemplu: Într-un studiu non-experimental analizăm dacă există diferenţe în funcţie de categoria de
vârstă în ceea ce priveşte manifestarea comportamentelor prosociale. Vom aplica un chestionar care
măsoară comportamentul prosocial pe un lot de 200 subiecţi stratificat în funcţie de variabila vârstă
astfel: 50 de subiecţi de 10-14 ani, 50 de subiecţi de 15-19 ani, 50 de subiecţi de 20-25 de ani şi 50 de
subiecţi de 26-30 de ani.
Ipoteza: există diferențe semnificative în funcție de vârstă în ceea ce privește comportamentul
prosocial.
Calea în SPSS este: Analyze → Compare Means → One-Way ANOVA.
• Trecem VD cantitativă prosocial în spaţiul Dependent List iar VI categorială vârstă în spaţiul
Factor.
• Activăm butonul Options şi aici bifăm Descriptives, apoi click Continue.
• Activăm butonul Post Hoc și bifăm Bonfferoni, click Continue și OK.
ANOVA simplă (One-Way)
ANOVA simplă (One-Way)

Tabelul Descriptives prezintă mediile pentru fiecare grup la comportament prosocial.


Tabelul ANOVA prezintă rezultatul la testul F general;
F(3,196) = 4.412, p=0,005 < 0.05, rezultă că există diferenţe semnificative între grupuri în ceea ce
priveşte manifestarea comportamentului prosocial.
ANOVA simplă (One-Way)

Tabelul Multiple Comparisons prezintă rezultatele la testul Bonferroni pentru compararea grupurilor între ele.
Analizăm rezultatele din coloana diferențelor dintre medii (MD) și pragul de semnificație p (coloana Sig.):
• Nu există diferențe semnificative între grupurile 11-15 ani și 16-20 ani în ceea ce privește comportamentul
prosocial, MD = 1.960, p = 1.000;
• Nu există diferențe semnificative între grupurile 11-15 ani și 21-25 ani în ceea ce privește comportamentul
prosocial, MD = 1.700, p = 1.000;
• Nu există diferențe semnificative între grupurile 11-15 ani și 26-30 ani în ceea ce privește comportamentul
prosocial, MD = 2.720, p = 0.373;
• Nu există diferențe semnificative între
grupurile 16-20 ani și 21-25 ani în ceea ce privește
comportamentul prosocial, MD = 0.260, p = 1.000;
• Există diferențe semnificative între
grupurile 16-20 ani și 26-30 ani în ceea ce
privește comportamentul prosocial,
MD = 4.680, p = 0.009, în sensul că subiecții
din grupul 26-30 ani au o medie mai mare la
comportament prosocial decât subiecții din grupul
16-20 ani;
• Există diferențe semnificative între grupurile
21-25 ani și 26-30 ani în ceea ce privește
comportamentul prosocial, MD = 420, p = 0.016, în sensul că subiecții din grupul 26-30 ani au o medie mai mare la
comportament prosocial decât subiecții din grupul 21-25 ani.
ANOVA factorială

Prin intermediul tehnicii ANOVA factorială putem analiza efectele a două sau mai multe VI asupra
unei VD, precum şi efecte de interacţiune ale VI asupra VD.
Exemplu. Ne propunem să verificăm influenţa autonomiei în învăţare şi a internalismului-
externalismului asupra performanţei şcolare la elevii de liceu.
• Vom verifica dacă odată cu creşterea gradului de autonomie în învăţare, performanţa va creşte la
subiecţii internalişti şi se va diminua la subiecţii externalişti.
• Design-ul cercetării este de tipul 2x2.

VI sunt autonomia (autonom) şi internalismul-externalismul (ie) iar VD este performanţa (perform).


Calea în SPSS este: Analyze → General Linear Model → Univariate:
• În câmpul Dependent Variable trecem VD performanţă iar în câmpul Fixed Factor(s) trecem VI
autonomie şi internalism-externalism. Activăm butonul Options iar în câmpul Display bifăm
opţiunea Descriptive statistics și trecem variabilele simple și de interacțiune în partea dreaptă.
• Dacă avem o VI cu mai mult de 2 categorii, activăm și butonul Post Hoc.
ANOVA factorială
ANOVA factorială

Principalele rezultate le citim în tabelul Tests of Between-Subjects Effects


•Nu există un efect principal semnificativ al variabilei internalism-externalism asupra performanţei, F(1, 116) = 0.194,
p = 0.661 > 0.050.
•Nu există un efect principal semnificativ al autonomiei asupra performanţei, F (1, 116) = 3.001, p = 0.086 > 0.050.
•Există un efect de interacţiune semnificativ, F (2, 116) = 37.559, p = 0.000 < 0.001, în sensul că gradul de autonomie
influenţează performanţa în mod diferit pentru internalişti şi externalişti.
Observație: dacă exista un efect principal semnificativ statistic, pentru a-l interpreta, analizăm mediile din tabelul
Estimated marginal means pentru acea VI.
ANOVA factorială – Rezultate

Vom analiza efectul de interacţiune prin SPLIT FILE și teste t pentru eșantioane independente.
• Tabel medii (din tabelul Estimated marginal means).

Împărțim baza de date în funcție de variabila plasată pe verticală, în cazul de față autonomie.
(Data - Splite file – bifăm Organize output by groups – trecem variabila “autonomie” în partea
dreaptă – Ok)
VI_2 autonomie– variabila folosită în Split File;
VI_1 internalism-externalism → folosim testul t pentru eșantioane independente.
(Trecem Performanță în Test variables iar IE în Grouping variable, Define groups 1, 2)

Autonomie scăzută Autonomie ridicată


Internalism G1, M = 7.81 G3, M = 8.88
Externalism G2, M = 8.70 G4, M = 8.11
ANOVA factorială – Rezultate

• 1. Comparăm grupurile pe verticală, adică G1-G2 și G3-G4.


• În cazul subiecților cu autonomie scăzută (G1-G2), t (58) = 4.565, p = 0.000 < 0.050,
rezultă că există diferențe semnificative între elevii internaliști și cei externaliști, în sensul
că elevii externaliști au o performanță mai ridicată decât cei internaliști.

• În cazul subiecților cu autonomie ridicată (G3-G4), t (58) = 4.095, p = 0.000 < 0.050,
rezultă că există diferențe semnificative între elevii internaliști și cei externaliști, în sensul
că elevii internaliști au o performanță mai ridicată decât cei externaliști.

Autonomie scăzută Autonomie ridicată

Internalism G1, M = 7.81 G3, M = 8.88

Externalism G2, M = 8.70 G4, M = 8.11


ANOVA factorială – Rezultate

2. Comparăm grupurile pe orizontală, adică G1-G3 și G2-G4.


• Împărțim baza de date în funcție de variabila plasată pe orizontală, în cazul de față IE.
(Data - Splite file – Organize output by groups – trecem variabila “IE” în partea dreaptă – Ok)
VI_1 internalism-externalism– variabila folosită în Split File;
VI_2 autonomie → folosim testul t pentru eșantioane independente.
(Trecem Performanță în Test variables iar autonomie în Grouping variable, Define groups 1, 2)
• În cazul subiecților internaliști (G1-G3), t (58) = 5.479, p = 0.000 < 0.050, rezultă că există diferențe
semnificative între elevii cu autonomie scăzută și cei cu autonomie ridicată, în sensul că elevii cu
autonomie ridicată au o performanță mai ridicată decât cei cu o autonomie scăzută.
• În cazul subiecților externaliști (G2-G4), t (58) = 3.155, p = 0.003 < 0.050, rezultă că există diferențe
semnificative între elevii cu autonomie scăzută și cei cu autonomie ridicată, în sensul că elevii cu
autonomie scăzută au o performanță mai ridicată decât cei cu o autonomie ridicată.

Autonomie scăzută Autonomie ridicată

Internalism G1, M = 7.81 G3, M = 8.88

Externalism G2, M = 8.70 G4, M = 8.11


ANOVA simplă cu măsurători repetate

În ANOVA cu măsurători repetate un subiect participă în toate condiţiile experimentale (este testat de
mai multe ori) și se compară între ele scorurile obținute. Atunci când design-ul conţine o singură variabilă
independentă, metoda presupune compararea a cel puţin trei condiţii experimentale (trei variabile pereche în
SPSS). Condiţiile de aplicare ale acestei tehnici sunt:
 variabila dependentă trebuie să fie cantitativă şi normal distribuită (pentru fiecare condiţie a variabilei
independente);
 trebuie să se îndeplinească condiţia de sfericitate, ce se testează prin testul W al lui Mauchly, care
presupune omogenitatea varianţelor atât în cadrul condiţiilor experimentale, cât şi în cadrul fiecăror
diferenţe dintre două condiţii.
 fiecare subiect este testat în fiecare condiţie experimentală.
În cercetările din ştiinţele sociale, se îndeplinește destul de rar condiţia de sfericitate, iar nerespectatea ei
influențează semnificativ rezultatele obținute. Dacă rezultatele la testul W Mauchly sunt nesemnificative
statistic (p > 0.05) atunci condiţia de sfericitate este îndeplinită. În cazul încălcării condiţiei de sfericitate
avem două alternative: fie ajustăm gradele de libertate în citirea valorilor lui F din ANOVA (folosind
corecţiile Greenhouse-Geisser sau Huynh-Feldt), fie folosim analiza de varianţă multivariată (MANOVA).
Pentru ajustarea gradelor de libertate urmărim coeficienţii epsilon Greenhouse-Geisser şi Huynh-Feldt
pentru a hotărî cum vom ajusta gradele de libertate în citirea testului F general. Dacă coeficienţii epsilon sunt
< 0.75 atunci alegem corecţia Greenhouse-Geisser iar dacă aceştia sunt >0.75 folosim corecţia Huynh-Feldt.
După ce am stabilit tipul de corecţie, vom citi rezultatele la testul F pe rândul corespunzător acestei corecţii
şi pragul de semnificaţie p aferent.
ANOVA simplă cu măsurători repetate

Calea în SPSS este:


 Analyze → General Linear Model → Repeated
Measures.
Exemplu: Fie că se dezvoltă un program de training ce are
ca scop dezvoltarea abilităților de autoprezentare. Se pune
problema numărului de ore de training: sunt suficiente doar 6
ore, sau 9 ore? Se face un studiu pilot și se măsoară printr-un
chestionar autoprezentarea, pretest, posttest 1 și posttest 2.
VD – autoprezentare, VI – momentul testării: pretest,
posttest 1 și posttest 2. (se va verifica prealabil normalitatea
distribuției fiecărei testări)

 În câmpul Within-Subject Factor Name ştergem factor


1 şi scriem numele variabilei nou create ce conține
valorile condițiilor de testare, apoi în câmpul Number of
Levels trecem numărul de condiţii ale VI, click pe
butonul Add şi apoi click pe butonul Define.

 În fereastra deschisă trecem din câmpul din stânga


variabilele ce reprezintă condiţiile experimentale (în
ordine) în câmpul Within-Subjects Variables.
ANOVA simplă cu măsurători repetate

 Pentru a aplica teste post hoc, click pe butonul


Options iar din câmpul din stânga sus trecem
variabila creată mai sus în câmpul din dreapta
(Display Means for); activăm apoi opţiunea
Compare main effects prezentă imediat mai
jos, aici alegem metoda Bonferroni (în câmpul
Confidence interval adjustment), bifăm de
asemenea opţiunea Descriptive statistics şi
click Continue.

 Pentru afişarea graficului activăm butonul


Plots, trecem variabila nou creată în câmpul
Horizontal Axis, click apoi pe butonul Add,
click Continue şi click OK.
ANOVA simplă cu măsurători repetate

În tabelul Mauchly’s Test of Sphericity este verificată condiţia de sfericitate. Cum


rezultatul testului Mauchly W = 0.726 este nesemnificativ statistic (p > 0.05), condiţia de
sfericitate este îndeplinită.
ANOVA simplă cu măsurători repetate

Tabelul Tests of Within-Subjects Effects este tabelul principal din Output, conţinând
rezultatele la testele F generale. Fiind în situaţia în care condiţia de sfericitate este îndeplinită
vom urmări valoarea testului F de pe primul rând: [F (2, 36) = 417.658, p = .000]. Dacă
sfericitatea nu ar fi fost îndeplinită ar fi trebuit să alegem între testele F corespunzătoare uneia
dintre cele două corecţii în funcţie de criteriul menţionat mai sus.
ANOVA simplă cu măsurători repetate

Rezultatele la testele post hoc Bonferroni sunt prezente în tabelul Pairwise Comparisons.
Observăm că :
• există diferenţe semnificative între condiţia pretest şi post-test 1 [MD = 13.526, p = .000], în sensul
că după realizarea unui training de 6 ore abilitățuile de autoprezentare s-au dezvoltat semnificativ;
• există diferenţe semnificative între condiţia pretest şi condiţia post-test 2 [MD = 13.789, p = .000],
în sensul că după realizarea unui training de 9 ore abilitățuile de autoprezentare s-au dezvoltat
semnificativ;
• nu există diferenţe semnificative între condiţia post-test 1 şi post-test 2 [MD = 0.263, p = 1.000].
ANOVA simplă cu măsurători repetate

Concluzie/ recomandare : Este suficient să derulăm un training de 6 ore pentru


dezvoltarea abilităților de autoprezentare, continuarea trainingului cu încă 3 ore
nemaiaducând o dezvoltare semnificativă a acestora
Fiabilitatea (Reliability Analysis)

 Fiabilitatea unei scale sau test se referă la gradul de


încredere (consistență, precizie și stabilitate) cu care scala
măsoară o anumită variabilă (caracteristică)
 Se calculează coeficientul de fiabilitate - gradul de fiabilitate -
scala este mai mult sau mai puțin fiabilă
 Metode de verificare a fiabilității testelor:
1. Consistența internă (alfa Cronbach)
2. Test-retest
3. Teste paralele
4. Înjumătățirea testului
5. Interevaluatori
Fiabilitate bună: coeficient >0,70
Fiabilitate foarte bună: coeficient >0,80
Fiabilitatea (Reliability Analysis)

 Coeficientul de consistența internă alfa Cronbach pentru scale sau


teste cu mai mulți itemi este cel mai utilizat și se prezintă în orice
cercetare în partea de final a descrierii scalei respective.
 Indică consistența interitemi, se bazează pe o medie a corelației
dintre itemii scalei.
 Scopul: verificarea fiabilității unei scale în general, prin metoda
consistenței interne, etapă în alegerea itemilor pentru construirea
unei scale de măsurare a unui fenomen psihologic sau pedagogic
 Condiții:
1. Fiecare item al scalei măsoară același fenomen (construct)
2. Variantele de răspuns la fiecare item sunt măsurate pe scală
Likert sau sunt dihotomice
Ex: se măsoară fiabilitatea scalei de măsurare a stimei de sine, sau a
abilităților de leadership
Fiabilitatea (Reliability Analysis)
Ex: fie scala abilităților de comunicare (14 itemi):
c1: Sunt o persoană vorbăreață
c2: Deseori, inițiez discuții cu colegii
c3: În discuțiile cu ceilalți am o mimică și o gestică exuberante
c4: Îmi exprim cu ușurință opiniile
c5: Când discut cu cineva îmi însoțesc cuvintele de gesturi
c6: Vocea îmi exprimă sentimentele de bucurie sau tristețe pe care le încerc
c7: Nu vorbesc prea mult cu colegii (item inversat)
c8: Îmi manifest cu ușurință emoțiile în discuțiile pe care le am
c9: Obișnuiesc să gesticulez atunci când vorbesc cu alții
c10: Îmi exprim fizic emoțiile
c11: Îmi este greu să-mi exprim gândurile în cuvinte (item inversat)
c12: Îmi este destul de ușor să-mi expun punctele de vedere într-o
conversație
c13: Când comunic, îmi accentuez ideile prin voce, mimică sau gestică
c14: Intru în discuțiile cu ceilalți relativ ușor
Să se măsoare fiabilitatea subscalei de comunicare verbală, din c1,c2,c4,c7, c11, c12
și c14 (itemii 7 și 11 sunt recodificați: Transform → Recode into Different Variable)
Fiabilitatea (Reliability Analysis)

Calea în SPSS: Analyze → Scale → Reliability Analysis


Fiabilitatea (Reliability Analysis)

Output:
Fiabilitatea (Reliability Analysis)
Fiabilitatea (Reliability Analysis)
Fiabilitatea (Reliability Analysis)

 Dacă coeficientul de corelație totală (Corrected Item-


Total Correlation) a itemului cu ceilalți itemi (Pearson)
este mai mare decât 0,40, atunci corelația este bună.
 Dacă coeficientul de corelație totală a itemului cu ceilalți
itemi (Pearson) este mai mic decât 0,30, atunci corelația
este scăzută (sau negativă) și itemii vor fi înlăturați, sau
studiați și reformulați.
 Cronbach's Alpha if Item Deleted prezintă valoarea
coeficientului alfa Cronback în urma înlăturării itemului
respectiv din scală. Dacă valoarea este mult mai ridicată
decât coeficientul Cronbach's Alpha general, atunci se
elimină itemul din scală și se reia procedura
Fiabilitatea (Reliability Analysis)
Fiabilitatea (Reliability Analysis)
Succes!

S-ar putea să vă placă și