Documente Academic
Documente Profesional
Documente Cultură
în cercetarea pedagogică
CERCETAREA PSIHOPEDAGOGICĂ
Didactica științelor
(matematică, informatică,
biologie, chimie, geografie etc.)
Cerințele față de o cercetare obiectivă și eficientă sunt:
observația experimentul
După conținut:
✓ timp - indică apartenenţa la un moment sau o perioadă de timp (anul de înmatriculare);
✓ de spaţiu - indică amplasarea unităţii statistice în funcție de loc (liceul absolvit);
✓ atributive - nu indică nici timpul nici spaţiul (locul de angajare după absolvire).
Într-o cercetare statistică, după ce datele statistice au fost culese şi verificate, se trece la prelucrarea lor,
pentru ca ele să poată fi apoi analizate şi interpretate. De regulă, în etapa de prelucrare, datelor statistice li se
aplică formule. Pentru aceasta, se impune ca nivelurile şi valorile variabilelor (caracteristicilor) să fie
cuantificate, ceea ce înseamnă să se utilizeze numere pentru reprezentare. Numerele nu sunt simple simboluri,
ele reprezintă cantităţi distincte sau categorii distincte pentru variabilele studiate.
Pentru analiza caracteristicilor, se foloseşte teoria măsurii statistice. Conform acestei teorii, datele
statistice se deosebesc în funcţie de scala de măsurare cu ajutorul căreia se stabilesc valorile observate. În
funcţie de nivelul de precizie şi generalitate, se disting patru scale de observare:
✓ Scala nominală - unităţilor statistice li se atribuie însuşiri corespunzătoare variantei în cauză a unei
caracteristici calitative (ocupaţia, tipul de instituție de învățământ absolvită). În cazul acestei scale, numerele
sunt atribuite observaţiilor în calitate de atribute, doar pentru a face judecăţi despre anumite identităţi sau pentru
a face diferenţieri de categorie (de exemplu, se atribuie 1 pentru instituția absolvită - liceu, 2 - colegiu, 3 - școală
profesională, ordinea nu contează). Această scală este, de fapt, un mod de clasificare.
✓ Scala ordinală - se aplică atunci când manifestările concrete ale caracteristicii nu se pot măsura, însă ele se
pot ordona crescător sau descrescător şi li se pot atribui numere de ordine numite ranguri. Măsurătorile pe o
scală ordinală le putem compara utilizând judecăţi ca „mai mare”, „mai mic” sau „egal” (1 - „mai jos decât 150
cm”, 2 - „între 150 și 160 cm”, 3 – „mai înalt decât 160 cm”). Scala ordinală realizează o ierarhizare (anul în
care a avut loc înmatricularea celui mai mare număr de studenţi).
Reprezentarea datelor statistice
Grafic - imagine spaţială, care ilustrează informaţii despre prelucrarea datelor, cu ajutorul unor figuri geometrice
sau naturale.
Elementele constitutive ale graficului sunt:
✓ titlul graficului (în cazul în care graficul se obţine în urma prelucrării unui tabel, el va lua denumirea
tabelului)
✓ reţeaua graficului, formată din totalitatea de linii utilizate pentru construcţia lui poate fi: sistem de axe
rectangulare, reţea de cercuri concentrice, reţea curbilinie, reţea în evantai.
✓ scara de reprezentare, care stabileşte corespondenţa dintre unitatea de măsură aleasă pentru reprezentarea
grafică şi unitatea de măsură a caracteristicii statistice.
✓ legenda graficului, care explică simbolurile, liniile, haşurile, culorile folosite în reprezentarea grafică.
✓ sursa datelor se trece sub numele graficului.
✓ notele explicative se trec fie sub reţeaua graficului, fie în subsolul paginii pe care se află graficul.
Tipuri de grafice:
✓ Diagrame linie;
✓ Poligon al frecvențelor;
✓ Diagrama prin coloane;
✓ Diagrama de structură etc.
Programul SPSS
(Statistical Package for the Social Sciences)
https://www.ibm.com/analytics/spss-trials
Programul SPSS
(Statistical Package for the Social Sciences)
Programul SPSS
(Statistical Package for the Social Sciences)
Programul SPSS (Statistical Package for the Social Sciences) este unul
dintre cele mai utilizate în analiza statistica a datelor. Prima versiune a apărut
rapoartelor.
INTERFAȚA PSPPIRE
http://ftp.gnu.org/gnu/pspp/
INTERFAȚA PSPPIRE
http://ftp.gnu.org/gnu/pspp/
CARACTERISTICI PSPP
Statistica descriptivă:
Descrie datele, aşa cum sunt (numeric, grafic);
Statistica inferenţială:
Susţine concluzii (inferenţe) cu privire la o populaţie, pe baza datelor obținute pe un
eşantion extras din acea populaţie;
Are la bază rezultatele semnificative statistic obținute în urma aplicării unor teste de
semnificație (teste t, corelații, ANOVA, regresie etc.).
Analiză descriptivă în SPSS
Tabelul 1.9. În pregătirea sarcinilor pentru acasă tindeați să recurgeți la ajutorul adulților?
Frequency Percent Valid Percent Cumulative
Percent
Valid Nu întotdeauna sau niciodată 68 26,6 26,6 26,6
Foarte rar, de obicei, întâmplător 59 23,0 23,0 49,6
Mai mult nu decât da, uneori-mi amintesc 67 26,2 26,2 75,8
Da, de mai multe ori, uneori uit 49 19,1 19,1 94,9
Întotdeauna da, permanent 13 5,1 5,1 100,0
Total 256 100,0 100,0
Indicatori statistici de bază
Media (media aritmetică) - măsură a tendinței centrale a unei distribuții.
Mediana - valoarea care împarte distribuţia în două părţi egale, din punctul de vedere al frecvenţelor (numărul
care arată de câte ori apare o valoare).
Fie următorul șir de distribuții: 3, 1, 8, 1, 7, 5, 9, 1, 3, 6, 4;
Aranjăm frecvențele în ordine crescătoare: 1, 1, 1, 3, 3, 4, 5, 6, 7, 8, 9;
Fie n numărul scorurilor. Dacă n este impar: Mediana = valoarea de pe poziția (n+1)/ 2, iar dacă N este par, atunci
se calculează media celor două valori din centrul seriei.
Modul - valoarea cu frecvenţa cea mai mare. Conform distribuției din exemplul anterior, vom avea următorul
tabel al frecvențelor și mod = 1. Valoare 1 3 4 5 6 7 8 9
Frecvență 3 2 1 1 1 1 1 1
Minim - valoarea cea mai mică a unei distribuții (Ex: min = 1).
Maxim - valoarea cea mai mare a unei distribuții (Ex: max = 9).
Varianța - media patratică a abaterilor în mărime absolută a valorilor înregistrate fată de media aritmetică.
Fiind date n numere, xi, unde i = 1, ..., n și media aritmetică m, varianța (var) este:
Din exemplul de mai sus: n = 11, m = 4,36.
1 2 2 2 2 2 2 2 2 2
𝑣𝑎𝑟 = 3 − 4,36 + 1 − 4,36 + 8 − 4,36 + 1 − 4,36 + 7 − 4,36 + 5 − 4,36 + 9 − 4,36 + 1 − 4,36 + 3 − 4,36
11 − 1
2 2
1
+ 6 − 4,36 + 4 − 4,36 = 1,85 + 11,29 + 13,25 + 11,29 + 6,97 + 0,41 + 21,53 + 11,29 + 1,85 + 2,69 + 0,13 = 8,26
10
Abaterea standard - Măsură a gradului de variabilitate a scorurilor şi arată cât de mult se abat acestea de la
tendinţa centrală. Abaterea standard reflectă abaterea in mărime absolută a valorilor inregistrate fată de media
aritmetică. Se calculeaza ca radical din varianță
Indicatori statistici de bază
Tabele conjugate (crosstabs)
Analyze →
→ Descriptive Statistics →
→ Crosstabs
Pentru a face distincție între VD şi VI, le plasăm într-un raţionament de tip cauzal.
Variabila „cauză” = VI
Variabila „efect” = VD.
Într-o cercetare psihopedagogică se înaintează ipoteze, al căror adevăr se testează prin diferite proceduri statistice de
calcul, care au ca scop evidențierea legăturilor dintre variabile. Dacă variabilele dependente, supuse acestor calcule,
sunt cantitative, atunci procedura se va numi parametrică. Iar dacă variabilele dependente sunt calitative, atunci
procedura se va numi neparametrică. Ambele tipuri de proceduri statistice de calcul se realizează în cadrul softului
specializat SPSS prin intermediul testelor parametrice și neparametrice, unde prin parametru se înțelege o
proprietate numerică a unei populații statistice. Fiecare tip de test este aplicabil în situații de cercetare diferite și
necesită îndeplinirea unor anumite condiții.
Test statistic - metodă de decizie care ne ajută la validarea sau invalidarea cu un anumit grad de siguranţă a unei
ipoteze statistice.
Testarea unei ipoteze statistice se face prin compararea a două ipoteze concurente:
1. Ipoteza nulă H0 – modelul pe care cercetătorul doreşte să îl înlocuiască;
2. Ipoteza alternativă H1– noul model, menit să înlocuiască ipoteza nulă.
Scopul testului statistic este de a dovedi că ipoteza nulă este falsă.
Rezultatul testului:
✓ Nu putem afirma că acceptăm ipoteza nulă;
✓ O putem sau nu nega.
Pragul de semnificaţie - (nivelul) reprezintă mărimea riscului de eroare pe care cercetătorul este dispus să îl
accepte, implicit să şi-l asume.
De obicei se alege un nivel de semnificaţie între 1 şi 5% (0,05). Se calculează valoarea parametrului definit anterior
pe baza datelor de cercetare și se notează, de obicei, cu p.
Interpretarea valorii p
32
Analiza corelațională este o tehnică statistică folosită pentru a analiza legătura sau asocierea dintre
două variabile atunci când acestea sunt cantitative sau ordinale.
De exemplu: ne-ar putea interesa sa verificăm, de exemplu, dacă există o relaţie între numărul de ore
alocate studiului la matematică şi notele elevilor la matematică.
Pentru testarea asocierii dintre două variabile se pot calcula următorii coeficienţi de corelaţie:
1. coeficientul de corelaţie Pearson r;
2. coeficientul de corelaţie Spearman ρ;
3. coeficientul de corelaţie Kendall τ;
4. coeficientul de corelaţie parţială.
Primele trei tipuri se mai numesc şi corelaţii bivariate.
Coeficienții de corelație
r Pearson, Spearman și -Kendall
33
34
Dacă p ≤ 0.05 pentru un test statistic, atunci putem afirma că rezultatul la acel
test este semnificativ statistic.
Coeficienții de corelație
r Pearson, Spearman și -Kendall
35
• Dacă variabile sunt cantitative (pe scale de interval/ raport), se aplică corelația r Pearson.
• Dacă variabile sunt ordinale, sau una ordinală și una cantitativă, se aplică corelația ρ Spearman.
• Dacă variabile sunt ordinale, sau variabilele au număr redus de categorii, sau există un număr ridicat
de ranguri egale, se aplică corelația Kendall.
36
Correlations
leadership creativitate
leadership Pearson Correlation 1,000 ,660**
Sig. (2-tailed) , ,000
N 104 104
creativitate Pearson Correlation ,660** 1,000
Sig. (2-tailed) ,000 ,
N 104 104
**. Correlation is signif icant at the 0.01 level (2-tailed).
Deoarece ambele variabile sunt cantitative (scoruri la chestionare), aplicăm corelația Pearson.
• r = 0.660, p = 0.000, așadar există o corelație pozitivă semnificativă statistic între creativitate și
leadership, în sensul că subiecții care au scoruri ridicate la creativitate au scoruri ridicate și la
leadership, și reciproc, subiecții care au scoruri scăzute la creativitate au scoruri scăzute la leadership.
Coeficienții de corelație
r Pearson, Spearman și -Kendall
Exemplu de calcul al coeficientului de corelație ρ Spearman.
Se analizează existenţa unei corelaţii între ierarhizarea elevilor
dintr-o clasă de către profesor de la 1 la 5
(1 = pe primul loc, 5 = pe ultimul loc) în ceea ce priveşte
aptitudinile matematice şi rezultatele elevilor la un test de inteligenţă.
37
Correlations
pozitia in
implicare cadrul • Deoarece ambele variabile sunt ordinale, se
in sarcina grupului aplică corelația Kendall.
Kendall's implicare in Correlation
tau_b sarcina Coefficient
1,000 ,580** • = 0.580, p = 0.003, așadar există o corelație
Sig. (2-tailed) . ,003 pozitivă semnificativă statistic între implicarea
N 25 25 elevilor în sarcină și poziția acestora în cadrul
pozitia in Correlation grupului.
,580** 1,000
în sarcina de cadrul
grup . Coefficient
grupului Sig. (2-tailed) ,003 .
N 25 25
**. Correlation is significant at the 0.01 level (2-tailed).
Normalitatea distribuției
Dezavantaj: subiectivismul
în aprecierea normalității.
Estimăm vizual dacă distribuția respectivă se încadrează
sub curba normalității
(bifăm opțiunea Display Normal Curve).
Redactăm histograma executând un dublu click peste detaliul dorit.
Normalitatea distribuției
Testul compară distribuția scorurilor variabilei pe eșantion cu o distribuție normală ce are aceeași medie și
deviație standard. Dacă rezultatul este nesemnificativ statistic (p>0.05), atunci distribuția variabilei pe
eșantion nu diferă semnificativ de o distribuție normală.
Exemplu: se verifică normalitatea distribuției variabilei Evaluare I. Nu este normal distribuită deoarece,
Z=0,315, p=0,000<0,05: există diferențe semnificative între distribuția variabilei Evaluare I și distribuția
normală. Acest lucru este confirmat și de histograma din exemplul anterior.
Normalitatea distribuției
Testul verifică normalitatea distribuției și este mai puternic decât testul Kolmogorov-Smirnov. Dacă
rezultatul este nesemnificativ statistic (p>0.05), atunci distribuția variabilei pe eșantion nu diferă
semnificativ de o distribuție normală.
Normalitatea distribuției
Deci, există diferențe semnificative între distribuția variabilei Evaluare I și distribuția normală. Acest
lucru confirmă rezultatele anterioare.
Normalitatea distribuției
Dacă notele z sunt mai mari decât 2.0 sau 2.5, după modul, atunci distribuția diferă
semnificativ de o distribuție normală.
De exemplu, conform tabelului de mai sus, pentru Skewness avem: S=0,540,
SEskewness=0,421
Zs=0,540/0,421=1,28
Iar pentru Kortoisis avem K=0,080, SEKurtosis=0,821
Zk= 0,080/0,821= 0,62=0,31
Testul t pentru compararea de medii
• Să analizăm dacă elevii dintr-o şcoală au obţinut note semnificativ mai mari sau
mai mici comparativ cu media pe țară la examenele de bacalaureat în anul 2019,
adică 7,14.
• Trecem VD media la examenele de Bacalaureat în câmpul din dreapta Test
Variable(s) iar în câmpul Test Value trecem valoarea 7,14, apoi click OK.
• Se obțin următoarele tabele:
Tabelul Paired Samples Statistics afişează – pentru fiecare dintre cele două variabile –
Tabelul Paired Samples Test, prezintă rezultatele testului t: t (30) = 5.703, p = .000.
Cum t este semnificativ rezultă că există o diferenţă semnificativă între mediile la cele
două evaluări, media la evaluarea finală după intervenţie fiind semnificativ mai mare
comparativ cu media la evaluarea inițială înainte de intervenţie.
Testul T – student, pentru două eșantioane independente
independenţa grupurilor– fiecare subiect face parte doar dintr-un grup, iar aceste
variabila dependentă este normal distribuită; unii autori consideră totuşi că testele t
sunt destul de robuste, putând fi aplicate şi atunci când această condiţie este încălcată;
egale.
Testul T – student, pentru două eșantioane independente
După clic pe Continue, apoi OK se obține un fișier de ieșire (OutPut – fereastra Viewer) cu
tabelele Group Statistics și Independent Samples Test.
În tabelul Group Statistics se afișează – pentru fiecare dintre cele două eșantioane
(experimental și de control) – numărul de subiecți, mediile, deviațiile standard și erorile
standard a mediilor. Observăm că Media la lecțiile de laborator (rotunjită) pentru
eșantionul experimental este 7.43, iar pentru eșantionul de control este 7.83.
În tabelul Independent Samples Test se afișează mai întâi rezultatele testului Levene de
omogenitate. Acestea trebuie să fie nesemnificative, pentru ca să se asume omogenitatea
varianțelor. Deci, în exemplul de mai jos, F(66)=1.153, cu un prag de semnificație (Sig.)
p=0.287>0,05, prin urmare se îndeplinește omogenitatea varianțelor.
În acest caz se citesc rezultatele lui t din primul rând (Equal variances assumed): t(66)=0.851, cu
un prag de semnificație (Sig.) p=0. 398>0,05, ceea ce înseamnă că nu sunt diferențe semnificative
între mediile celor două eșantioane.
Tabelul 2.7. Test pentru eşantioane independente (Independent Samples Test)
Levene's Test for
Equality of
Variances t-test for Equality of Means
95% Confidence
Sig. Mean Std. Error Interval of the
F Sig. t df Difference
(2-tailed) Difference Difference
Lower Upper
Media la lecțiile Equal variances
de laborator assumed
1,153 ,287 -,851 66 ,398 -,405 ,475 -1,354 ,544
rotungită
Equal variances
not assumed
-,965 18,643 ,347 -,405 ,419 -1,284 ,474
Testele neparametrice de comparare a mediilor
Testele Chi-Square
Testul Mann-Whitney
Se compară mediile unor grupe diferite de participanți la aceeași variabilă după ranguri.
Condiții:
Grupele sunt independente (2 grupuri formate din participanți diferiți);
Scala VD: ordinală (niveluri/ ranguri) SAU de interval (scor total la un instrument),
dar datele nu sunt normal distribuite.
În tabelul Ranks se afișează pentru fiecare dintre cele două eșantioane (experimental și de control) –
numărul de subiecți, media și suma rangurilor, Observăm că Media rangurilor pentru eșantionul
experimental este 33.71, iar pentru eșantionul de control este 38.17.
În tabelul Test Statistics avem: U(68)=292.00, W=1888.00, cu un prag de semnificație (Sig.)
p=0.469>0,05, prin urmare nu sunt diferențe semnificative între mediile celor două eșantioane.
Tabelul 2.8. Ranks
Sum of
Eșantion N Mean Rank Ranks
Media la lecțiile de Experiment
56 33,71 1888,00
laborator rotungită al
De control 12 38,17 458,00
Total 68 Tabelul 2.9. Teste statistice (Test Statisticsa)
Scop: se compară rezultatele aceluiași grup de subiecți la două variabile diferite sau la aceeași
variabilă măsurată în momente temporale diferite.
Condiții:
Avem doar 2 situații (variabile/ momente temporale);
Scala variabilelor: ordinală (niveluri/ ranguri) SAU de interval (scor total la un instrument),
dar datele nu sunt normal distribuite.
Calea în SPSS: Analyze – Non-parametric test – Legacy Dialogs – 2 Related Samples.
Test variable: VD;
Din primul tabel identificăm suma rangurilor pozitive (cazul când valoarea variabilei cercetate în cazul
experimental final – posttest, este mai mare decât valoarea variabilei în situația experimentală inițială –
pretest, notat cu b sub tabel) și suma rangurilor negative (cazul când valoarea variabilei cercetate în cazul
experimental final – posttest, este mai mică decât valoarea variabilei în situația experimentală inițială –
pretest notat cu a, sub tabel). De asemenea sunt calculate mediile acestor ranguri, care ne vor ajuta să
decidem în favoarea cui sunt diferențele de medii, dacă acestea se vor atesta.
Tabelul doi este principal și ne furnizează rezultatele la testul Wilcoxon. Dacă aceste rezultate sunt
semnificative (dacă pragul de semnificație este p=Asymp.Sig. <0.05). În exemplul de mai sus pragul de
semnificație este p=0,000, prin urmare se atestă diferențe semnificative între media valorilor la evaluarea
finală și cea de la evaluarea I. Deoarece media rangurilor pozitive este mai mare decât a celor negative
(mean rank=15.50, se atestă la 26 subiecți din 31 o creștere semnificativă a rezultatelor la evaluarea finală
față de evaluarea I).
Testul binomial de verificare a egalității unei proporții cu o
valoare specificată
Scopul: compararea unei proporții cu o valoare specificată (analog testului t pentru un eșantion).
Analyze → Nonparametric Tests → Legacy Dialogs → Binomial .
La Test Variable List trecem variabila sexul, apoi OK.
Se compară proporția așteptată cu 0,50 (50%). Dacă pragul de semnificație este mai
mare decât 0,05, atunci nu există diferențe semnificative între proporția observată și
proporția stabilită anterior. În caz contrar, pragul de semnificație este mai mic decât
0,05, atunci există diferențe semnificative între proporția observată și cea comparată.
Testul Chi-Square pentru o variabilă
Ex.1. Interpretare output: din tabelul principal Test Statistics, observăm că rezultatele la testul 𝝌𝟐 sunt
semnificativ statistice, deoarece p=Asymp. Sig.=0,007<0.05. Deci sunt diferențe semnificative între frecvența
așteptată (distribuție egală – este bifată opțiunea All categories equal, câte 10 unități la fiecare valoare din
totalul de 20 de unități) și frecvența observată a valorilor variabilei testate (16 unități UST, 4 unități altele).
Pentru a decide aspectul diferențelor analizăm informația din primul tabel: dacă valoarea reziduală este
pozitivă atunci diferențele sunt în favoarea cazurilor observate.
Testul Chi-Square pentru o variabilă
Mărimea efectului unei VI asupra VD reprezintă puterea relației dintre VI și VD, este relevantă
pentru semnificația practică a rezultatelor. Specificarea este obligatorie, furnizează indicatori de două
tipuri:
bazați pe o diferență standardizată între medii (d Cohen);
bazați pe procentul de variație explicată (r).
1. În cazul testelor t pentru un eșantion și pentru eșantioane perechi:
𝑡2 𝑡2 𝑡2 𝑡2
𝑑= = , r= = .
𝑑𝑓 𝑁−1 𝑡 2 +𝑑𝑓 𝑡 2 + 𝑁−1
Ex. 1: pentru eșantioane perechi (vedeți titlul tabelului – Paired Samples Test )
t=-6.602, df=24 :
𝑡2 6.6022 𝑡2 6.6022 43.586
𝑑= = = 1.816=1.347, r= = = = 0.80.
𝑑𝑓 24 𝑡 2 +𝑑𝑓 6.6022 +24 67.586
d=1,347>1, r>0.7 rezultă că efectul Variabilei independente (strategia de creștere a stimei de sine) asupra
variabilei dependente (stima de sine) este foarte puternic.
𝑡 𝑛1 + 𝑛2
𝑟=
𝑡 2 𝑛1 + 𝑛2 2 +4𝑑𝑓 𝑛1 𝑛2
Mărimea efectului
Scopul acestei metode îl reprezintă testarea diferențelor între mediile a trei sau mai multe grupe
independente.
Cerințe: VI este categorială cu 3 sau mai multe categorii, VD este cantitativă.
Exemplu: Într-un studiu non-experimental analizăm dacă există diferenţe în funcţie de categoria de
vârstă în ceea ce priveşte manifestarea comportamentelor prosociale. Vom aplica un chestionar care
măsoară comportamentul prosocial pe un lot de 200 subiecţi stratificat în funcţie de variabila vârstă
astfel: 50 de subiecţi de 10-14 ani, 50 de subiecţi de 15-19 ani, 50 de subiecţi de 20-25 de ani şi 50 de
subiecţi de 26-30 de ani.
Ipoteza: există diferențe semnificative în funcție de vârstă în ceea ce privește comportamentul
prosocial.
Calea în SPSS este: Analyze → Compare Means → One-Way ANOVA.
• Trecem VD cantitativă prosocial în spaţiul Dependent List iar VI categorială vârstă în spaţiul
Factor.
• Activăm butonul Options şi aici bifăm Descriptives, apoi click Continue.
• Activăm butonul Post Hoc și bifăm Bonfferoni, click Continue și OK.
ANOVA simplă (One-Way)
ANOVA simplă (One-Way)
Tabelul Multiple Comparisons prezintă rezultatele la testul Bonferroni pentru compararea grupurilor între ele.
Analizăm rezultatele din coloana diferențelor dintre medii (MD) și pragul de semnificație p (coloana Sig.):
• Nu există diferențe semnificative între grupurile 11-15 ani și 16-20 ani în ceea ce privește comportamentul
prosocial, MD = 1.960, p = 1.000;
• Nu există diferențe semnificative între grupurile 11-15 ani și 21-25 ani în ceea ce privește comportamentul
prosocial, MD = 1.700, p = 1.000;
• Nu există diferențe semnificative între grupurile 11-15 ani și 26-30 ani în ceea ce privește comportamentul
prosocial, MD = 2.720, p = 0.373;
• Nu există diferențe semnificative între
grupurile 16-20 ani și 21-25 ani în ceea ce privește
comportamentul prosocial, MD = 0.260, p = 1.000;
• Există diferențe semnificative între
grupurile 16-20 ani și 26-30 ani în ceea ce
privește comportamentul prosocial,
MD = 4.680, p = 0.009, în sensul că subiecții
din grupul 26-30 ani au o medie mai mare la
comportament prosocial decât subiecții din grupul
16-20 ani;
• Există diferențe semnificative între grupurile
21-25 ani și 26-30 ani în ceea ce privește
comportamentul prosocial, MD = 420, p = 0.016, în sensul că subiecții din grupul 26-30 ani au o medie mai mare la
comportament prosocial decât subiecții din grupul 21-25 ani.
ANOVA factorială
Prin intermediul tehnicii ANOVA factorială putem analiza efectele a două sau mai multe VI asupra
unei VD, precum şi efecte de interacţiune ale VI asupra VD.
Exemplu. Ne propunem să verificăm influenţa autonomiei în învăţare şi a internalismului-
externalismului asupra performanţei şcolare la elevii de liceu.
• Vom verifica dacă odată cu creşterea gradului de autonomie în învăţare, performanţa va creşte la
subiecţii internalişti şi se va diminua la subiecţii externalişti.
• Design-ul cercetării este de tipul 2x2.
Vom analiza efectul de interacţiune prin SPLIT FILE și teste t pentru eșantioane independente.
• Tabel medii (din tabelul Estimated marginal means).
Împărțim baza de date în funcție de variabila plasată pe verticală, în cazul de față autonomie.
(Data - Splite file – bifăm Organize output by groups – trecem variabila “autonomie” în partea
dreaptă – Ok)
VI_2 autonomie– variabila folosită în Split File;
VI_1 internalism-externalism → folosim testul t pentru eșantioane independente.
(Trecem Performanță în Test variables iar IE în Grouping variable, Define groups 1, 2)
• În cazul subiecților cu autonomie ridicată (G3-G4), t (58) = 4.095, p = 0.000 < 0.050,
rezultă că există diferențe semnificative între elevii internaliști și cei externaliști, în sensul
că elevii internaliști au o performanță mai ridicată decât cei externaliști.
În ANOVA cu măsurători repetate un subiect participă în toate condiţiile experimentale (este testat de
mai multe ori) și se compară între ele scorurile obținute. Atunci când design-ul conţine o singură variabilă
independentă, metoda presupune compararea a cel puţin trei condiţii experimentale (trei variabile pereche în
SPSS). Condiţiile de aplicare ale acestei tehnici sunt:
variabila dependentă trebuie să fie cantitativă şi normal distribuită (pentru fiecare condiţie a variabilei
independente);
trebuie să se îndeplinească condiţia de sfericitate, ce se testează prin testul W al lui Mauchly, care
presupune omogenitatea varianţelor atât în cadrul condiţiilor experimentale, cât şi în cadrul fiecăror
diferenţe dintre două condiţii.
fiecare subiect este testat în fiecare condiţie experimentală.
În cercetările din ştiinţele sociale, se îndeplinește destul de rar condiţia de sfericitate, iar nerespectatea ei
influențează semnificativ rezultatele obținute. Dacă rezultatele la testul W Mauchly sunt nesemnificative
statistic (p > 0.05) atunci condiţia de sfericitate este îndeplinită. În cazul încălcării condiţiei de sfericitate
avem două alternative: fie ajustăm gradele de libertate în citirea valorilor lui F din ANOVA (folosind
corecţiile Greenhouse-Geisser sau Huynh-Feldt), fie folosim analiza de varianţă multivariată (MANOVA).
Pentru ajustarea gradelor de libertate urmărim coeficienţii epsilon Greenhouse-Geisser şi Huynh-Feldt
pentru a hotărî cum vom ajusta gradele de libertate în citirea testului F general. Dacă coeficienţii epsilon sunt
< 0.75 atunci alegem corecţia Greenhouse-Geisser iar dacă aceştia sunt >0.75 folosim corecţia Huynh-Feldt.
După ce am stabilit tipul de corecţie, vom citi rezultatele la testul F pe rândul corespunzător acestei corecţii
şi pragul de semnificaţie p aferent.
ANOVA simplă cu măsurători repetate
Tabelul Tests of Within-Subjects Effects este tabelul principal din Output, conţinând
rezultatele la testele F generale. Fiind în situaţia în care condiţia de sfericitate este îndeplinită
vom urmări valoarea testului F de pe primul rând: [F (2, 36) = 417.658, p = .000]. Dacă
sfericitatea nu ar fi fost îndeplinită ar fi trebuit să alegem între testele F corespunzătoare uneia
dintre cele două corecţii în funcţie de criteriul menţionat mai sus.
ANOVA simplă cu măsurători repetate
Rezultatele la testele post hoc Bonferroni sunt prezente în tabelul Pairwise Comparisons.
Observăm că :
• există diferenţe semnificative între condiţia pretest şi post-test 1 [MD = 13.526, p = .000], în sensul
că după realizarea unui training de 6 ore abilitățuile de autoprezentare s-au dezvoltat semnificativ;
• există diferenţe semnificative între condiţia pretest şi condiţia post-test 2 [MD = 13.789, p = .000],
în sensul că după realizarea unui training de 9 ore abilitățuile de autoprezentare s-au dezvoltat
semnificativ;
• nu există diferenţe semnificative între condiţia post-test 1 şi post-test 2 [MD = 0.263, p = 1.000].
ANOVA simplă cu măsurători repetate
Output:
Fiabilitatea (Reliability Analysis)
Fiabilitatea (Reliability Analysis)
Fiabilitatea (Reliability Analysis)