Documente Academic
Documente Profesional
Documente Cultură
Corelatia ne arata legatura dintre doua variabile (fara sa stim ceva de cauzalitate, adica daca una influenteaza pe cealalta.). In interpretarea unei corelatii avem in vedere 3 aspecte : -semnul corelatiei (daca este + inseamna ca exista o legatura direct proportionala intre cele doua variabile, daca scorurile la una vor creste, vor creste si la cealalta, sau daca vor scadea vor scadea si la cealalta; daca semnul este -, legatura este invers proportionala, daca scorul la una va creste, la cealalta variabila va scadea, sau daca va scadea la o variabila, va creste la cealalta.) -pragul de semnificatie (p), care trebuie sa fie mai mic decat 0.05, pentru a avea o leagatura semnificativa intre variabile. P<0.05 semnificativ p>0.05 nesamnificativ -puterea corelatiei, care este data de valoarea coeficientului de corelatie (r=0.785), daca valorile sunt < 0.3 legatura este slaba 0.3-0.5- medie >0.5- puternica Exista 2 coeficienti de corelatie Pearson(folasit pentru date parametrice) si Spearman (pentru date neparametrice). Datele sunt parametrice atunci cand distributia este normala (in forma de clopot). Pentru a vedea tipul distributiei (parametric / neparametric) se foloseste testul Kolmogorov-Smirnov. (asta inainte de relizarea corelatiei.) Analyze Non Parametric Test - 1 Sample K-S. introducem variabilele pe care le verificam si apasam OK.
Rezulta :
One-Sample Kolmogorov-Smirnov Test numar de vanzari 23 47.9130 7.65692 .184 .118 -.184 .882 .418 experienta 23 7.4783 2.10777 .206 .105 -.206 .990 .281
N a,b Normal Parameters Most Extreme Differences Kolmogorov-Smirnov Z Asymp. Sig. (2-tailed)
Ne intereseaza valoare Z (Kolmogorov-Smirnov) si pragul de semnificatie (sig). Daca P(pragul de semnificatie) este < 0.05, atunci testul este semnificativ >0.05 test nesemnificativ Ex. Experienta Z=0.990, p>0.05 (0.281), ceea ce ne arata ca testul este nesemnificativ, deci distributia este normala Cand testul este nesemnificativ distributia este normala Cand este semnificativ- distributia NU este normala folosim corelatia Pearson atunci cand distributiile ambelor variabile sunt normale (deci la testul Kolmogorov-Smirnov se obtine un p>0.05) folosim corelatia Sperman atunci cand una sau ambele distributii ale variabilelor NU sunt normale (la testul Kolmogorov-Smirnov se obtine un p<0.05) Pentru corelatie (atat Pearson cat si Spearman) Analyze correlate bivariate introducem variabilele- bifam tipul de corelatie (Pearson sau Sperman) din casute OK
Rezulta
Correlations numar de vanzari 1 experienta .749** .000 23 23 .749** 1 .000 23 23
numar de vanzari Pearson Correlation Sig. (2-tailed) N experienta Pearson Correlation Sig. (2-tailed) N
In
legatura este direct proportionala pozitiva (r=0.749), in sensul ca daca valorile la nr de vanzari cresc , cresc si valorile la experienta sau daca scad la vanzari vor scade si la experienta., legatura corelatiei este puternica (r=0.749) *daca ridicam valoarea lui r la patrat - r=0.749 varianta comuna a celor doua variabile este de 56. Interpretarea se face la fel indifferent de tipul de corelatie folosit (pearson / sperman ). *pentru reprezentarea grafica a corelatiei: Graph scatter dot simple scatter define introducem o variabila pe axa X si alt ape axa Y OK dam dublu clik pe graphic- elements (in bara de sus) fit line at total * pentru corelatia partiala (asta nu stiu daca o sa ne dea, dar oricum o trec si pe ea :) Analyze correlate partial introducem variabilele corelatiei in primul camp (doua, in exemplu experienta si persuasiune) si an al doilea (controlling for) variabila care credem noi ca influenteaza corelatia (in exemplu extroversie) OK - r= 0.56 ,ceea ce inseamna ca
Si rezulta:
Correlations Control Variables extroversie experienta Correlation Significance (2-tailed) df Correlation Significance (2-tailed) df experienta 1.000 . 0 -.138 .541 20 persuasiune -.138 .541 20 1.000 . 0
persuasiune
Se interpreteaza : daca corelatia este semnificativa putem spune ca corelatia dintre experienta si persuasiune ar putea depinde de corelatia cu extaversiunea.. *in cazul de fata corealatia este nesemnificativa.
Testul T
*testul T pentu esantioane independente -folosit atuci cand avem doua grupe independente de subiecti pe care vrem sa ii comparam (exemplu: baieti si fete) -se foloseste atat pentru date PARAMETRICE cat si NEPARAMETRICE (la fel ca la corelatii). Pentru date -parametrice folosim testul INDEPENDENT SAMPLE T TEST -neparametrice folosim testul MANN-WITHNEY (2 independent samples) *pentru a vedea daca datele sunt parametrice sau nu , folosim acelasi test ca la corelatii, testul Kolmogorov- Smirnov. Pentru testul INDEPENDENT SAMPLE T TEST Analyze compare means independent sample t test- introducem variabilele (variabila de grup trebuie definita de la define group, cu 1 si 2) OK Obtinem :
Group Statistics
N 7.2000 8.7647
Mean
Independent Samples Test Levene's Test for Equality of Variances t-test for Equality of Means 95% Confidence Interval of the Difference Lower Upper -2.39442 -2.43461 -.73499 -.69480
F memorie imagini Equal variances assumed Equal variances not assumed 4.619
Sig. .040
t -3.851 -3.731
df 30 21.947
In primele doua coloane avem testul lui LEVENE. Daca acesta este semnificativ citim datele de pe randul 2, daca nu este semnificativ (sig.-p> 0.05) citm randul 1 Interpretare: testul lui Levene pentru egalitatea variantelor este semnificativ (p<0.05), deci vom citi datele de pe randul 2, din tabel rezulta ca exista o diferenta semnificativa intre fete si baieti in ceea ce priveste memoria imaginilor t(30)=-3.731, in sensul ca baietii au o memorie a imaginilor mai buna decat cea a fetelor (vedem asta din modul in care sunt asezate variabilele in tabelul mic intai fete si apoi baieti, si din semnul lui t-a carui valoare este o diferenta intre cele 2 grupuri. )
Pentru testul MANN-WITHNEY (notat 2 independent sample in SPSS) Analyze nonparametric tests - 2 independent samples - introducem variabilele (variabila de grup trebuie definita de la define group, cu 1 si 2) OK Obtinem
Ranks memorie cifre gen feminin masculin Total N 15 17 32 Mean Rank 10.10 22.15 Sum of Ranks 151.50 376.50
b Test Statistics
Din cele doua tabele ne intereseaza cel de-al doilea Z=-3.924, p<0.05, din primul modul in care sunt asezate grupele (intai feminin si apoi masculin). Rezulta ca exista diferente semnificative intre fate si baieti in ceea ce priveste memoria cifrelor, in sensul ca baietii au o memorie a cifrelor mai buna decat cea a fetelor (Z= -3.924).
*testul T pentru esantioane perechi -se foloseste atunci cand avem un singur grup de subiecti pe care am aplicat in mod repetat un test (test -retest) ex. un grup de subiecti testati pentru anxietate inainte de un test si dupa test. -se foloseste atat pentru date PARAMETRICE cat si NEPARAMETRICE (la fel ca la corelatii). Pentru date -parametrice folosim testul PAIRED SAMPLE T TEST -neparametrice folosim testul WILCOXON (2 RELATED SAMPLE) *pentru a vedea daca datele sunt parametrice sau nu , folosim acelasi test ca la corelatii, testul Kolmogorov- Smirnov. Pentru testul PAIRED SAMPLE T TEST Analyze compare means paired sample t test se introduc variabilele (prin clik pe variabila, iar aceasta apare in coltul din stanga jos. Dupa ce au fost trecute ambele variabile se apasa pe sageata din mijloc) OK
Obtinem
Paired Samples Test Paired Differences 95% Confidence Interval of the Difference Lower Upper 3.77305 6.78945
t 7.142
df 31
din tabel rezulta ce exista diferente semnificative intre scorurile la atentia initiala si cele la atentia finala t(31)=7.142, p<0.05, in sensul ca scorurile la atentia initiala sunt mai mari decat cele la atentia finala.
Pentru testul WILCOXON (2 related sample in SPSS) Analyze nonparametric tests - 2 related samples - introducem variabilele (prin clik pe variabila, iar aceasta apare in coltul din stanga jos. Dupa ce au fost trecute ambele variabile se apasa pe sageata din mijloc) OK Obtinem 2 tabele, important este tabelul cel mic , Z=-4.651, p<0.05, exista o diferenta semnificativa intre scorurile la anxietate finala si anzietatea initiala in sensul ca anxietatea finala este mai scazuta decat anxietatea initiala.
b Test Statistics
In baza de date din SPSS variabilele atentie 1 si 2, si memoria imaginilor sunt parametrice, iar variabilele anxietate 1,2 si memoria cifrelor sunt neparametrice. (am vazut asta cu testul Kolmogorov -Smirnov).
Testul t se foloseste atunci cand lucram cu variabile care au maxim 2 grade de intensitate (ex, gen are 2 grade :F si M), daca variabilele au mai mult de doua grade se foloseste ANOVA.
Analiza factoriala
Realizeaza reducerea datelor prin corelarea lor in factori. Analyze- Data reduction Factor , se introduc toate variabilele, apoi din descriptives (bifam coefficients si KMO), din extraction (bifam scree plot, daca vrem noi sa determinam numarul de factori in care vor fi impartite variabilele bifam si number of factors si introducem numarul dorit, daca nu il lasam nebifat si factorii vor fi facuti de calculator), din rotation bifam varimax , din options (sort by size)- OK Vom obtine mai multe tabele (vezi outputul pentru analiza factoriala), din care importante pentru interpretare sunt component matrix. tabelele total variance explained si rotated
Total Variance Explained Initial Eigenvalues % of Variance Cumulative % 25.029 25.029 20.663 45.691 15.123 60.814 11.339 72.153 8.009 80.162 6.171 86.332 5.377 91.710 4.498 96.208 3.280 99.488 .512 100.000 Extraction Sums of Squared Loadings Total % of Variance Cumulative % 2.503 25.029 25.029 2.066 20.663 45.691 1.512 15.123 60.814 1.134 11.339 72.153 Rotation Sums of Squared Loadings Total % of Variance Cumulative % 2.410 24.099 24.099 1.821 18.209 42.308 1.636 16.363 58.671 1.348 13.482 72.153
Component 1 2 3 4 5 6 7 8 9 10
Total 2.503 2.066 1.512 1.134 .801 .617 .538 .450 .328 .051
Interpretare : in urma analizei pe componente principale s-au obtinut 4 factori care impreuna acopera 72.15 % din varianta modelului, din care F1=2.410, acopera 24% din varianta, F2=1.812, acopera 18.20% din varianta, F3=1.636, acopera 16.36 % din varianta si F4=1.348, acopera 13.48 % din varianta. (toate aceste date se gasesc in partea marcata cu rosu). Observam in F1 cea mai mare pondere in model o au variabilele: x8, x2, x6, x5 In F2 : x3, x7, x10 In F3 : x4, x1 In F4: x9
Component 1 X8 X6 X2 X5 X3 X7 X10 X4 X1 X9 .831 -.692 .656 .649 .204 .126 -.369 .213 .388 8.355E-03 2 -9.98E-02 -.377 .165 -.184 .784 .725 .677 -2.58E-03 8.354E-02 4.346E-02 3 -.132 1.636E-02 .163 7.182E-02 -.229 .347 .215 -.878 .752 -.178 4 .114 .266 -5.73E-02 .487 4.220E-02 -.286 .362 8.496E-02 -9.13E-02 .891
Extraction Method: Principal Component Analysis. Rotation Method: Varimax with Kaiser Normalization. a. Rotation converged in 9 iterations.
Unde sunt valori de tipul -9.98E-02 in SPSS daca cam dublu clik pe valoarea respective ne apare valoarea, ea este trecuta asa deoarece numarul are perioada si este prea mare
Predictii (regresia)
Predictia poate fi de doua feluri * PREDICTIE LINEARA SIMPLA (cand avem un criteriu si un predictor) * PREDICTIE LINEARA MULTIVARIATA (cand avem un criteriu si mai multi predictori) Criteriul = variabila dependenta = Y Predictor= variabila independenta = X
*Pedictia lineara simpla -avem 2 ecuatii de predictie, una este pentru: -note brute y= a+ bxy*X , unde y = criteriul(variabila dependenta) a= constanta de regresie bxy= linia de regresie X= scorul brut pe care il obtine un subiect
Zy = rxy * Zx .
rxy = corelatia dintre predictor si criteriu Zx = nota standard a subiectului care a obtinut nota bruta X Exemplu de exercitiu. Realizati predictia notei la matematica pe baza notei la fizica. Calculati nota la matematica in note brute si note standard, a unui subiect care obtine nota 6 la fizica. -nota la matematica este variabila dependenta = y (criteriul) -nota la fizica este variabila independenta = x (predictorul)
In SPSS pentru predictie lineara simpla: Analyze regression linear (variabila dependenta se introduce la dependent iar cea independenta la independent, de la statistics se bifeaza R squered change) ,se da continue OK Se obtin 4 tabele cele mai importante sunt Model summari si Coeficients
Model Summary Change Statistics Model 1 R R Square .838 a .703 Adjusted R Square .686 Std. Error of the Estimate 1.00028 R Square Change .703 F Change 42.516 df1 1 df2 18 Sig. F Change .000
Din acest tabel se interpreteaza R square adjusted (rosu) Raj=0.686 cea ce inseamna ca 68% din varianta criteriului este explicate de varianta predictorului (forta predictorului) *in cazul predictiei multivariate se interpreteaza si R square change (albastru) Rch=0.703, Fch=42.516, p<0.05. care ne arata ce imbunatatire adduce modelul present fata de modelul precedent. In cazul de fata (daca am avea mai mlte modele) imbunatatirea ar fi de 70%, imbunatatirea este semnificativa p<0.005 Din tabelul cu ANOVA daca p<0.05 (sig), atunci modelul este semnificativ
a Coefficients
Model 1
(Constant) fizica
t 1.928 6.520
Din tabelul Coefficients putem sa scriem si sa calculam ecuatiile de predictie in note brute si in note standard. Pentru note brute utilizam datele de la unstandardized coefficients(cu albastru) iar pentru note standard, datele de la standardized coaficients (cu verde)
-note brute
y= a+ bxy*X
, a=constant( in tabel); bxy=fizica(in tabel) nota 6 este nota bruta la fizica (X)
y=1.454+0.691*6
-nota obtinuta (y) va reprezenta nota bruta la matematica a unui subiect care a obtinut la fizica nota 6
-note standard
*pentru a calcula media si abaterea standard Analyze -descriptive Frequencis introducem variabila (fizica) si de la srtatistics bifam : MEAN si STANDARD DEVIATION OK Zy=0.838 * Zx Zx= 6 (nota bruta)-6.8 =-0.37
2.16 -nota obtinuta (Zy) va reprezenta nota atandard la matematica a unui subiect ce a obtinut nota 6 la fizica
*Predictie lineara multivariate (cand avem un criteriu si mai multi predictori) -avem 2 ecuatii de predictie: -pentru NOTE BRUTE y= a + b1x1 + b2x2+ .bnxn
Exercitiu Realizati analiza de predictie multipla a notei la matematica pe baza notelor la fizica, desen, geografie si chimie. a)precizati care este cel mai bun model. Scrieti ecuatiile de predictie in note brute si note standard (in note z) b) ce imbunatatire aduce modelul 2
In SPSS pentru predictie multipla: Analyze regression linear (variabila dependenta se introduce la dependent iar cea independenta la independent, se introduce fiecare variabila pe rand apoi se apasa next. de la statistics se bifeaza R squered change) ,se da continue OK Se obtin 5 tabele cele mai importante sunt Model summari si Coeficients Rezulta:
Model Summary Change Statistics Model 1 2 3 4 5 R R Square .838 a .703 .945 b .893 .947 c .897 .988 d .977 .990 e .979 Adjusted R Square .686 .881 .877 .971 .972 Std. Error of the Estimate 1.00028 .61693 .62503 .30436 .30017 R Square Change .703 .191 .004 .080 .002 F Change 42.516 30.320 .562 52.478 1.421 df1 1 1 1 1 1 df2 18 17 16 15 14 Sig. F Change .000 .000 .464 .000 .253
a. Predictors: (Constant), fizica b. Predictors: (Constant), fizica, romana c. Predictors: (Constant), fizica, romana, desen d. Predictors: (Constant), fizica, romana, desen, chimie e. Predictors: (Constant), fizica, romana, desen, chimie, geografie
Din coloana cu rosu (adjusted R square) vedem cat % explica fiecare model din varianta criteriului: model 1=68% Model 2=88% Model 3=87% (87% din varianta variabilei nota la ,matematica este explicata de varianta variabilelor fizica, romana si desen,* dupa modelul asta se interpreteaza la
toate celelalte modele de predictie,se va tine cont de variabilele care sunt continute in model, ex. modelul 2 cuprinde variabilele fizica si romana) Model 4=97% Model 5 =97% Din coloana cu albastru R square change se va interpreta ce imbunatatire adduce fiecare model de predictie fata de modelul precedent. Daca p<0.05 (sig) atunci acea imbunatatire este semnificativa. Interpretam: modelul 2 aduce o imbunatatire de 19 % fata de modelul precedent (valoarea din tabel se inmulteste cu 100), p<0.05 (sig F change), ceea ce inseamna ca imbunatatirea este semnificativa Modelul 3 aduce imbunatatire de 0.04% fata de modelul precedent, p>0.005 ceea ce arata ca imbunatatirea nu este semnificativa Modelul 4 imbunatatire de 8% fata de modelul precedent p<0.005 ceea ce arata ca imbunatatirea este semnificativa Model 5 -0.02%.....se interpreteaza ca la celelalte
Din tabelul cu ANOVA daca p<0.05 (sig), atunci modelul este semnificativ
a Coefficients
Model 1 2
(Constant) fizica (Constant) fizica romana (Constant) fizica romana desen (Constant) fizica romana desen chimie (Constant) fizica romana desen chimie geografie
Unstandardized Coefficients B Std. Error 1.454 .754 .691 .106 -1.225 .673 .487 .075 .625 .113 .121 1.921 .501 .078 .617 .115 -.148 .198 1.159 .947 .130 .064 .064 .095 -.076 .097 .838 .116 .573 1.055 .164 .069 .016 .102 -.096 .097 .812 .116 .124 .104
Standardized Coefficients Beta .838 .592 .501 .608 .495 -.062 .158 .051 -.032 .819 .199 .013 -.040 .793 .065
t 1.928 6.520 -1.820 6.499 5.506 .063 6.418 5.344 -.750 1.225 2.042 .671 -.785 7.244 .543 2.379 .154 -.994 6.978 1.192
Sig. .070 .000 .086 .000 .000 .950 .000 .000 .464 .239 .059 .512 .445 .000 .596 .032 .880 .337 .000 .253
Din tabelul Coefficients putem sa scriem si sa calculam ecuatiile de predictie in note brute si in note standard. Pentru note brute utilizam datele de la unstandardized coefficients iar pentru note standard, datele de la standardized coaficients -pentru note bruteEx Ptr.model 2 y= a + b1x1 + b2x2+ .bnxn, , a=constant( in tabel); y = -1.225 +0.487 + 0.625
-pentru note standard Zy= 1Z1 + 2Z2 + nZn , =beta standard pentru variabila respective Z este nota standard a subiectului Z = X- media Abaterea standard
; Z=nota
*pentru a calcula media si abaterea standard Analyze -descriptive Frequencis introducem variabila pentru care calculam nota standard si de la srtatistics bifam : MEAN si STANDARD DEVIATION OK Ex. ptr modelul 2 Zy=0.592*Z1+ 0.501*Z2
Z1= in cazul nostrum nota standard la fizica Z2= nota standard la romana Pentru a afla Z aplicam aceasi formula :Z = X- media Abaterea standard *media si abaterea standard le obtinem Analyze -descriptive Frequencis introducem variabila pentru care calculam nota standard si de la srtatistics bifam : MEAN si STANDARD DEVIATION OK -in cazul de fata avem nevoie de scorurile brute ale subiectilor la fizica, desen.(ele sunt X din formula), acestea se dau de obicei in datele problemei, daca nu putem scrie formula asa cum am scris-o mai sus. Ptr modelul 3 Zy = 0.608*Z1+ 0.495*Z2+ (-0.062)* Z3
tot din tabelul coefficients putem vedea care predictor este mai important in modelul 4 de exemplu. -aceasta se poate face in functie de coeficientii nestandardizati (si ne uitam
la valoarea lui B din coloana unstandardized coefficients ) variabila cu valoarea B cea mai mare reprezinta predictorul cel mai important din model. Ex. in modelul 4 avem drept predictori fizica, romana, desen si chimie (cea mai mare valoare o are chimia 0.838). deci chimia reprezinta cel mai bun predictor din modelul 4 in functie de coeficientii nestandardizati -in functie de coeficientii standardizati urmarim variabila cu valoarea lui Beta cea mai mare. In modelul 4 cel mai important predictor este chimia=0.819 In momentul in care introducem variabilele ptr predictie multivariata in spss ( Analyze regression linear (variabila dependenta se introduce la dependent iar cea independenta la independent, se introduce fiecare variabila pe rand apoi se apasa next. de la statistics se bifeaza R squered change) ,se da continue OK
, putem sa lasam la method : enter, sau sa selectam Stepwise, in cazul in care selectam Stepwise calculatorul va allege modelul cel mai bun). Nu exista nici o diferenta in interpretarea datelor, outputul arata la fel . asta daca proful ne cere sa realizam o predictie prin metoda Stepwise
Anova
Avem aici 3 tipuri de operatii: - ANOVA ONE WAY (ptr esantioane independente) -ANOVA UNIVARIATA -ANOVA ONE WAY (ptr esantioane perschi, masurari repetate)
*ANOVA ONE WAY (ESANTIOANE INDEPENDENTE) Aceasta analiza se aplica atunci cand avem o variabila independentacu mai mult de doua grade de intensitate, daca aceasa are doua grade se poate aplica testul t. In cazul nostru variabila independenta (ordinea nasterii) are 3 grade (primul nascut, al doilea si al treilea nascut). In SPSS pentru ANOVA ONE WAY: Analyze compare means- one way anova-introducem variabila dependenta in dependent list si variabila independenta in Factor-de la post hoc bifam BonfferoniOK Rezulta
ANOVA extroversiune Sum of Squares 42.363 12.189 54.552 df 2 26 28 Mean Square 21.181 .469 F 45.182 Sig. .000
Multiple Comparisons Dependent Variable: extroversiune Bonferroni Mean Difference (I-J) Std. Error -1.4889* .3146 -2.9889* .3146 1.4889* .3146 -1.5000* .3062 2.9889* .3146 1.5000* .3062
(I) ordinea nasterii (J) ordinea nasterii primul nascut al doilea nascut al treilea nascut al doilea nascut primul nascut al treilea nascut al treilea nascut primul nascut al doilea nascut
95% Confidence Interval Lower Bound Upper Bound -2.2939 -.6839 -3.7939 -2.1839 .6839 2.2939 -2.2836 -.7164 2.1839 3.7939 .7164 2.2836
din primul tabel F (2; 26)= 45.182 p< 0.05 (sig), daca p este semnificativ (adica mai mic de 0.05) inseamna ca exista un effect al variabilei ordinea nasterii asupra variabilei extroversiune. Din al doilea tabel ne uitam la Mean diference (care ne arata diferenta dintre medii) si la Sig care ne arata daca aceasta diferenta este semnificativa (daca este mai < 0.05) M I M II = -1.488 , M I M III = -2.988 , M II M III = -1.500 , p<0.05 p<0.05 p<0.05
*media scorurilor la extroversiune a subiectilor nascuti primii difera semnificativ de media subiectilor care sunt al doilea nascuti si fata de media subiectilor care sunt al treilea nascuti , in sensul ca scorurile primilor nascuti la extroversiune sunt semnificativ mai mici decat scorurile subiectilor nascuti ai doilea si decat cele ale subiectilor care sunt al treile nascuti, iar scorurile subiectilor II nascuti la extroversiune sunt semnificativ mai mici decat scorurile subiectilor III nascuti. (ne uitam la semn ex. M1-M2= -1.488 ) -**stiu ca este cam ciudata exprimarea cu al treile nascut..si al doileadar important este modelul de interpretare si asa se procedeaza la toate analizele. *M I M II (primul nascut al doilea nascut)
Pentru one way anova (esantioane independente) am lucrat cu variabilele ordine si extroversiune
*ANOVA UNIVARIATA - folosim atunci cand avem de analizat efectul a doua variabile independente (din care macar una va avea mai mult de doua grade de intensitate) asupra unei varibile dependente *am folosit pentru anova univariata variabilele independente anxietate si motivatie si variabila dependenta stima de sine (din baza de date) Pentru anova univariata: Analyze- general linear model- univariat- introducem variabila dependenta la dependent variabil si cele independente la fixed factor.- de la plots introducem primul factor in prima casuta de sus si cel de-al doile, in a doua casuta apoi apasam ADD(pentru realizarea graficului)- de la post hoc selectam bonferoni si mutam din factor in post hoc variabilele- la options selectam hegemonity test- OK Obtinem mai multe tabele ,important este tabelul test of between subjects
Tests of Between-Subjects Effects Dependent Variable: stima de sine Type III Sum Source of Squares Corrected Model 85.333 a Intercept 2157.415 ANXIETAT 75.661 MOTIVATI 4.867 ANXIETAT * MOTIVATI .202 Error 4.033 Total 2291.000 Corrected Total 89.367 df 5 1 2 1 2 24 30 29 Mean Square F 17.067 101.554 2157.415 12837.508 37.831 225.108 4.867 28.959 .101 .600 .168 Sig. .000 .000 .000 .000 .557
ne uitam la ANXIETATE F (2)=225.108, p<0.05 (sig)- ceea ce ne arata ca exista un effect al variabilei anxietate asupra variabilelei stima de sine. Pentru a vedea in ce fel influenteaza anxietatea stima de sine, ne uitam in tabelul :
Multiple Comparisons Dependent Variable: stima de sine Bonferroni Mean Difference (I-J) Std. Error -2.2000* .1833 -4.0000* .1833 2.2000* .1833 -1.8000* .1833 4.0000* .1833 1.8000* .1833
(I) anxietate (J) anxietate ridicata medie scazuta medie ridicata scazuta scazuta ridicata medie
95% Confidence Interval Lower Bound Upper Bound -2.6718 -1.7282 -4.4718 -3.5282 1.7282 2.6718 -2.2718 -1.3282 3.5282 4.4718 1.3282 2.2718
Based on observed means. *. The mean difference is significant at the .05 level.
**acesta se interpreteaza la fel ca la anova one way. Pentru masurari mai exacte se aplica testul t pentru esantioane independente. Dar nu cred ca este cazul sa ne dea asa ceva. Daca ne uitam la MOTIVATIE F(1)= 28.959 p<0.05, ceea ce arata ca exista un effect al variabilei
motivatie asupra stimei de sine (si aici se face testul t pentru esantioane independente, stima de sine va fi variabila dependenta si variabila de grup va fi motivatia. Se interpreteaza la fel ca la testul t).
Daca ne uitam la ANXIETATE*MOTIVATIE F (2)=0.600 p>0.05, ceea ce arata ca nu exista un effect principal al variabilelor anxietate si motivatie asupra variabilei stima de sine
*ANOVA ONE WAY (ESANTIOANE PERECHI, pentru masurari repetate) -avem rezultatele acelorasi subiecti obtiunute in 3 conditii diferite (exemplu ameliorea durerii in sitatiile in care se administreaza aspirina, produsul x si placebo) -pentru analiza am flosit variabilele : ceai, cafea si cola Analyze - general linear model- repeted mesures- la number of levels scrieti 3, apasat add, apoi define, selectati fiecare variabila individual sau pe toate trei odata si apasati butonul de langa caseta whitin subjects pentru a le introduce acolo- de options selectati descriptive statistics-OK Din tabele obtinute ne uitam la tabelul Mauchlys test of Sphericity, daca p> 0.05 inseamna ca este nesemnificativ deci sfericitatea este asumata
Testul semnului
Analyze non parametric test two related samples- se introduc variabilele si se bifeaza casuta sign (la fel ca la testul t pentru esantioane perechi)- OK *pentru distributii binonimale (ex. la 3 ani si la 2 ani)
b Test Statistics
cuvinte la 3 ani - cuvinte la 2 ani Exact Sig. (2-tailed) .219 a a. Binomial distribution used. b. Sign Test
Constatam ca p>0.05, deci nu exista nici o diferenta semnificativa intre numarul de cuvinte la 3 si la 2 ani.
Testul McNamar
Analyze non parametric test two related samples- se introduc variabilele si se bifeaza casuta McNamar (la fel ca la testul t pentru esantioane perechi)- OK **inainte de a face insa aceasta operatie trebuie sa facem o ponderare a datelor in functie de variabila frecventa. Aceasta se face de la Data- weight cases- bifam weight cases by si introducem in acel camp variabila frecventa- OK . in baza de date va aparea in coltul din dreapta jos scris weight cases on. Dupa aceasta operatie facem operatia prezentata mai sus. * dupa realizarea ponderarii si a analizei , daca dorim sa efectuam si alte operatii varianta cu weight cases trebuie deselectata(in acelasi mod prin care a fost activata) Obtinem
dupa examen & inainte de examen inainte de examen 1 2 20 40 10 22
dupa examen 1 2
b Test Statistics
P< 0.05, ceia ce arata ca exista o schimbare semnificativa la nivelul numarului de subiecti care si-au schimbat parerea in legatura cu sansele de a intra la facultate in urma participarii la examen
(=16.820, p<0.05)
Testul Fisher
Folosit atunci cand avem tabele de tipul 2x2, atunci cand una sau mai multe din cele 4 celule au o frecventa anticipate mai mica de 5 Procedeul este la fel ca la chi-patrat pentru mai multe esantioane, care ste preyentat mai jos Analyze- descriptive statistics- crosstabs- introducem variabila sex in primul camp si variabila bauturi in cel de-al doilea-de la statistics bifam Chi-squere- de la cells bifam expected.-OK **inainte de a face insa aceasta operatie trebuie sa facem o ponderare a datelor in functie de variabila frecventa. Aceasta se face de la Data- weight cases- bifam weight cases by si introducem in acel camp variabila frecventa- OK . in baza de date va aparea in coltul din dreapta jos scris weight cases on. Dupa aceasta operatie facem operatia prezentata mai sus. * dupa realizarea ponderarii si a analizei , daca dorim sa efectuam si alte operatii varianta cu weight cases trebuie deselectata(in acelasi mod prin care a fost activata
GEN * MEMORIE Crosstabulation MEMORIE imagini cuvinte 3 5 4.0 4.0 8 6 7.0 7.0 11 11 11.0 11.0
GEN
feminin masculin
Total
-putem vedea diferentele dintre frecventele observate (count) si cele asteptate (expected)
Chi-Square Tests Value .786 b .196 .792 .750 22 df 1 1 1 1 Asymp. Sig. (2-sided) .375 .658 .373 .386 Exact Sig. (2-sided) Exact Sig. (1-sided)
Pearson Chi-Square a Continuity Correction Likelihood Ratio Fisher's Exact Test Linear-by-Linear Association N of Valid Cases
.659
.330
a. Computed only for a 2x2 table b. 2 cells (50.0%) have expected count less than 5. The minimum expected count is 4.00.
-importanta este linia cu fishers exact test, in cazul de fata p>0.05, deci testul fisher exact este nesemnificativ, deci barbatii si femeile nu sunt diferiti in ceea ce priveste memorarea cuvintelor si a imaginilor fisher=0.659, p>0.05
SEX
feminin masculin
Total
Din tabelul acesta putem vedea care din cele 3 bauturi a fost mai mult preferata de fete si care de baieti. (cafeaua si ceaiul au fost preferate mai mult de fete si cola de baieti-ne uitam la valorile de la count)
Chi-Square Tests Value 15.212 a 15.657 .026 112 df 2 2 1 Asymp. Sig. (2-sided) .000 .000 .872
a. 0 cells (.0%) have expected count less than 5. The minimum expected count is 12.28.
P<0.05, deci este semnificativ, putem spune ca exista o diferenta semnificativa intre frecventele observate si cele asteptate ale subiectilor fete si baieti, in ceea ce priveste preferinta lor pentru cele trei tipuri de bauturi. Din primul tabel interpretam in ce sens. .
(cafeaua si ceaiul au fost preferate mai mult de fete si cola de baieti-ne uitam la valorile de la count)
Obtinem
CATEGOR reproducere completa reproducere partiala reproducere lacunara Total Observed N 34 39 6 79 Expected N 40.0 25.0 14.0 Residual -6.0 14.0 -8.0
a. 0 cells (.0%) have expected frequencies less than 5. The minimum expected cell frequency is 14.0.
P<0.05, deci putem spune ca exista o diferenta semnificativa intre frecventele observate si cele asteptate pentru cele trei categorii de reproducere a sirurilor de numere (=13.311, p<0.05)