Sunteți pe pagina 1din 30

Corelatii

Corelatia ne arata legatura dintre doua variabile (fara sa stim ceva de cauzalitate, adica daca una influenteaza pe cealalta.). In interpretarea unei corelatii avem in vedere 3 aspecte : -semnul corelatiei (daca este + inseamna ca exista o legatura direct proportionala intre cele doua variabile, daca scorurile la una vor creste, vor creste si la cealalta, sau daca vor scadea vor scadea si la cealalta; daca semnul este -, legatura este invers proportionala, daca scorul la una va creste, la cealalta variabila va scadea, sau daca va scadea la o variabila, va creste la cealalta.) -pragul de semnificatie (p), care trebuie sa fie mai mic decat 0.05, pentru a avea o leagatura semnificativa intre variabile. P<0.05 semnificativ p>0.05 nesamnificativ -puterea corelatiei, care este data de valoarea coeficientului de corelatie (r=0.785), daca valorile sunt < 0.3 legatura este slaba 0.3-0.5- medie >0.5- puternica Exista 2 coeficienti de corelatie Pearson(folasit pentru date parametrice) si Spearman (pentru date neparametrice). Datele sunt parametrice atunci cand distributia este normala (in forma de clopot). Pentru a vedea tipul distributiei (parametric / neparametric) se foloseste testul Kolmogorov-Smirnov. (asta inainte de relizarea corelatiei.) Analyze Non Parametric Test - 1 Sample K-S. introducem variabilele pe care le verificam si apasam OK.

Rezulta :

One-Sample Kolmogorov-Smirnov Test numar de vanzari 23 47.9130 7.65692 .184 .118 -.184 .882 .418 experienta 23 7.4783 2.10777 .206 .105 -.206 .990 .281

N a,b Normal Parameters Most Extreme Differences Kolmogorov-Smirnov Z Asymp. Sig. (2-tailed)

Mean Std. Deviation Absolute Positive Negative

a. Test distribution is Normal. b. Calculated from data.

Ne intereseaza valoare Z (Kolmogorov-Smirnov) si pragul de semnificatie (sig). Daca P(pragul de semnificatie) este < 0.05, atunci testul este semnificativ >0.05 test nesemnificativ Ex. Experienta Z=0.990, p>0.05 (0.281), ceea ce ne arata ca testul este nesemnificativ, deci distributia este normala Cand testul este nesemnificativ distributia este normala Cand este semnificativ- distributia NU este normala folosim corelatia Pearson atunci cand distributiile ambelor variabile sunt normale (deci la testul Kolmogorov-Smirnov se obtine un p>0.05) folosim corelatia Sperman atunci cand una sau ambele distributii ale variabilelor NU sunt normale (la testul Kolmogorov-Smirnov se obtine un p<0.05) Pentru corelatie (atat Pearson cat si Spearman) Analyze correlate bivariate introducem variabilele- bifam tipul de corelatie (Pearson sau Sperman) din casute OK

Rezulta
Correlations numar de vanzari 1 experienta .749** .000 23 23 .749** 1 .000 23 23

numar de vanzari Pearson Correlation Sig. (2-tailed) N experienta Pearson Correlation Sig. (2-tailed) N

**. Correlation is significant at the 0.01 level (2-tailed).

In

cazul de fata : exista o legatura semnificativa intre cele 2 variabile (p<0.05),

legatura este direct proportionala pozitiva (r=0.749), in sensul ca daca valorile la nr de vanzari cresc , cresc si valorile la experienta sau daca scad la vanzari vor scade si la experienta., legatura corelatiei este puternica (r=0.749) *daca ridicam valoarea lui r la patrat - r=0.749 varianta comuna a celor doua variabile este de 56. Interpretarea se face la fel indifferent de tipul de corelatie folosit (pearson / sperman ). *pentru reprezentarea grafica a corelatiei: Graph scatter dot simple scatter define introducem o variabila pe axa X si alt ape axa Y OK dam dublu clik pe graphic- elements (in bara de sus) fit line at total * pentru corelatia partiala (asta nu stiu daca o sa ne dea, dar oricum o trec si pe ea :) Analyze correlate partial introducem variabilele corelatiei in primul camp (doua, in exemplu experienta si persuasiune) si an al doilea (controlling for) variabila care credem noi ca influenteaza corelatia (in exemplu extroversie) OK - r= 0.56 ,ceea ce inseamna ca

Si rezulta:
Correlations Control Variables extroversie experienta Correlation Significance (2-tailed) df Correlation Significance (2-tailed) df experienta 1.000 . 0 -.138 .541 20 persuasiune -.138 .541 20 1.000 . 0

persuasiune

Se interpreteaza : daca corelatia este semnificativa putem spune ca corelatia dintre experienta si persuasiune ar putea depinde de corelatia cu extaversiunea.. *in cazul de fata corealatia este nesemnificativa.

Testul T
*testul T pentu esantioane independente -folosit atuci cand avem doua grupe independente de subiecti pe care vrem sa ii comparam (exemplu: baieti si fete) -se foloseste atat pentru date PARAMETRICE cat si NEPARAMETRICE (la fel ca la corelatii). Pentru date -parametrice folosim testul INDEPENDENT SAMPLE T TEST -neparametrice folosim testul MANN-WITHNEY (2 independent samples) *pentru a vedea daca datele sunt parametrice sau nu , folosim acelasi test ca la corelatii, testul Kolmogorov- Smirnov. Pentru testul INDEPENDENT SAMPLE T TEST Analyze compare means independent sample t test- introducem variabilele (variabila de grup trebuie definita de la define group, cu 1 si 2) OK Obtinem :
Group Statistics

gen memorie imagini feminin masculin 15 17

N 7.2000 8.7647

Mean

Std. Deviation 1.42428 .36775 .83137 .20164

Independent Samples Test Levene's Test for Equality of Variances t-test for Equality of Means 95% Confidence Interval of the Difference Lower Upper -2.39442 -2.43461 -.73499 -.69480

F memorie imagini Equal variances assumed Equal variances not assumed 4.619

Sig. .040

t -3.851 -3.731

df 30 21.947

Sig. (2-tailed) .001 .001

Mean Difference -1.56471 -1.56471

Std. Error Difference .40627 .41940

In primele doua coloane avem testul lui LEVENE. Daca acesta este semnificativ citim datele de pe randul 2, daca nu este semnificativ (sig.-p> 0.05) citm randul 1 Interpretare: testul lui Levene pentru egalitatea variantelor este semnificativ (p<0.05), deci vom citi datele de pe randul 2, din tabel rezulta ca exista o diferenta semnificativa intre fete si baieti in ceea ce priveste memoria imaginilor t(30)=-3.731, in sensul ca baietii au o memorie a imaginilor mai buna decat cea a fetelor (vedem asta din modul in care sunt asezate variabilele in tabelul mic intai fete si apoi baieti, si din semnul lui t-a carui valoare este o diferenta intre cele 2 grupuri. )

Pentru testul MANN-WITHNEY (notat 2 independent sample in SPSS) Analyze nonparametric tests - 2 independent samples - introducem variabilele (variabila de grup trebuie definita de la define group, cu 1 si 2) OK Obtinem
Ranks memorie cifre gen feminin masculin Total N 15 17 32 Mean Rank 10.10 22.15 Sum of Ranks 151.50 376.50

b Test Statistics

Mann-Whitney U Wilcoxon W Z Asymp. Sig. (2-tailed) Exact Sig. [2*(1-tailed Sig.)]

memorie cifre 31.500 151.500 -3.924 .000 .000


a

a. Not corrected for ties. b. Grouping Variable: gen

Din cele doua tabele ne intereseaza cel de-al doilea Z=-3.924, p<0.05, din primul modul in care sunt asezate grupele (intai feminin si apoi masculin). Rezulta ca exista diferente semnificative intre fate si baieti in ceea ce priveste memoria cifrelor, in sensul ca baietii au o memorie a cifrelor mai buna decat cea a fetelor (Z= -3.924).

*testul T pentru esantioane perechi -se foloseste atunci cand avem un singur grup de subiecti pe care am aplicat in mod repetat un test (test -retest) ex. un grup de subiecti testati pentru anxietate inainte de un test si dupa test. -se foloseste atat pentru date PARAMETRICE cat si NEPARAMETRICE (la fel ca la corelatii). Pentru date -parametrice folosim testul PAIRED SAMPLE T TEST -neparametrice folosim testul WILCOXON (2 RELATED SAMPLE) *pentru a vedea daca datele sunt parametrice sau nu , folosim acelasi test ca la corelatii, testul Kolmogorov- Smirnov. Pentru testul PAIRED SAMPLE T TEST Analyze compare means paired sample t test se introduc variabilele (prin clik pe variabila, iar aceasta apare in coltul din stanga jos. Dupa ce au fost trecute ambele variabile se apasa pe sageata din mijloc) OK

Obtinem
Paired Samples Test Paired Differences 95% Confidence Interval of the Difference Lower Upper 3.77305 6.78945

Mean Pair 1 atentie initiala atentie finala 5.28125

Std. Deviation 4.18318

Std. Error Mean .73949

t 7.142

df 31

Sig. (2-tailed) .000

din tabel rezulta ce exista diferente semnificative intre scorurile la atentia initiala si cele la atentia finala t(31)=7.142, p<0.05, in sensul ca scorurile la atentia initiala sunt mai mari decat cele la atentia finala.

Pentru testul WILCOXON (2 related sample in SPSS) Analyze nonparametric tests - 2 related samples - introducem variabilele (prin clik pe variabila, iar aceasta apare in coltul din stanga jos. Dupa ce au fost trecute ambele variabile se apasa pe sageata din mijloc) OK Obtinem 2 tabele, important este tabelul cel mic , Z=-4.651, p<0.05, exista o diferenta semnificativa intre scorurile la anxietate finala si anzietatea initiala in sensul ca anxietatea finala este mai scazuta decat anxietatea initiala.

b Test Statistics

Z Asymp. Sig. (2-tailed)

anxietate finala anxietate initiala -4.615 a .000

a. Based on positive ranks. b. Wilcoxon Signed Ranks Test

In baza de date din SPSS variabilele atentie 1 si 2, si memoria imaginilor sunt parametrice, iar variabilele anxietate 1,2 si memoria cifrelor sunt neparametrice. (am vazut asta cu testul Kolmogorov -Smirnov).

Testul t se foloseste atunci cand lucram cu variabile care au maxim 2 grade de intensitate (ex, gen are 2 grade :F si M), daca variabilele au mai mult de doua grade se foloseste ANOVA.

Analiza factoriala
Realizeaza reducerea datelor prin corelarea lor in factori. Analyze- Data reduction Factor , se introduc toate variabilele, apoi din descriptives (bifam coefficients si KMO), din extraction (bifam scree plot, daca vrem noi sa determinam numarul de factori in care vor fi impartite variabilele bifam si number of factors si introducem numarul dorit, daca nu il lasam nebifat si factorii vor fi facuti de calculator), din rotation bifam varimax , din options (sort by size)- OK Vom obtine mai multe tabele (vezi outputul pentru analiza factoriala), din care importante pentru interpretare sunt component matrix. tabelele total variance explained si rotated

Total Variance Explained Initial Eigenvalues % of Variance Cumulative % 25.029 25.029 20.663 45.691 15.123 60.814 11.339 72.153 8.009 80.162 6.171 86.332 5.377 91.710 4.498 96.208 3.280 99.488 .512 100.000 Extraction Sums of Squared Loadings Total % of Variance Cumulative % 2.503 25.029 25.029 2.066 20.663 45.691 1.512 15.123 60.814 1.134 11.339 72.153 Rotation Sums of Squared Loadings Total % of Variance Cumulative % 2.410 24.099 24.099 1.821 18.209 42.308 1.636 16.363 58.671 1.348 13.482 72.153

Component 1 2 3 4 5 6 7 8 9 10

Total 2.503 2.066 1.512 1.134 .801 .617 .538 .450 .328 .051

Extraction Method: Principal Component Analysis.

Interpretare : in urma analizei pe componente principale s-au obtinut 4 factori care impreuna acopera 72.15 % din varianta modelului, din care F1=2.410, acopera 24% din varianta, F2=1.812, acopera 18.20% din varianta, F3=1.636, acopera 16.36 % din varianta si F4=1.348, acopera 13.48 % din varianta. (toate aceste date se gasesc in partea marcata cu rosu). Observam in F1 cea mai mare pondere in model o au variabilele: x8, x2, x6, x5 In F2 : x3, x7, x10 In F3 : x4, x1 In F4: x9

a Rotated Component Matrix

Component 1 X8 X6 X2 X5 X3 X7 X10 X4 X1 X9 .831 -.692 .656 .649 .204 .126 -.369 .213 .388 8.355E-03 2 -9.98E-02 -.377 .165 -.184 .784 .725 .677 -2.58E-03 8.354E-02 4.346E-02 3 -.132 1.636E-02 .163 7.182E-02 -.229 .347 .215 -.878 .752 -.178 4 .114 .266 -5.73E-02 .487 4.220E-02 -.286 .362 8.496E-02 -9.13E-02 .891

Extraction Method: Principal Component Analysis. Rotation Method: Varimax with Kaiser Normalization. a. Rotation converged in 9 iterations.

Unde sunt valori de tipul -9.98E-02 in SPSS daca cam dublu clik pe valoarea respective ne apare valoarea, ea este trecuta asa deoarece numarul are perioada si este prea mare

Predictii (regresia)
Predictia poate fi de doua feluri * PREDICTIE LINEARA SIMPLA (cand avem un criteriu si un predictor) * PREDICTIE LINEARA MULTIVARIATA (cand avem un criteriu si mai multi predictori) Criteriul = variabila dependenta = Y Predictor= variabila independenta = X

*Pedictia lineara simpla -avem 2 ecuatii de predictie, una este pentru: -note brute y= a+ bxy*X , unde y = criteriul(variabila dependenta) a= constanta de regresie bxy= linia de regresie X= scorul brut pe care il obtine un subiect

-note standard unde Zy = criteriul

Zy = rxy * Zx .

rxy = corelatia dintre predictor si criteriu Zx = nota standard a subiectului care a obtinut nota bruta X Exemplu de exercitiu. Realizati predictia notei la matematica pe baza notei la fizica. Calculati nota la matematica in note brute si note standard, a unui subiect care obtine nota 6 la fizica. -nota la matematica este variabila dependenta = y (criteriul) -nota la fizica este variabila independenta = x (predictorul)

In SPSS pentru predictie lineara simpla: Analyze regression linear (variabila dependenta se introduce la dependent iar cea independenta la independent, de la statistics se bifeaza R squered change) ,se da continue OK Se obtin 4 tabele cele mai importante sunt Model summari si Coeficients

Model Summary Change Statistics Model 1 R R Square .838 a .703 Adjusted R Square .686 Std. Error of the Estimate 1.00028 R Square Change .703 F Change 42.516 df1 1 df2 18 Sig. F Change .000

a. Predictors: (Constant), fizica

Din acest tabel se interpreteaza R square adjusted (rosu) Raj=0.686 cea ce inseamna ca 68% din varianta criteriului este explicate de varianta predictorului (forta predictorului) *in cazul predictiei multivariate se interpreteaza si R square change (albastru) Rch=0.703, Fch=42.516, p<0.05. care ne arata ce imbunatatire adduce modelul present fata de modelul precedent. In cazul de fata (daca am avea mai mlte modele) imbunatatirea ar fi de 70%, imbunatatirea este semnificativa p<0.005 Din tabelul cu ANOVA daca p<0.05 (sig), atunci modelul este semnificativ

a Coefficients

Model 1

(Constant) fizica

Unstandardized Coefficients B Std. Error 1.454 .754 .691 .106

Standardized Coefficients Beta .838

t 1.928 6.520

Sig. .070 .000

a. Dependent Variable: matematica

Din tabelul Coefficients putem sa scriem si sa calculam ecuatiile de predictie in note brute si in note standard. Pentru note brute utilizam datele de la unstandardized coefficients(cu albastru) iar pentru note standard, datele de la standardized coaficients (cu verde)

-note brute

y= a+ bxy*X

, a=constant( in tabel); bxy=fizica(in tabel) nota 6 este nota bruta la fizica (X)

y=1.454+0.691*6

-nota obtinuta (y) va reprezenta nota bruta la matematica a unui subiect care a obtinut la fizica nota 6

-note standard

Zy = rxy * Zx ., Zx = X- media Abaterea standard

rxy=beta (tabel), Zx este nota standard a subiectului

*pentru a calcula media si abaterea standard Analyze -descriptive Frequencis introducem variabila (fizica) si de la srtatistics bifam : MEAN si STANDARD DEVIATION OK Zy=0.838 * Zx Zx= 6 (nota bruta)-6.8 =-0.37

2.16 -nota obtinuta (Zy) va reprezenta nota atandard la matematica a unui subiect ce a obtinut nota 6 la fizica

*Predictie lineara multivariate (cand avem un criteriu si mai multi predictori) -avem 2 ecuatii de predictie: -pentru NOTE BRUTE y= a + b1x1 + b2x2+ .bnxn

-pentru NOTE STANDARD Zy= 1Z1 + 2Z2 + nZn

Exercitiu Realizati analiza de predictie multipla a notei la matematica pe baza notelor la fizica, desen, geografie si chimie. a)precizati care este cel mai bun model. Scrieti ecuatiile de predictie in note brute si note standard (in note z) b) ce imbunatatire aduce modelul 2

In SPSS pentru predictie multipla: Analyze regression linear (variabila dependenta se introduce la dependent iar cea independenta la independent, se introduce fiecare variabila pe rand apoi se apasa next. de la statistics se bifeaza R squered change) ,se da continue OK Se obtin 5 tabele cele mai importante sunt Model summari si Coeficients Rezulta:

Model Summary Change Statistics Model 1 2 3 4 5 R R Square .838 a .703 .945 b .893 .947 c .897 .988 d .977 .990 e .979 Adjusted R Square .686 .881 .877 .971 .972 Std. Error of the Estimate 1.00028 .61693 .62503 .30436 .30017 R Square Change .703 .191 .004 .080 .002 F Change 42.516 30.320 .562 52.478 1.421 df1 1 1 1 1 1 df2 18 17 16 15 14 Sig. F Change .000 .000 .464 .000 .253

a. Predictors: (Constant), fizica b. Predictors: (Constant), fizica, romana c. Predictors: (Constant), fizica, romana, desen d. Predictors: (Constant), fizica, romana, desen, chimie e. Predictors: (Constant), fizica, romana, desen, chimie, geografie

Din coloana cu rosu (adjusted R square) vedem cat % explica fiecare model din varianta criteriului: model 1=68% Model 2=88% Model 3=87% (87% din varianta variabilei nota la ,matematica este explicata de varianta variabilelor fizica, romana si desen,* dupa modelul asta se interpreteaza la

toate celelalte modele de predictie,se va tine cont de variabilele care sunt continute in model, ex. modelul 2 cuprinde variabilele fizica si romana) Model 4=97% Model 5 =97% Din coloana cu albastru R square change se va interpreta ce imbunatatire adduce fiecare model de predictie fata de modelul precedent. Daca p<0.05 (sig) atunci acea imbunatatire este semnificativa. Interpretam: modelul 2 aduce o imbunatatire de 19 % fata de modelul precedent (valoarea din tabel se inmulteste cu 100), p<0.05 (sig F change), ceea ce inseamna ca imbunatatirea este semnificativa Modelul 3 aduce imbunatatire de 0.04% fata de modelul precedent, p>0.005 ceea ce arata ca imbunatatirea nu este semnificativa Modelul 4 imbunatatire de 8% fata de modelul precedent p<0.005 ceea ce arata ca imbunatatirea este semnificativa Model 5 -0.02%.....se interpreteaza ca la celelalte

Din tabelul cu ANOVA daca p<0.05 (sig), atunci modelul este semnificativ

a Coefficients

Model 1 2

(Constant) fizica (Constant) fizica romana (Constant) fizica romana desen (Constant) fizica romana desen chimie (Constant) fizica romana desen chimie geografie

Unstandardized Coefficients B Std. Error 1.454 .754 .691 .106 -1.225 .673 .487 .075 .625 .113 .121 1.921 .501 .078 .617 .115 -.148 .198 1.159 .947 .130 .064 .064 .095 -.076 .097 .838 .116 .573 1.055 .164 .069 .016 .102 -.096 .097 .812 .116 .124 .104

Standardized Coefficients Beta .838 .592 .501 .608 .495 -.062 .158 .051 -.032 .819 .199 .013 -.040 .793 .065

t 1.928 6.520 -1.820 6.499 5.506 .063 6.418 5.344 -.750 1.225 2.042 .671 -.785 7.244 .543 2.379 .154 -.994 6.978 1.192

Sig. .070 .000 .086 .000 .000 .950 .000 .000 .464 .239 .059 .512 .445 .000 .596 .032 .880 .337 .000 .253

a. Dependent Variable: matematica

Din tabelul Coefficients putem sa scriem si sa calculam ecuatiile de predictie in note brute si in note standard. Pentru note brute utilizam datele de la unstandardized coefficients iar pentru note standard, datele de la standardized coaficients -pentru note bruteEx Ptr.model 2 y= a + b1x1 + b2x2+ .bnxn, , a=constant( in tabel); y = -1.225 +0.487 + 0.625

bxy=coeficientii de la fizica sau desen.depinde de modelul de predictie

-pentru note standard Zy= 1Z1 + 2Z2 + nZn , =beta standard pentru variabila respective Z este nota standard a subiectului Z = X- media Abaterea standard

; Z=nota

*pentru a calcula media si abaterea standard Analyze -descriptive Frequencis introducem variabila pentru care calculam nota standard si de la srtatistics bifam : MEAN si STANDARD DEVIATION OK Ex. ptr modelul 2 Zy=0.592*Z1+ 0.501*Z2

Z1= in cazul nostrum nota standard la fizica Z2= nota standard la romana Pentru a afla Z aplicam aceasi formula :Z = X- media Abaterea standard *media si abaterea standard le obtinem Analyze -descriptive Frequencis introducem variabila pentru care calculam nota standard si de la srtatistics bifam : MEAN si STANDARD DEVIATION OK -in cazul de fata avem nevoie de scorurile brute ale subiectilor la fizica, desen.(ele sunt X din formula), acestea se dau de obicei in datele problemei, daca nu putem scrie formula asa cum am scris-o mai sus. Ptr modelul 3 Zy = 0.608*Z1+ 0.495*Z2+ (-0.062)* Z3

tot din tabelul coefficients putem vedea care predictor este mai important in modelul 4 de exemplu. -aceasta se poate face in functie de coeficientii nestandardizati (si ne uitam

la valoarea lui B din coloana unstandardized coefficients ) variabila cu valoarea B cea mai mare reprezinta predictorul cel mai important din model. Ex. in modelul 4 avem drept predictori fizica, romana, desen si chimie (cea mai mare valoare o are chimia 0.838). deci chimia reprezinta cel mai bun predictor din modelul 4 in functie de coeficientii nestandardizati -in functie de coeficientii standardizati urmarim variabila cu valoarea lui Beta cea mai mare. In modelul 4 cel mai important predictor este chimia=0.819 In momentul in care introducem variabilele ptr predictie multivariata in spss ( Analyze regression linear (variabila dependenta se introduce la dependent iar cea independenta la independent, se introduce fiecare variabila pe rand apoi se apasa next. de la statistics se bifeaza R squered change) ,se da continue OK

, putem sa lasam la method : enter, sau sa selectam Stepwise, in cazul in care selectam Stepwise calculatorul va allege modelul cel mai bun). Nu exista nici o diferenta in interpretarea datelor, outputul arata la fel . asta daca proful ne cere sa realizam o predictie prin metoda Stepwise

Anova
Avem aici 3 tipuri de operatii: - ANOVA ONE WAY (ptr esantioane independente) -ANOVA UNIVARIATA -ANOVA ONE WAY (ptr esantioane perschi, masurari repetate)

*ANOVA ONE WAY (ESANTIOANE INDEPENDENTE) Aceasta analiza se aplica atunci cand avem o variabila independentacu mai mult de doua grade de intensitate, daca aceasa are doua grade se poate aplica testul t. In cazul nostru variabila independenta (ordinea nasterii) are 3 grade (primul nascut, al doilea si al treilea nascut). In SPSS pentru ANOVA ONE WAY: Analyze compare means- one way anova-introducem variabila dependenta in dependent list si variabila independenta in Factor-de la post hoc bifam BonfferoniOK Rezulta
ANOVA extroversiune Sum of Squares 42.363 12.189 54.552 df 2 26 28 Mean Square 21.181 .469 F 45.182 Sig. .000

Between Groups Within Groups Total

Multiple Comparisons Dependent Variable: extroversiune Bonferroni Mean Difference (I-J) Std. Error -1.4889* .3146 -2.9889* .3146 1.4889* .3146 -1.5000* .3062 2.9889* .3146 1.5000* .3062

(I) ordinea nasterii (J) ordinea nasterii primul nascut al doilea nascut al treilea nascut al doilea nascut primul nascut al treilea nascut al treilea nascut primul nascut al doilea nascut

Sig. .000 .000 .000 .000 .000 .000

95% Confidence Interval Lower Bound Upper Bound -2.2939 -.6839 -3.7939 -2.1839 .6839 2.2939 -2.2836 -.7164 2.1839 3.7939 .7164 2.2836

*. The mean difference is significant at the .05 level.

din primul tabel F (2; 26)= 45.182 p< 0.05 (sig), daca p este semnificativ (adica mai mic de 0.05) inseamna ca exista un effect al variabilei ordinea nasterii asupra variabilei extroversiune. Din al doilea tabel ne uitam la Mean diference (care ne arata diferenta dintre medii) si la Sig care ne arata daca aceasta diferenta este semnificativa (daca este mai < 0.05) M I M II = -1.488 , M I M III = -2.988 , M II M III = -1.500 , p<0.05 p<0.05 p<0.05

*media scorurilor la extroversiune a subiectilor nascuti primii difera semnificativ de media subiectilor care sunt al doilea nascuti si fata de media subiectilor care sunt al treilea nascuti , in sensul ca scorurile primilor nascuti la extroversiune sunt semnificativ mai mici decat scorurile subiectilor nascuti ai doilea si decat cele ale subiectilor care sunt al treile nascuti, iar scorurile subiectilor II nascuti la extroversiune sunt semnificativ mai mici decat scorurile subiectilor III nascuti. (ne uitam la semn ex. M1-M2= -1.488 ) -**stiu ca este cam ciudata exprimarea cu al treile nascut..si al doileadar important este modelul de interpretare si asa se procedeaza la toate analizele. *M I M II (primul nascut al doilea nascut)

Pentru one way anova (esantioane independente) am lucrat cu variabilele ordine si extroversiune

*ANOVA UNIVARIATA - folosim atunci cand avem de analizat efectul a doua variabile independente (din care macar una va avea mai mult de doua grade de intensitate) asupra unei varibile dependente *am folosit pentru anova univariata variabilele independente anxietate si motivatie si variabila dependenta stima de sine (din baza de date) Pentru anova univariata: Analyze- general linear model- univariat- introducem variabila dependenta la dependent variabil si cele independente la fixed factor.- de la plots introducem primul factor in prima casuta de sus si cel de-al doile, in a doua casuta apoi apasam ADD(pentru realizarea graficului)- de la post hoc selectam bonferoni si mutam din factor in post hoc variabilele- la options selectam hegemonity test- OK Obtinem mai multe tabele ,important este tabelul test of between subjects

Tests of Between-Subjects Effects Dependent Variable: stima de sine Type III Sum Source of Squares Corrected Model 85.333 a Intercept 2157.415 ANXIETAT 75.661 MOTIVATI 4.867 ANXIETAT * MOTIVATI .202 Error 4.033 Total 2291.000 Corrected Total 89.367 df 5 1 2 1 2 24 30 29 Mean Square F 17.067 101.554 2157.415 12837.508 37.831 225.108 4.867 28.959 .101 .600 .168 Sig. .000 .000 .000 .000 .557

a. R Squared = .955 (Adjusted R Squared = .945)

ne uitam la ANXIETATE F (2)=225.108, p<0.05 (sig)- ceea ce ne arata ca exista un effect al variabilei anxietate asupra variabilelei stima de sine. Pentru a vedea in ce fel influenteaza anxietatea stima de sine, ne uitam in tabelul :
Multiple Comparisons Dependent Variable: stima de sine Bonferroni Mean Difference (I-J) Std. Error -2.2000* .1833 -4.0000* .1833 2.2000* .1833 -1.8000* .1833 4.0000* .1833 1.8000* .1833

(I) anxietate (J) anxietate ridicata medie scazuta medie ridicata scazuta scazuta ridicata medie

Sig. .000 .000 .000 .000 .000 .000

95% Confidence Interval Lower Bound Upper Bound -2.6718 -1.7282 -4.4718 -3.5282 1.7282 2.6718 -2.2718 -1.3282 3.5282 4.4718 1.3282 2.2718

Based on observed means. *. The mean difference is significant at the .05 level.

**acesta se interpreteaza la fel ca la anova one way. Pentru masurari mai exacte se aplica testul t pentru esantioane independente. Dar nu cred ca este cazul sa ne dea asa ceva. Daca ne uitam la MOTIVATIE F(1)= 28.959 p<0.05, ceea ce arata ca exista un effect al variabilei

motivatie asupra stimei de sine (si aici se face testul t pentru esantioane independente, stima de sine va fi variabila dependenta si variabila de grup va fi motivatia. Se interpreteaza la fel ca la testul t).

Daca ne uitam la ANXIETATE*MOTIVATIE F (2)=0.600 p>0.05, ceea ce arata ca nu exista un effect principal al variabilelor anxietate si motivatie asupra variabilei stima de sine

*ANOVA ONE WAY (ESANTIOANE PERECHI, pentru masurari repetate) -avem rezultatele acelorasi subiecti obtiunute in 3 conditii diferite (exemplu ameliorea durerii in sitatiile in care se administreaza aspirina, produsul x si placebo) -pentru analiza am flosit variabilele : ceai, cafea si cola Analyze - general linear model- repeted mesures- la number of levels scrieti 3, apasat add, apoi define, selectati fiecare variabila individual sau pe toate trei odata si apasati butonul de langa caseta whitin subjects pentru a le introduce acolo- de options selectati descriptive statistics-OK Din tabele obtinute ne uitam la tabelul Mauchlys test of Sphericity, daca p> 0.05 inseamna ca este nesemnificativ deci sfericitatea este asumata

Testul semnului
Analyze non parametric test two related samples- se introduc variabilele si se bifeaza casuta sign (la fel ca la testul t pentru esantioane perechi)- OK *pentru distributii binonimale (ex. la 3 ani si la 2 ani)
b Test Statistics

cuvinte la 3 ani - cuvinte la 2 ani Exact Sig. (2-tailed) .219 a a. Binomial distribution used. b. Sign Test

Constatam ca p>0.05, deci nu exista nici o diferenta semnificativa intre numarul de cuvinte la 3 si la 2 ani.

Testul McNamar
Analyze non parametric test two related samples- se introduc variabilele si se bifeaza casuta McNamar (la fel ca la testul t pentru esantioane perechi)- OK **inainte de a face insa aceasta operatie trebuie sa facem o ponderare a datelor in functie de variabila frecventa. Aceasta se face de la Data- weight cases- bifam weight cases by si introducem in acel camp variabila frecventa- OK . in baza de date va aparea in coltul din dreapta jos scris weight cases on. Dupa aceasta operatie facem operatia prezentata mai sus. * dupa realizarea ponderarii si a analizei , daca dorim sa efectuam si alte operatii varianta cu weight cases trebuie deselectata(in acelasi mod prin care a fost activata) Obtinem
dupa examen & inainte de examen inainte de examen 1 2 20 40 10 22

dupa examen 1 2

b Test Statistics

N Chi-Squarea Asymp. Sig.

dupa examen & inainte de examen 92 16.820 .000

a. Continuity Corrected b. McNemar Test

P< 0.05, ceia ce arata ca exista o schimbare semnificativa la nivelul numarului de subiecti care si-au schimbat parerea in legatura cu sansele de a intra la facultate in urma participarii la examen

(=16.820, p<0.05)

Testul Fisher
Folosit atunci cand avem tabele de tipul 2x2, atunci cand una sau mai multe din cele 4 celule au o frecventa anticipate mai mica de 5 Procedeul este la fel ca la chi-patrat pentru mai multe esantioane, care ste preyentat mai jos Analyze- descriptive statistics- crosstabs- introducem variabila sex in primul camp si variabila bauturi in cel de-al doilea-de la statistics bifam Chi-squere- de la cells bifam expected.-OK **inainte de a face insa aceasta operatie trebuie sa facem o ponderare a datelor in functie de variabila frecventa. Aceasta se face de la Data- weight cases- bifam weight cases by si introducem in acel camp variabila frecventa- OK . in baza de date va aparea in coltul din dreapta jos scris weight cases on. Dupa aceasta operatie facem operatia prezentata mai sus. * dupa realizarea ponderarii si a analizei , daca dorim sa efectuam si alte operatii varianta cu weight cases trebuie deselectata(in acelasi mod prin care a fost activata

GEN * MEMORIE Crosstabulation MEMORIE imagini cuvinte 3 5 4.0 4.0 8 6 7.0 7.0 11 11 11.0 11.0

Total 8 8.0 14 14.0 22 22.0

GEN

feminin masculin

Total

Count Expected Count Count Expected Count Count Expected Count

-putem vedea diferentele dintre frecventele observate (count) si cele asteptate (expected)
Chi-Square Tests Value .786 b .196 .792 .750 22 df 1 1 1 1 Asymp. Sig. (2-sided) .375 .658 .373 .386 Exact Sig. (2-sided) Exact Sig. (1-sided)

Pearson Chi-Square a Continuity Correction Likelihood Ratio Fisher's Exact Test Linear-by-Linear Association N of Valid Cases

.659

.330

a. Computed only for a 2x2 table b. 2 cells (50.0%) have expected count less than 5. The minimum expected count is 4.00.

-importanta este linia cu fishers exact test, in cazul de fata p>0.05, deci testul fisher exact este nesemnificativ, deci barbatii si femeile nu sunt diferiti in ceea ce priveste memorarea cuvintelor si a imaginilor fisher=0.659, p>0.05

Testul Chi-patrat -de semnificatie a diferentelor intre frecventele esantioanelor


-avem mai multe esantioane (ex. fate si baieti) Analyze- descriptive statistics- crosstabs- introducem variabila sex in primul camp si variabila bauturi in cel de-al doilea-de la statistics bifam Chi-squere- de la cells bifam expected.-OK **inainte de a face insa aceasta operatie trebuie sa facem o ponderare a datelor in functie de variabila frecventa. Aceasta se face de la Data- weight cases- bifam weight cases by si introducem in acel camp variabila frecventa- OK . in baza de date va aparea in coltul din dreapta jos scris weight cases on. Dupa aceasta operatie facem operatia prezentata mai sus. * dupa realizarea ponderarii si a analizei , daca dorim sa efectuam si alte operatii varianta cu weight cases trebuie deselectata(in acelasi mod prin care a fost activata Obtinem : 3 tabele, cele mai importante sunt

SEX * BAUTURI Crosstabulation BAUTURI cola 13 22.9 32 22.1 45 45.0

SEX

feminin masculin

Total

Count Expected Count Count Expected Count Count Expected Count

cafea 26 21.4 16 20.6 42 42.0

ceai 18 12.7 7 12.3 25 25.0

Total 57 57.0 55 55.0 112 112.0

Din tabelul acesta putem vedea care din cele 3 bauturi a fost mai mult preferata de fete si care de baieti. (cafeaua si ceaiul au fost preferate mai mult de fete si cola de baieti-ne uitam la valorile de la count)

Chi-Square Tests Value 15.212 a 15.657 .026 112 df 2 2 1 Asymp. Sig. (2-sided) .000 .000 .872

Pearson Chi-Square Likelihood Ratio Linear-by-Linear Association N of Valid Cases

a. 0 cells (.0%) have expected count less than 5. The minimum expected count is 12.28.

P<0.05, deci este semnificativ, putem spune ca exista o diferenta semnificativa intre frecventele observate si cele asteptate ale subiectilor fete si baieti, in ceea ce priveste preferinta lor pentru cele trei tipuri de bauturi. Din primul tabel interpretam in ce sens. .
(cafeaua si ceaiul au fost preferate mai mult de fete si cola de baieti-ne uitam la valorile de la count)

Testul Chi-patrat-pentru un singur esantion


-facut pe un singur esantion Analyze nonparametric test- chi-squere-introducem in primul camp variabila categorie-bifam values-si scriem valorile asteptate pe rand(dupa fiecare dam addvalorile pe care le-am folosit eu sunt 40, 25, 14-ele trebuie introduce in aceasta ordine)- OK **inainte de a face insa aceasta operatie trebuie sa facem o ponderare a datelor in functie de variabila frecventa. Aceasta se face de la Data- weight cases- bifam weight cases by si introducem in acel camp variabila frecventa- OK . in baza de date va aparea in coltul din dreapta jos scris weight cases on. Dupa aceasta operatie facem operatia prezentata mai sus. * dupa realizarea ponderarii si a analizei , daca dorim sa efectuam si alte operatii varianta cu weight cases trebuie deselectata(in acelasi mod prin care a fost activata

Obtinem
CATEGOR reproducere completa reproducere partiala reproducere lacunara Total Observed N 34 39 6 79 Expected N 40.0 25.0 14.0 Residual -6.0 14.0 -8.0

-observam diferentele dintre valorile observate si cele asteptate


Test Statistics Chi-Squarea df Asymp. Sig. CATEGOR 13.311 2 .001

a. 0 cells (.0%) have expected frequencies less than 5. The minimum expected cell frequency is 14.0.

P<0.05, deci putem spune ca exista o diferenta semnificativa intre frecventele observate si cele asteptate pentru cele trei categorii de reproducere a sirurilor de numere (=13.311, p<0.05)