Sunteți pe pagina 1din 14

1. Prin variabila se ntelege o anumita categorie care a fost cuantificata sau masurata.

2. Clasificarea variabilelor:
- Calitative:
- Cantitative (numerice):
3. Variabilele calitative sunt nominale (categoriale) si ordinale
4. Variabilele cantitative (numerice) sunt de tip interval si de tip raport.
5. Scalele nominale sunt calitative si presupun o categorizare a variabilei fara a indica o
anumita ordine ori cantitate.
6. Scalele ordinale sunt calitative, numerele sunt ierarhii si exprima locul sau ordinea
ntr-un sir de date.
7. n cazul datelor ordinale, diferenta numerica ntr-un clasament nu este necesar egala
cu diferenta numerica exprimata n unitatea de masura utilizata.
8. Scalele nominale si ordinale presupun totdeauna utilizarea unor teste statistice
neparametrice.
9. Scala de tip interval permite comparatia dintre date.
10. Scalele de tip raport poseda toate calitatile unei scale de interval si au n plus doua
calitati noi :
permit multiplicarea sau divizarea datelor
indica valoarea zero absolut, care arata lipsa totala a cantitatii masurate.
11. Scalele de interval, respectiv de raport sunt expresii cantitative ale variabilelor care
pot fi supuse analizei statisticii parametrice cu mici exceptii.
12. Datele variabilelor pot fi prezentate (organizate) simplu sau grupat .
13. Pentru datele variabilelor organizate simplu se stabileste frecventa de aparitie a
fiecarei valori;
14. Pentru datele variabilelor organizate grupat se tine cont de distributia grupata a
datelor, fiind necesara mpartirea valorilor n clase de intervale egale.
15. Metoda lui Spatz in patru pasi de mpartire a datelor pe intervale pentru variabilele
grupate:
1. Numarul de intervale trebuie sa fie ntre 10 si 20. Aceasta conditie are rolul de a
maximiza grafic conceptul de distributie normala a datelor :
2. Stabilirea marimii intervalului (notat cu i).
3. Primul interval ncepe cu o valoare multiplu de i ales.

4. In tabel valorile sunt trecute ntr-o ordine descrescatoare.


16. Metoda lui Sturges de mpartire a datelor pe intervale pentru variabilele grupote
utilizeaza formula

unde: i este lungimea recomandata a intervalului;


Xmax si Xmin extremele valorilor sirului de date
lg n este logaritm zecimal din numarul de date a sirului (volumul esantionului).

17. Frecventa cumulata a unei clase este egala cu: suma frecventelor din clasa respectiva
si frecventele din toate clasele cu valori inferioare.
18. Poligonul frecventelor este un grafic utilizat n cazul variabilelor cantitative.
19. Histogramele - pot fi utilizate pentru variabile exprimate att cantitativ ct si
calitativ.
20. Cercurile de tip "placinta" - pot fi utilizate pentru variabile calitative, nominale.
21. Mediana este parametrul care prin pozitia sa, se afla n mijlocul seriei de date.
22. Mediana reprezinta punctul central al seriei, deoarece la stnga si la dreapta ei se
situeaza cte 50% din totalitatea datelor.
23. Mediana coincide cu media n cazul unei distributii teoretice normale si se
ndeparteaza mult de aceasta daca distributia este asimetrica.
24. In cazul distributiei simple a datelor pentru n impar locul medianei = (n+1) / 2, iar
valoarea medianei este data de valoarea existenta in sir pe acel loc.
25. In cazul distributiei simple a datelor pentru n par valoarea medianei se obtine prin
adunarea valorilor din centrul seriei si mpartirea sumei obtinute la doi.
26. n cazul n care sirul de date este prezentat ntr-un tabel de frecvente pentru calculul
valorii medianei se aplica formula:

unde:
l este limita inferioara a intervalului de clasa care contine mediana;
fc este frecventa cumulata precednd clasa care contine mediana;
fi este frecventa clasei intervalului care contine mediana;
N este numarul total al cazurilor;
j este marimea intervalului (i) care cuprinde mediana.

27. Mediana tine seama de toate cazurile, dar nu este afectata de cazurile (valorile)
extreme.
28. Modul este parametrul care corespunde celei mai mari frecvente (valoarea cea mai
frecvent ntlnita).
29. Pentru date grupate valoarea modala este egala cu valoarea gasita n centrul
intervalului care are cea mai mare frecventa.
30. Media este recomandata n cazul variabilelor numerice care ndeplinesc conditiile
parametrice (distributie normala, omogenitate s.a.).
31. Mediana se recomanda pentru cazurile n care nu sunt ndeplinite conditiile
parametrice (distributii asimetrice, etrogenitate crescuta etc) si n cazul variabilelor de tip
ordinal.
32. Modul este utilizat mai rar pentru date numerice, fiind nsa foarte util n cazul
variabilelor de tip categorial (date calitative, nominale), deoarece nu putem calcula
ceilalti parametrii centrali.
33. Amplitudinea - parametru care arata distanta dintre valoarea minima si valoarea
maxima din cadrul unui sir de date
34. Notam cuabaterea standard a populatiei.
35. Notam cus estimatorul abaterii standard a populatiei.
36. Notam cuSabaterea standard a esantionului unei populatii.
37. Amplitudinea este de obicei de doua pna la cinci, sase ori mai mare dect abaterea
standard.
38. Dispersia este egala cu abaterea standard la patrat.
39. Coeficientul de variabilitate este utilizat n scopul stabilirii gradului de omogenitate
a unui esantion
40. In literatura de specialitate, pentru un coeficient de variabilitate mai mic decat 35%,
se admite ca, media este reprezentativa pentru colectivitatea respectiva iar colectivitatea
este omogena. (A. Novac)
41. Coeficientul de variabilitate este aplicabil doar n cazul variabilelor masurate pe scala
de raport, cu origine naturala zero.

42. Indicele de asimetrie (de oblicitate) - arata n ce masura media se ndeparteaza de


mediana, si n ce masura curba de distributie normala a datelor se departeaza de la mijloc
spre stnga sau dreapta.
43. Sunt considerate distributii relativ normale cazurile n care indicii de asimetrie nu
depasesc 1,96.
44. Asimetria este pozitiva daca media este mai mare dect mediana (indicele de
asimetrie ia valori pozitive si datele se distribuie spre stnga).
45. Asimetria este negativa daca media este mai mica dect mediana (indicele de
asimetrie ia valori negative si datele se distribuie spre dreapta).
46. Figura de mai jos prezinta cazul unei asimetrii pozitive.

47. Figura de mai jos prezinta cazul unei asimetrii negative.

48. Boltirea se refera la naltimea curbei, comparativ cu cea normala.


49. In boltire distributiile pot fi leptocurtice (cu cocoasa nalta) si platicurtice (mai
aplatizate).
50. Parametrii tendintei centrale si ai variantei ajuta la descrierea caracteristicilor unui
esantion sau a populatiei.
51. Cotele z reprezinta elementele necesare descrierii unui rezultat individual din cadrul
esantionului ori populatiei n cauza.
52. Convertirea unui rezultat n cote z ne arata pozitia valorii obtinute n distributia
datelor pentru caracteristica masurata din cadrul esantionului.

53. De obicei cotele z sunt cuprinse ntre 3,5.


54. Cota z = 0 arata ca valoarea gasita este egala cu media (ntr-o distributie normala).
55. Pentru cotele T se propune media 50 si abaterea standard 10, astfel toate punctajele
sunt pozitive si distribuite pe o scala de la 20 la 80 n peste 99% din cazuri.
56. Coeficientul de corelatie este o valoare cantitativa ce descrie relatia dintre doua sau
mai multe variabile si variaza ntre 1.
57. Valorile extreme ale coeficientului de corelatie presupun o relatie perfecta ntre
variabile.
58. Valoarea zero a coeficientului de corelatie nseamna o lipsa totala de relatie liniara.
59. O interpretare corecta a coeficientului de corelatie se face prin compararea
rezultatului obtinut cu anumite valori prestabilite n tabele de corelatii n functie de
numarul de subiecti, tipul de legatura si pragul de semnificatie dorit.
60. Principalele conditii ce trebuie ndeplinite pentru a utiliza probe parametrice sunt:
1. distributia normala a variabilei de interes din cadrul esantionului cercetarii;
2. omogenitatea dispersiei esntionului cercetarii referitor la variabila supusa
studiului
61. Tipuri de corelatii parametrice:
- coeficientul de corelatie simpla (Bravais-Pearson);
- coeficientul de corelatie eneahoric;
- coeficientul de corelatie partiala;
- coeficientii de corelatie biserial si triserial.
62. n utilizarea tabelului lui r putem alege diferite praguri de semnificatie. La nivelul
comunitatii stiintifice internationale pragul minim acceptat pentru a considera o relatie
semnificativa statistic este 0,05.
63. n utilizarea tabelului lui r putem alege diferite praguri de semnificatie. Pentru pragul
de semnificatie 0,01 relatia este puternica, iar eroarea are loc numai ntr-un singur caz din
100 de experimente.
64. Valorile foarte mici ale coeficientilor de corelatie pot fi semnificative numai daca se
lucreaza cu grupe mari de subiecti
65. Coeficientul de determinare indica partea din dispersia totala a masurarii unei
variabile care poate fi explicata sau justificata de dispersia valorilor din cealalta variabila,
sau altfel spus, el determina partea de asociere comuna a factorilor care influenteaza cele
doua variabile.

66. Pentru un coeficient de corelatie r = 0,5 avem coeficientul de determinare 0,25


Coeficientul de corelatie simpla se utilizeaza in cazul in care avem doua variabile
continue , deci date numerice continue.
67. Coeficientul de corelatie partiala se utilizeasa atunci cnd ntre doua variabile exista
o a treia, responsabila de dependenta comuna a celor doua si deci corelatia dintre cele
doua variabile poate induce n eroare si este dificil de interpretat.
68. Coeficientul de corelatie biserial se utilizeasa in cazul in care avem o variabila
continua si una categoriala dihotomica.
69. Coeficientul de corelatie triserial se utilizeasa in cazul in care avem o variabila
continua si una categoriala trihotomica.
70. Coeficientul eneahoric se utilizeasa in cazul in care avem doua variabile categoriale,
cu date numerice grupate pe categorii.
71. In cazul utilizarii coeficientilor de corelatie biserial si triserial trebuie ca numarul de
subiecti cuprinsi n esantion sa fie mai mare de 50;
72. In cazul utilizarii coeficientului de corelatie triserial, pentru a nu obtine un rezultat
distorsionat, marimea claselor de subiecti luate n calcul trebuie sa fie n jurul a 33% din
totalul subiectilor.
73. Cu ajutorul regresiei se pot face predictii ale unei variabile, n functie de valoarea
alteia.
74. Predictia este procesul de estimare a valorii unei variabile cunoscnd valoarea unei
alte variabile.
75. Prin regresie simpla liniara intelegem regresia dintre o variabila dependenta si una
independenta astfel incat relatia dintre cele doua variabile poate fi descrisa printr-o
dreapta n cadrul norului de puncte.
76. Forma generala a ecuatiei de regresie este:
Unde:
^

Y este rezultatul estimat;


a este locul pe ordonata unde dreapta de regresie se intersecteaza cu OY (valoarea
lui Y pentru X=0);
b este panta de regresie (arata cu ct se modifica Y atunci cnd X creste (scade) cu
o unitate;
X este variabila criteriu (cunoscuta).
77. Coeficientul a din forma generala a ecuatiei de regresie arata valoarea lui Y cnd X
este zero.

78. Coeficientul b din forma generala a ecuatiei de regresie arata cu ct este influentat Y
atunci cnd X creste cu o unitate.
79. Coeficientul de corelatie (fi) este o proba corelationala neparametrica utilizata
pentru variabile dihotomice obtinute nu datorita unei regrupari ci prin nsasi natura
variabilei.
80. Coeficientul de contingenta C al lui Pearson este o proba corelationala neparametrica
utilizata pentru date categoriale nominale.
81. Coeficientul V al lui Cramer este o proba corelationala neparametrica utilizata pentru
date categoriale nominale.
82. Testul Spearman al corelatiei diferentei rangurilor este o proba corelationala
neparametrica utilizata pentru date ordinale;
83. Coeficientul a lui Kendall este o proba corelationala neparametrica utilizata pentru
date ordinale.
84. Interpretarea coeficientul de corelatie se face la fel ca cea a coeficientului de
corelatie r, deoarece coeficientul de corelatie este n esenta o varianta a acestui
coeficient.
85. Semnul coeficientului de corelatie (fi) calculat dupa formula:

se stabileste n functie de numarul de subiecti aflati pe cele doua diagonale. Daca


diagonala principala numara mai multi subiecti atunci semnul este plus, daca diagonala
secundara numara mai multi subiecti semnul coeficientului este minus.
86. Deficienta coeficientului C a lui Pearson - nu poate lua niciodata valoarea 1, chiar n
cazul unei asocieri perfecte.
87. Coeficientul C a lui Pearson pentru un tabel de tip 3 x 3 poate lua valoarea maxima de
0,82.
88. Coeficientul C a lui Pearson pentru un tabel de tip 4 x 4 poate lua valoarea maxima de
0,87.
89. Limita coeficientului C se deplaseaza spre 1, pe masura ce dimensiunea tabelului
creste, astfel se recomanda utilizarea coeficientului C n special n cazul tabelelor de
contingenta de dimensiuni mari , de la 7-8 linii sau coloane n sus.

90. Pentru a depasi impasul valorii subunitare a coeficientului C al lui Pearson, se


utilizeaza coeficientul de asociere V al lui Cramer a carui marime poate atinge valoarea
1.
91. Interpretarea coeficientilor C, respectiv V se face teoretic astfel: un rezultat cat mai
apropiat de 1 indica o corelatie pozitiva, iar un coeficient negativ indica o asociere
inversa.
92. Testul Spearman al corelatiei diferentei rangurilor se aplica atunci cnd conditiile
privind parametrii statistici nu pot fi ndeplinite, din cauza neomogenitatii grupului sau a
numarului prea mic de subiecti (sub 20).
93. Atunci cand este utilizat testul Spearman rangurile arata locul fiecarui individ ntr-un
clasament
94. Testul Spearman al corelatiei diferentei rangurilor poate fi folosit daca nu exista un
numar prea mare de ranguri egale (sub 25 la suta din totalul rangurilor celor doua grupe).
95. Atunci cand este utilizat testul Spearman, daca doi subiecti sunt clasati pe locul patru,
ei vor primi rangul 4,5.
96. Atunci cand este utilizat testul Spearman, daca trei subiecti sunt clasati la egalitate pe
locul 2, ei vor primi rangul 3, aflat la mijlocul dintre locurile 2,3 si 4, iar urmatorul rang
ce va fi acordat va fi rangul 5.
97. Daca mai mult de 25% din rangurile unui esantion sunt egale se utilizeaza formula
coeficientilor (tau) a lui Kendall.
98. Atunci cand este utilizat coeficientul (tau) b a lui Kendall pentru variabile ordinale
asocierea este pozitiva daca indivizii plasati pe locuri fruntase dupa o variabila, se afla
mai n fata si dupa cealalta.
99. Atunci cand este utilizat coeficientul (tau) b a lui Kendall pentru variabile ordinale
asocierea va fi negativa daca aceiasi indivizi plasati bine dupa prima variabila se vor
regasi mai curnd spre coada clasamentului dupa cea de a doua variabila.
100. In cazul corelatiilor de date nominale:
- daca cele doua variabile sunt dihotomice de tip 2 x 2 se utilizeaza coeficientul de
corelatie .
- daca cele doua variabile sunt categoriale, peste 2 x 2 se utilizeaza coeficientul V a lui
Cramer, respectiv coeficientul de contingenta C a lui Pearson (util n special pentru tabele
peste 5 x 5).
101. In cazul corelatiilor de date ordinale (ordonate sub forma de ranguri):
- daca cele doua variabile au putine ranguri egale se utilizeaza coeficientul de corelatie
a lui Spearman.

- daca cele doua variabile au mai multe ranguri egale se utilizeaza coeficientul a lui
Kendall.
102. Pentru a analiza daca un esantion de subiecti difera de o populatie mai mare se
utilizeaza testul z daca:
- se cunoaste abaterea standard a variabilei dependente la nivelul populatiei;
- numarul de subiecti cuprinsi n esantionul comparativ este suficient de mare (de
regula peste 30 de subiecti).
103. Daca in cadrul analizei unui esantion de subiecti fata de o populatie mai mare, una
din urmatoarele doua conditii :
- se cunoaste abaterea standard a variabilei dependente la nivelul populatiei;
- numarul de subiecti cuprinsi n esantionul comparativ este suficient de mare (de
regula peste 30 de subiecti).
nu este ndeplinita, se utilizeaza testul t pentru un esantion.
104. Testul t valideaza sau infirma ipoteza nula potrivit careia, nu exista nici o diferenta
ntre media (m) obtinuta pe esantion de subiecti si media (m ) obtinuta pe populatia din
care a fost extras esantion
105. Testul t pentru un esantion .
Daca avem motive sa credem ca datorita unor caracteristici speciale media esantionului
comparativ este mai mare (sau mai mica) dect media populatiei din care face parte
esantionul vom utiliza valorile testului t unilateral din tabel.
106. Testul t pentru un esantion .
Daca consideram ca cele doua medii, media esantionului comparativ si media populatiei
din care face parte esantionul difera semnificativ, fara a putea anticipa ca una ar fi mai
mare dect cealalta dintr-o perspectiva teoretica exprimata n ipoteza de lucru vom utiliza
valorile testului t bilateral din tabelul lui t.
107. Daca se luceraza cu testul t pentru un esantion, marimea efectului propusa de
Cohen si notata cu d are o importante deosebita in determinarea puterii experimentului si
n calcularea marimii esantionului necesar pentru a da credibilitate cercetarii efectuate.
108. Interpretarea valorii d (marimea efectului) obtinuta se face prin raportarea ei la
conventia propusa de Cohen si adoptata de cercetatori:
Efect mic d = 0,20;
Efect mediu d = 0,50;
Efect mare d = 0,80
109. Interpretarea valorii obtinuta cu testul z se face raportnd aceasta valoare la valorile
standardizate ale lui z. Spre deosebire de testul t, pentru care trebuie consultat tabelul lui t
pentru a putea admite sau respinge ipoteza nula, n cazul testului z bilateral, valoarea
obtinuta se compara cu doua valori standardizate:
z = 1,96 pentru un p .05

z = 2,58 pentru un p .01


110. Interpretarea valorii obtinuta cu testul z se face raportnd aceasta valoare la valorile
standardizate ale lui z. Spre deosebire de testul t, pentru care trebuie consultat tabelul lui t
pentru a putea admite sau respinge ipoteza nula, n cazul testului z unilateral, valoarea
obtinuta se compara cu doua valori standardizate:
z = 1,65 pentru un p .05
z = 2,33 pentru un p .01
111. Testele z si t pentru doua esantioane dependente sau independente se aplica pentru a
determina daca mediile a doua esantioane difera semnificativ
112. Criteriul hotartor n alegerea tipului de test (t sau z) in cazul a doua esantioane
dependente sau independente, este volumul esantionului. Se considera si se accepta de
majoritatea cercetatorilor ca:
a. Daca n1 30 (numarul de subiecti din prima grupa) si n 2 30 (numarul de
subiecti din a doua grupa) se aplica testul t.
b. Daca n1 30 si n2 30 se aplica testul z.
113. Pentru cazul a doua esantioane dependente exista trei situatii n care se aplica
testele de comparatie t si z:
a. Perechile naturale (nu sunt realizate de experimentator ci exista n mod natural).
b. Perechile artificiale (sunt realizate de catre experimentator pentru a egaliza ct
mai mult grupele de subiecti).
c. Masuratori repetate (ntlnite n special n terapie si recuperare, un singur grup de
subiecti testati de doua ori: nainte si dupa introducerea variabilei independente.
114. Testul t independent este un tip special de ANOVA simpla n care sunt implicate
doar doua grupe.
115. ANOVA simpla permite compararea simultana a trei sau mai multe grupe mentinnd
nivelul (nivelul de ncredere pentru fiecare test t efectuat) la valoarea de maxim 0,05.
116. Procedeul matematic implicat n ANOVA simpla consta n analiza dispersiei
variabilei dependente.
117. In ANOVA simpla dispersia datorata esantionarii aleatoare se mai numeste si
dispersia erorii,
118. In ANOVA simpla dispersia datorata variabilei independente se mai numeste si
dispersie adevarata.
119. Simbolul rezultatului obtinut prin ANOVA este F.
120. La aplicarea testului ANOVA simpla numarul de subiecti din grupe poate sa nu fie
egal cu conditia respectarii unei dispersii omogene n grupe.

O masura a marimii asocierii ntre variabila independenta si cea dependenta n cazul


ANOVA simpla este omogenitatea dispersiei ( omega patrat).
121. In cazul ANOVA simpla, omogenitatea dispersiei indica proportia din dispersia
variabilei dependente care poate fi pusa pe seama variatiei variabilei independente.
Masura este similara coeficientului de determinare (r) discutat n cadrul studiului
corelational.
122. Marimea efectului n cazul ANOVA se noteaza cu f. Cohen (1992) propune
urmatoarele valori ale lui f:
Efect slab f = 0,10
Efect mediu f = 0,25
Efect mare f =0,40
123. Testul t dependent este un tip special de ANOVA cu masuratori repetate.
124. Testul t independent este un tip special de ANOVA simpla n care sunt implicate
doar doua grupe.
125. Orice test parametric necesita ndeplinirea mai multor conditii pentru a putea fi
utilizat.
Conditii pentru tehnica ANOVA simpla:
1. Esantionul sa fie selectat randomizat din populatie (sau macar randomizarea
subiectilor n grupele experimentale).
2. Variabila dependenta sa fie distribuita normal (greu de demonstrat n conditiile n
care in general cercetarile care utilizeaza ANOVA se realizeaza cu un numar mic
de subiecti. ncalcarea acestei conditii are nsa efecte reduse asupra erorii de tip.)
3. Dispersia subiectilor mpartiti pe grupe de tratament diferite sa fie egala
Testul ANOVA este o tehnica robusta, destul de rezistenta la violarile prezentate.
126. Orice test parametric necesita ndeplinirea mai multor conditii pentru a putea fi
utilizat.
Conditii pentru testul ANOVA cu masuratori repetate
1. Esantionul sa fie selectat randomizat din populatie (sau macar randomizarea
subiectilor n grupele experimentale).
2. Variabila dependenta sa fie distribuita normal (greu de demonstrat n conditiile n
care in general cercetarile care utilizeaza ANOVA se realizeaza cu un numar mic
de subiecti. ncalcarea acestei conditii are nsa efecte reduse asupra erorii de tip.)
3. Dispersia subiectilor mpartiti pe grupe de tratament diferite sa fie egala
4. Coeficientii de corelatie ntre diferitele evaluari repetate sa fie aproximativ egali.
127. Daca omogenitatea dispersiei si egalitatea aproximativa a coeficientilor de corelatie
sunt ncalcate in testul ANOVA cu masuratori repetate, eroarea de tip I poate fi
afectata. Totusi, se poate continua aplicarea tehnicii parametrice daca se procedeaza la
aplicarea unei corectii prealabile referitoare la gradele de libertate.

128. Testul ANOVA factorial, studiaza influenta simultana a doua sau mai multe
variabile independente asupra unei variabile dependente
129. Raporturile F stabilite n cazurile ANOVA simpla, ANOVA cu masuratori repetate si
ANOVA factorial se numesc si teste omnibus.
130. Exista doua mari categorii de comparatii multiple:
- comparatii post-hoc (realizate dupa calcularea lui F din ANOVA),
- comparatii a priori (tehnici alternative ANOVA care pornesc de la alte ipoteze
nule si care sunt planificate nainte de desfasurarea experimentului pe baze
rationale).
131. Exista doua criterii dupa care sunt selectate metodele post-hoc folosite: numarul egal
de subiecti din fiecare grupa si tipul de contrast realizat. Astfel, testul Tukey si testul
Newman-Keuls se aplica n cazul grupelor egale si al comparatiilor perechi (cte doua
medii comparate);
132. Exista doua criterii dupa care sunt selectate metodele post-hoc folosite: numarul egal
de subiecti din fiecare grupa si tipul de contrast realizat. Astfel, testul Tukey-Kramer se
aplica n cazul grupelor de subiecti inegale si al comparatiilor perechi;
133. Exista doua criterii dupa care sunt selectate metodele post-hoc folosite: numarul egal
de subiecti din fiecare grupa si tipul de contrast realizat. Astfel, testul Scheffe se aplica n
cazul contrastelor complexe (pot fi comparate combinatii de medii, depasind nivelul
contrastului dintre doua medii). Prin contrast se ntelege compararea de date n vederea
evidentierii diferentelor dintre ele
134. Metoda Tukey, simbolizata HSD, denumita si testul diferentei semnificative oneste
realizeaza comparatii ntre toate perechile de medii n timp ce mentine eroarea
experimentului la valorile alfa stabilite.
135. Metoda Scheffe este procedeeul post-hoc cel mai conservator (sesizeaza cele mai
putine diferente), nsa este foarte utila cand se doreste realizarea de comparatii complexe
ce depasesc nivelul perechilor de medii.
136. Limita contrastelor ortogonale planificate care pot fi generate de cercetator la
nceputul studiului este k-1, unde k reprezinta numarul de grupe din studiu.
137. Analiza contrastelor ortogonale se aplica daca variabila independenta din ANOVA
este exprimata, fie cantitativ fie calitativ .
138. Procedurile analizei directionale pornesc de la dubla conditie:
- treptele variabilei independente sunt egal distantate,
- numarul de subiecti este egal.
Aceasta dubla conditie poate fi ncalcata, dar procedeul matematic se complica foarte
mult.

139. In cazul analizei multiple a priori directionala exista patru tipuri de directii a datelor:
- liniara (doua sau mai multe grupe);
- curbilinie (trei sau mai multe grupe);
- exponentiala sau cubica (patru sau mai multe grupe);
- cuartica ( cinci sau mai multe grupe).
140. Testul Tukey , testul Newman-Keuls, testul Tukey-Kramer , testul Scheffe , analiza
contrastelor ortogonale si analiza directionala se aplica att n cazul ANOVA simpla, ct
si n cazul ANOVA cu masuratori repetate. Rezultatele obtinute insa n cazul ANOVA cu
masuratori repetate sunt mai mari si mai des semnificative statistic, facand din aceasta
un test mai eficient si mai puternic.
141. Exemple de teste statistice neparametrice :
tehnica lui 2 (hi patrat);
testul U a lui Mann-Whitney;
testul Wilcoxon al rangurilor pereche;
testul ANOVA Kruskal-Wallis al rangurilor;
testul Friedman ANOVA biunivoc al rangurilor.
142. Testul neparametric U a lui Mann-Whitney este echivalentul testului parametric t
independent.
143. Testul neparametric Wilcoxon al rangurilor pereche este echivalentul testului
parametric ANOVA cu masuratori repetate ori al testului t dependent.
144. Testul neparametric ANOVA Kruskal-Wallis al rangurilor este echivalentul testului
parametric ANOVA simpla, nsa datele sunt convertite n ranguri.
145. Testul neparametric Friedman ANOVA biunivoc al rangurilor este echivalentul
testului parametric ANOVA cu masuratori repetate.
146. Testul hi patrat este un test statistic asupra semnificatiei deosebirii dintre rezultatele
observate (distributia reala) si cele asteptate (distributia teoretica).
147. Gradele de libertate pentru tabelul de contingenta sunt (r-1) (c-1), unde r este
numarul de rnduri iar c numarul de coloane.
148. La utilizarea testului hi patrat observatiile trebuie sa fie independente si categoriile
formate trebuie sa se excluda reciproc. Este vorba de eliminarea raspunsurilor multiple si
de alegerea unui singur raspuns la ntrebare.
149. Testul hi patrat nu se poate aplica daca mai mult de 20 la suta din casute au valorile
teoretice ale frecventelor mai mici de cinci (n astfel de situatii este se combine casutele
adiacente, marind valoarea frecventei teoretice).

150. La utilizarea testului hi patrat pentru tabelele de contingenta de tip 2 x 2 este


necesara aplicarea corectiei Yates pentru continuitate.
151. Testul ANOVA Kruskal-Wallis si testul U a lui Mann-Whitney sunt tehnici ce
utilizeaza date ordinale, existnd si posibilitatea unor ranguri egale. Daca acest numar de
ranguri egale este peste 30 la suta nu se recomanda utilizarea lor.
152. Testul neparametric folosit pentru comparatii de date nominale este testul hi patrat
(analiza de contingenta).
153. Testul neparametric folosit pentru comparatii de date ordinale (ordonate pe ranguri)
in doua grupe independente este testul U a lui Mann-Whitney .
154. Testul neparametric folosit pentru comparatii de date ordinale (ordonate pe ranguri)
in mai mult de doua grupe independente este ANOVA Kruskal-Wallis .
155. Testul neparametric folosit pentru comparatii de date ordinale (ordonate pe ranguri)
in doua grupe dependente este Wilcoxon perechi .
156. Testul neparametric folosit pentru comparatii de date ordinale (ordonate pe ranguri)
in mai mult de doua grupe dependente este ANOVA Friedman .
157. Analiza factoriala gseste variabilele care au ct mai mult variaie (informaie)
comun, astfel nct, prin condensare s se piard ct mai puin informaie util.
158. Aplicaiile analizei factoriale sunt urmtoarele:
- Detectarea structurii n relaiile dintre variabile, ceea ce este similar cu clasificarea
variabilelor.
- Reducerea numrului variabilelor la un numr mai mic de factori, cu putere de
descriere mai general asupra realitii investigate.
159. Analiza componentelor principale a lui Hotteling este o metod care se bazeaz pe
analiza varianei totale dintre variabile. Soluia generat va include atia factori cte
variabile sunt disponibile. Prin aceast metod se ofer o soluie unic, astfel nct datele
originale pot fi reconstruite din rezultatele obinute.
160. Analiza factorilor comuni a lui Thurstone const n estimarea varianei comune la
nivelul variabilelor originale. Ca rezultat al acestei tehnici de analiz vor rezulta
ntotdeauna mai puini factori dect numrul variabilelor existente.

S-ar putea să vă placă și