Sunteți pe pagina 1din 33

Lect. univ. dr.

Adrian Gorbănescu
▪ Științele psihosociale folosesc un număr foarte mare de variabile ale căror
informații se pot suprapune.
▪ Dacă punem la un loc variabilele care împărtășesc aceeași informație obținem o
nouă variabilă (factor)
▪ Analiza factorială este o colecție de proceduri statistice care au ca principal
obiectiv simplificarea unui set complex de date (reducerea numărului de
variabile).
▪ Analiza factorială se bazează pe diferența dintre variabilele observabile
(măsurate) și cele latente (nemăsurate).
▪ Conștiinciozitatea = variabilă latentă.
▪ Itemii chestionarului = variabile observabile.
▪ Însă, dacă întrebările chestionarului vizează mai multe fațete ale conștiinciozității
(auto-eficacitate, ordine, simțul datoriei, dorința de realizare, disciplină și
precauție) avem mai multe variabile latente.
▪ Analiza factorială caută să găsească o relație liniară între variabila observabilă și
variabila latentă (factor).
▪ Obiectivul principal este acela de a găsi variabilele care împărtășesc cât mai multă
varianță comună și de forma un factor care să cuprindă cea mai mare parte din
informație.
▪ Originile analizei factoriale pronesc din perioada antichității – lucrurile invizibile
pot fi explicate prin intermediul celor vizibile.
▪ Aristotel a propus ideea explicării lucrurilor prin ceea ce acestea au în comun.
▪ Spearman este considerat părintele acestei proceduri statistice (studiul
inteligenței).
▪ Thurstone – model al inteligenței în 3 factori.
▪ R.B. Cattell a dezvoltat teoria lui Spearman și a propus un model multifactorial al
inteligenței
▪ R.B. Cattell propune un model factorial al personalității – chestionarul Cattell 16PF.
▪ Detectarea structurii în relațiile dintre variabile – conceptualizarea unui
anumit construct psihologic.
▪ De exemplu, Nevrotismul (NEO-PI-R) este compus din Anxietate, Furie, Depresie,
Conștiință de sine, Nesăbuință și Vulnerabilitate.
▪ Presupunem că dezvoltăm un chestionar pentru Nevrotism format din 30 de itemi
(câte 5 pentru fiecare fațetă).
▪ Analiza factorială va permite să verificăm în ce măsură cei 30 de itemi în cele 6
fațete prevăzute.
▪ Acesta este un studiu de confirmare (Analiză factorială confirmatorie)
▪ Reducerea numărului de variabile – atunci când există un număr foarte mare de
variabile și există motive să credem că ele ar putea fi restrânse într-un număr mai
mic de componente care să descrie realitatea respectivă.
▪ Studii exploratorii (Analiză factorială exploratorie)

▪ Rezolvarea problemei multicoliniarității – în cazul analizei de regresie putem


obține predictori care să cuprindă un număr mai mare de variabile.

▪ Validarea construcției un scale ce este formată din mai mulți itemi


▪ Analiza Factorială Exploratorie (EFA) este foarte des confundată cu Analiza
Componentelor Principale (PCA).
▪ Diferențele dintre cele două metode provin din faptul că se bazează pe
modele diferite.
▪ EFA folosește modele matematice prin care estimează factorii și se bazează
pe anumite ipoteze pentru ca aceste estimări să fie corecte, pe când PCA
pur și simplu descompune datele într-un set de variabile care corelează.
▪ PCA are în vedere relația liniară dintre componentele existe și care este
contribuția fiecărei componente în a explica varianța totală.
Model – PCA Modelul factorului comun
▪ PCA extrage factorul care înglobează cea mai mare cantitate de informație, urmat
de al doilea factor care extrage cea mai mare variabilitate din cea rămasă ș.a.m.d
până la finalizarea întregei varianțe.
▪ PCA propune o soluție cu un număr de factori egali cu numărul de variabile
observate.
▪ EFA este modelul cel mai frecvent utilizat și urmărește descoperirea unei structuri
latente printre mai multe variabile.
▪ În cazul EFA, analistul nu are nici o idee despre gruparea variabilelor în factori.
▪ CFA presupune că cercetătorul are un model teoretic și dorește să analizeze măsura
în care variabilele observate se grupează în factori precum în model.
▪ CFA se realizează prin modelarea ecuației de structură (analiză SEM).
▪ SPSS oferă mai multe metode de extragere a factorilor care sunt destul de variate,
iar distincția dintre ele are la bază cunoștințe avansate de matematică
▪ Se recomandă ca atunci când datele nu se abat de la normalitate să utilizăm metoda
de extragere Maximum likelihood.
▪ Atunci când datele se abat sever de la normalitate se recomandă utilizarea metodei
principal axis factoring.
▪ Valorile factorilor (scorul Eigenvalue)– reprezintă scorul particular compus din
aportul variabilelor pentru fiecare caz în parte.
▪ Încărcarea factorilor – este indicată de coeficientul de corelație Pearson dintre
variabilele observate și factor. Se recomandă ca itemii să aibă un indice de
corelație cel puțin de 0.3 cu factorul.
▪ Comunalitatea – este pătratul corelației multiple pentru fiecare variabilă
observată (utilizată drept criteriu) și factori (utilizați ca predictori). Aceasta
exprimă procentul variației unei variabile explicat de factorii reuniți.
▪ EFA se desfășoară în mai multe etape, faza inițială cuprinzând o soluție factorială
care cuprinde o anumită varianță a datelor.
▪ Odată ce un factor a fost extras se obțin informații referitoare la gradul de
încărcare al fiecărei variabile în factor (se calcuează nivelul de încărcare a
variabilei în fiecare factor).
▪ În general, se va observa că cele mai multe variabile au niveluri ridicate de
încărcare în cel mai important factor și un grad de încărcare mai slab în ceilalți
factori.
▪ În EFA suntem interesați să obținem o variație maximă la nivelul factorilor
▪ În acest sens are loc o rotație a factorilor, astfel încât variabilele să încarce cât mai
bine în factori.
▪ Rotația ne ajută să discriminăm între factori
▪ Există două tipuri de rotație: ortogonală (se bazează pe lipsa corelației dintre
factori)și oblică (presupune existența unei corelații între factori).
▪ Tehnici pentru rotație ortogonală: varimax, quartimax și equimax.
▪ Tehnici pentru rotație oblică: promax și direct oblimin.
▪ Alegerea numărului de factori este una din cele mai importante decizii.
▪ Alegerea numărului de factori este importantă deoarece:
1. Afectează rezultatele obținute.
2. Trebuie să existe un echilibru între obiectivul de reducere a numărului de
variabile și cel de a avea o soluție adecvată. Cu alte cuvinte, să existe o diferență
între factorii importanți și cei nerelevanți.
3. O decizie greșită afectează interpretarea rezultatelor.
▪ Cea mai cunoscută tehnică de selecție a factorilor este cea propusă de Kaiser și se
bazează pe scorul Eigenvalue. Astfel, vor fi selectați doar acei factori care au scorul
Eigenvalue ≥ 1.
▪ Această tehnică are o serie de limite, deoarece este greu de precizat care este
diferența dintre un factor cu Eigenvalue 1 și un alt factor cu scorul Eigenvalue 0.99.
▪ Osborne și Costello (2005) au arătat că în 36% din cazuri metoda lui Kaiser a
condus la selecția unui număr excesiv de factori.
▪ O altă tehnică de selecție a factorilor a fost propusă de Cattell – graficul Scree plot.
Această metodă scoate în evidență punctele de discontinuitate. Numărul factorilor
= numărul frânturilor din grafic.
▪ Variabile măsurate pe I/R.
▪ Distribuție normală (condiție ce poate fi neglijată în cazul eșantioanelor mari și f
mari).
▪ Alegerea atentă a variabilelor.
▪ Liniaritatea
▪ Intercorelații moderate și moderat-ridicate, fără multicoliniaritate între variabilele
incluse în analiză. Indicele Kaiser-Mayer-Olkin (KMO) oferă informații cu privire la
existența multicoliniarității.
▪ Este recomandat un indice KMO > .80.
▪ Analyze → Data Reduction → Factor
▪ În zona Variables vor fi introduse variabilele supuse analizei
▪ În zona Descriptives vom bifa opțiunile:
▪ Univariate descriptives – afișează media și abaterea standard pentru fiecare din
variabilele introduse în analiză.
▪ Initial solution – afișează soluția factorială înainte de a roti factorii, comunalitățile,
scorurile eigenvalue și procentul variației explicate.
▪ Coeficients – afișează intercorelațiile dintre variabile
▪ KMO and Bartlet’s test of sphericity – indică gradul de asociere a variabilelor.
▪ În zona Extraction vom selecta:
▪ Metoda Maximum likelihood
▪ Unrotaded solution – afișează structura factorială înainte de rotație.
▪ Scree plot – pentru a obține graficul scree plot.
▪ Eigenvalues over 1 (se vor alege factorii cu scorul eigenvalue mai mare de 1).
▪ Maximum Iterations for Convergences – specifică numărul de pași ai algoritmului.
Valoarea implicită este 25, dar poate fi modificată dacă numărul de variabile
analizate este mare.
▪ !!! Atunci când suntem interesați să extragem un anumit număr de factori vom bifa
opțiunea Fixed Number of Factors.
▪ În Options selectăm:
▪ Sorted by size
▪ Suppress small coefficients – Absolute value below .30
▪ Tabelul Descriptive Statistics – afișează media și abaterea standard pentru fiecare
variabilă inclusă în analiză
▪ Tabelul KMO and Bartlett’s Test – ne oferă informații referitoare la existența unei
structuri factoriale.
▪ Atunci când testul este semnificativ și KMO > .80 datele sunt adecvate pentru
analiza factorială
▪ Există situații în care se acceptă și KMO > .70.
▪ Tabelul Communalities – ne oferă informații privitoare la comunalități înainte și
după extracția factorilor.
▪ Tabelul Total Variance Explained – ne oferă informații despre scorurile
Eigenvalue și varianța explicată de fiecare factor (explicații pe slide-ul următor).
▪ Factorul 1 – are scorul Eigenvalue 16.217 și explică 28.894% din varianță
▪ Factorul 2 – are scor Eigenvalue 3.067 și explică 3.588% din varianță
▪ Soluția propusă include 8 factori (au scorul Eigenvalue > 1), iar aceștia explică
50.312% din varianță
▪ Graficul Scree Plot sugerează o soluție cu 4 factori.
▪ Tabelul Factor Matrix conține solția factorială înainte de rotație. Se poate observa
că cei mai mulți itemi încarcă în factorul cel mai important (Factorul 1)
▪ Tabelul Patern Matrix conține soluția factorială după de rotație.
▪ Factorul 1 este format din itemii: cma6 (.602), cma21 (.482), cma23 (.447), cma9
(.422) și cma36 (.302).
▪ Factorul 2 este format din itemii: cma18 (-1.039), cma19 (-1,027), cma17 (-.485) și
cma2 (-.337).
▪ Factorul 3 este format din itemii: cma28 (-.705), cma10 (-.660), cma11 (-.648),
cma15 (-.631), cma30 (-.608) ș.a.m.d.
▪ Tabelul Factor Correlation Matrix cuprinde coeficienții de corelație ai celor 8
factori extrași.