= analyse/ontdekken van dimensies in data
= Datareductie: van een groot aantal vragen naar een beperkt aantal factoren, met minimum verlies aan informatie
Eigenschappen:
Geen onderverdeling in afhankelijke en onafhankelijke variabelen
Wel: sterkte van associatie tussen variabelen!
Meestal: voorbereidend en exploratief, soms confirmerend
Beantwoordt volgende vragen:
Hoeveel dimensies (factoren/hoofdcomponenten) heb ik in mijn itemlijst?
Welke items ‘laden’ op welke dimensie(s)?
Hoe goed wordt de originele informatie in mijn items gecovered d.m.v. de dimensies? (communaliteit)
Doel:
Verklaren maximaal aandeel van de variantie in de oorspronkelijke items
Levert ongecorreleerde factoren (orthogonaal) (goed voor predictoren in regressie, cfr. multicollineariteit)
Modelleert factoren als lineaire combinaties van items
Voorwaarden:
Meetniveau: metrische variabelen, maar evt. vanaf ordinaal meetniveau
Aantal waarnemingen: min. 10 keer zoveel respondenten als variabelen
Indien verschillende meeteenheid (vb. 5- en 7-puntenschalen): data standaardiseren!
Stappen:
1. Berekening correlatiematrix tussen items:
Geen correlatie = evenveel dimensies als er items zijn geen gemeenschappelijke factoren in de items PCA useless
Correlatie is nodig: interpreteer correlatiematrix: aanzienlijk aantal correlaties moeten > .3
2 teststatistieken:
Bartlett’s test of sphericity: H0= er is geen correlatie tussen items. Dus MOET significant zijn
Kaiser-Meyer-Olkin: accuraatheid van de sample [0,1], moet > .6
2. Bepaling eigenwaarden en eigenvectoren
Eigenwaarde = duidt aan hoeveel informatie er in de factor gereconstrueerd wordt.
Praktisch: eigenwaarde minstens 1 (Kaiser criterium): Elke individuele factor moet meer verklaren dan de variantie van een enkele variabele (=1) om relevant te zijn
Recht evenredig met hoeveelheid info in de factor
Eerste factor meeste variantie, tweede factor minder, …
De som van de gekwadrateerde (niet geroteerde!) factorladingen per factor (over alle items) = de totale hoeveelheid door deze factor verklaarde variantie = eigenwaarde van deze factor.
Eigenvector = hoe goed past een item (vraag) bij de factor (factorlading)
= De mate waarin de factor de variantie in het item verklaart
= Hoe goed past het item bij de onderliggende dimensie
Het kwadraat van een factorlading is het percentage variantie (r²) dat de betreffende factor in het betreffende item verklaart
Een factorlading is te zien als de coördinaat van een vector (het item) op een as (een factor) in een assenstelse
De som van de gekwadrateerde factorladingen per item (over alle factoren) = de totale hoeveelheid door deze factoren in de betreffende variabele verklaarde variantie = communaliteit
3. Rotatie der ladingsmatrix
Ideaal: factor correleert sterk met bepaalde items en niet met andere
Concreet: factorlading van een item voor bepaalde factor dicht bij 1 en voor andere factoren dicht bij 0 ==> Dit kan bereikt worden via rotatie (cfr. rotated component matrix): welke variabelen behoren tot welke factoren?
Assen draaien tot eenvoudige oplossing gevonden wordt
Lage correlaties tussen factoren en variabelen worden nog lager, hoge correlaties worden nog hoger
Rotatie ifv. interpretatie resultaten
2 soorten rotaties:
A. Orthogonaal:
= loodrechte rotatie van factorassen (vb. varimax, quartimax, equamax)
= resulteert in ongecorreleerde factoren
VARIMAX = meest populaire rotatiemethode, minimaliseert aantal items dat hoge ladingen heeft op elk van de factoren
B. Oblique:
= factorassen niet loodrecht (vb. direct oblimin, promax)
= resulteert in gecorreleerde factoren
Resultaat:
2 soorten ladingen:
Ongeroteerde ladingen: Component Matrix
Geroteerde ladingen: Rotated Component Matrix + sorted by size!
Deze geroteerde factorladingen zijn de correlatiecoëfficiënten tussen de gemeten variabelen en de verklarende factoren (= directe relatie tussen latente factor en indicatoren)
Minimum = .50
4. Evaluatie model
Percentage verklaarde variantie (minimum 60%)
Communaliteit: op itemniveau
Interpreteerbaarheid (inhoudelijk) van de factoren
1 item laadt substantieel op slechts 1 factor
--> Controleer elke factor via Chronbach’s Alpha!: Controle interne consistentie factoren
Aantal factoren?
= Afweging tussen:
Weinig dimensies (= parsimony; makkelijker interpreteerbaar)
Voldoende verklaarde variantie
= Subjectief! Verschillende methodes:
Kaiser criterium: enkel factoren behouden met een eigenwaarde > 1 (dus factoren die elk een aanzienlijk gedeelte van de variantie verklaren)
Scree plot: verloop eigenwaarde van elke factor in functie van aantal factoren: elleboog/knikcurve
(min 70 à 80 % verklaarde variantie)
(A priori opgegeven aantal verwachte factoren)
5. Berekening factorscores
Indien goede factorstructuur: berekening factorscores aan de hand van lineaire combinaties van de originele scores op de items:
Fj = a1j X1 + a2j X2 + … + anjXn
(F= factor, a= wegingscoëfficiënt, X= origineel item)
= Gestandaardiseerde variabelen die de ‘score’ van de respondent op de factor geven
= Kan je automatisch laten berekenen en opslaan in SPSS bij factoranalyse onder ‘scores’
= Nieuwe kolom per factor in de datafile
= ongecorreleerd indien varimax rotatie
= ratiovariabelen voor verdere analyses (vb. regressie)