Hoofdstuk 23 Factor-analyse

In dit hoofdstuk wordt besproken:
  • Principale Componenten Analyse (PCA)
  • Exporatieve Factor-Analyse (EFA)
  • Confirmatieve Factor-Analyse (CFA)
Deze stof wordt behandeld in de volgende Open Universiteitscursus(sen):
  • Onderzoekspractium cross-sectioneel onderzoek (PB0812)
Dit hoofdstuk bouwt voort op deze andere hoofdstukken:
  • Constructen
  • Constructen Meten
  • Validiteit van Meetinstrumenten
  • Validiteit Schatten en Verhogen

23.1 Inleiding

Factoranalyse is een rekenkundige methode die vaak gebruikt wordt bij het construeren van schalen voor psychologisch onderzoek. Met deze techniek is het mogelijk om te zoeken naar zogenaamde factoren die een correlatiematrices of covariantiematrices tussen variabelen zo goed mogelijk kunnen verklaren. Het idee is dat je met minder factoren eindigt dan je variabelen hebt.

Met deze techniek kan daarom worden onderzocht of een groot aantal geobserveerde variabelen (denk aan items uit vragenlijsten) kan worden teruggebracht tot een kleiner aantal factoren. Daarbij worden variabelen die onderling sterk (positief of negatief) met elkaar samenhangen samengenomen tot één gemeenschappelijke factor.

Onder een aantal aannames kan factor-analyse nuttig zijn bij het bestuderen van onderliggende psychologische constructen die de scores op een aantal vragen veroorzaken.

Doorgaans wordt er een onderscheid gemaakt tussen twee varianten: exploratieve factoranalyse (EFA) en confirmatieve factoranalyse (CFA). Zoals de namen al zeggen zit het verschil erin dat er bij de tweede variant wordt gekeken hoe goed een vooropgestelde set factoren presteert, terwijl de eerste variant vaak wordt gebruikt om te zoeken naar mogelijke onderliggende factoren om een set variabelen te verklaren. Naast deze twee varianten is er een derde vorm, principale componentenanalyse, die in de psychologie zelden bruikbaar is, maar daarbuiten wel veel wordt gebruikt. Omdat deze iets eenvoudiger te begrijpen is, wordt deze eerst uitgelegd. Maar voordat we daarmee starten, een korte opfrisser over covarianties.

23.2 Covarianties en correlaties

De covariantie is de correlatie voordat je die deelt door het product van de twee standaarddeviaties:

\[\begin{equation} r_{xy} = \frac{\text{covariantie}_{xy}}{\text{sd}_x \text{sd}_y} \tag{23.1} \end{equation}\]

Door de covariantie te delen door die standaarddeviaties verwijder je de schaalinformatie: daarom liggen correlaties altijd tussen de \(-1\) en de \(1\) in. De covariantie bevat dus nog wel schaalinformatie, en een grote of kleine covariantie zegt dus niets als je niet weet op wat voor schaal de variabelen zijn gemeten. Dat zie je ook in de formule voor de covariantie zelf:

\[\begin{equation} \text{covariantie}_{xy} = {\frac{{\sum_{i=1}^n} (x_i - \overline{x})(y_i - \overline{y})}{n - 1}} \tag{23.2} \end{equation}\]

Je vermenigvuldigt de afstand van elk datapunt van het gemiddelde voor alle paren datapunten in twee datareeksen (\((x_i - \overline{x})(y_i - \overline{y})\)). Die producten tel je vervolgens allemaal bij elkaar op (dat betekent die sigma, \({\sum_{i=1}^n}\), en die som deel je door \(n-1\).

Je corrigeert dus wel voor het aantal datapunten, maar als de datareeks van \(x\) bijvoorbeeld reactietijden representeert, en je drukt die uit in seconden, dan is de covariantie \(1000\) keer zo klein dan als je \(x\) uitdrukt in milliseconden.

De formule om de covariantie te berekene is eigenlijk gewoon de formule voor de variantie, maar dan toegepast op twee datareeksen in plaats van een. De formule voor de variantie was:

\[\begin{equation} \text{MS} = \text{variantie}_{x} = {\frac{{\sum_{i=1}^n} (x_i - \overline{x})(x_i - \overline{x})}{n - 1}} = { \frac {{\sum_{i=1}^n} (x_i - \overline{x})^2}{n - 1}} \tag{23.3} \end{equation}\]

Omdat je dezelfde formule kunt gebruiken voor een datareeks als voor twee datareeksen, is het relatief makkelijk om een covariantiematrix te maken. Hierbij corresponderen de rijen en kolommen met de variabelen, en bevat elke cel de uitkomst van de (co)variantieformule voor de betreffende combinatie. In de diagonaal van de matrix kruist elke variabele zichzelf, dus daar resulteert die formule in de varianties; en verder bevat de tabel allemaal covarianties.

Dit is hetzelfde concept als een correlatietabel: daar wordt op elke cel de formule voor de correlatie losgelaten. Dat is dezelfde formule, alleen wordt het resultaat dan ook nog gedeeld door het product van de standaarddeviaties (zie formule (23.1) hierboven).

Laten we als voorbeeld vijf Openheid items uit de Big Five Inventory nemen (zie hoofdstuk Meetinstrumenten). De beschrijvingsmaten voor deze items zijn als volgt:

Tabel 23.1: Een aantal beschrijvingsmaten voor Openheid.
Minimum Gemiddelde Mediaan Maximum Standaarddeviatie
O1 1 4.66 5 6 1.18
O2 1 2.77 2 6 1.59
O3 1 4.51 5 6 1.11
O4 1 4.92 5 6 1.16
O5 1 2.45 2 6 1.37

Hieronder zijn de covariantiematrix en de correlatiematrix voor deze items weergegeven:

Tabel 23.2: De covariantiematrix voor de vijf Openheid-items.
O1 O2 O3 O4 O5
O1 1.39 -0.34 0.56 0.38 -0.55
O2 -0.34 2.53 -0.51 -0.26 0.56
O3 0.56 -0.51 1.24 0.32 -0.61
O4 0.38 -0.26 0.32 1.35 -0.42
O5 -0.55 0.56 -0.61 -0.42 1.88
Tabel 23.3: De correlatiematrix voor de vijf Openheid-items.
O1 O2 O3 O4 O5
O1 1.00 -0.18 0.43 0.28 -0.34
O2 -0.18 1.00 -0.29 -0.14 0.26
O3 0.43 -0.29 1.00 0.25 -0.40
O4 0.28 -0.14 0.25 1.00 -0.26
O5 -0.34 0.26 -0.40 -0.26 1.00

De vergelijking van deze twee matrices laat twee dingen zien. Ten eerste kunnen (co)varianties groter zijn dan 1 en kleiner dan -1. Ze zijn nog niet gedeeld door de standaarddeviaties, en daardoor niet gecorrigeerd voor de schaalverdeling van de variabelen, en daardoor zijn (co)varianties van/met variabelen op een bredere schaal groter.

Ten tweede zijn de verhoudingen tussen de covarianties en varianties anders. In de covariantietabel heeft O2 een variantie die bijna twee keer zo groot is als die van O1, maar in de correlatietabel zijn deze varianties gelijk getrokken en zijn ze beiden 1. De verhoudingen tussen de covarianties zijn ook anders. Neem bijvoorbeeld de verhouding tussen de covariantie tussen O1 en O5 (\(-0.55\)) en tussen O2 en O5 (\(0.56\)): dat is een verhouding van \(1\) op \(0.97\). De verhouding tussen die correlaties is echter anders: die zijn respectievelijk \(-0.34\) en \(0.26\), een verhouding van \(1\) op \(1.31\). Dat is nogal een verschil.

Dit komt omdat de standaarddeviatie van O2 een stuk groter is dan die van O1: respectievelijk \(1.59`\) en \(1.18\). O1 en O5 delen \(r^2=-0.34^2 = 0.1156 = 11.56 \%\) van hun variantie, en O2 en O5 delen \(r^2=0.26^2 = 0.0676 = 6.76 \%\) van hun variantie. Als de varianties groter zijn, dan is de gedeelde variantie (de covariantie) dus ook groter. Daarom is de verhouding tussen de covarianties tussen enerzijds O2 en O5 en anderzijds O1 en O5 groter dan voor de corresponderende correlaties. In die correlaties is het effect van de grotere spreiding in O2 verwijderd.

Omdat correlaties de covarianties zijn, maar dan gecorrigeerd voor de schaal waarop beide variabelen zijn gemeten, is de covariantiematrix van een set gestandaardiseerde variabelen de correlatiematrix. Als een variabele wordt gestandaardiseerd (door van elk datapunt eerst het gemiddelde af te trekken en dan te delen door de standaarddeviatie) is de schaalinformatie immers al verwijderd. Correlaties worden daarom ook wel gestandaardiseerde covarianties genoemd. Dit betekent tegelijkertijd dat de \(1\)-tjes op de diagonaal van een correlatiematrix dus de varianties van die variabelen zijn. Dit is ook logisch als je bedenkt dat de correlaties de wortel zijn van de variantie:

\[\begin{equation} \text{MS}_x = \text{variantie}_{x} = {\text{sd}_x}^2 \tag{23.4} \end{equation}\]

\[\begin{equation} \text{sd}_x = \sqrt{{variantie}_{x}} = \sqrt{{MS}_{x}} \tag{23.5} \end{equation}\]

Correlaties zijn niet per se beter of slechter dan covarianties. Soms is schaalinformatie belangrijk, en soms is het juist belangrijk om te kunnen vergelijken los van de schalen van en spreiding in de verschillende variabelen. Het is wel belangrijk het verschil en de implicaties te kennen: vooral bij factor-analyse, waar je kiest welke van de twee je wil analyseren.

Standaard wordt de correlatiematrix geanalyseerd, waardoor elk item even zwaar meeweegt. Als je de covariantiematrix specificeert, wegen items met meer spreiding zwaarder mee. Dat kan soms precies de bedoeling zijn, maar soms juist voor vertekening zorgen. Het is dus belangrijk om hier op te letten. Welke matrix je specificeert bepaalt hoe de factoren in je factoranalyse (of componentenanalyse) worden samengesteld uit de items. Dit wordt in de volgende paragraaf uitgelegd.

23.3 PCA: Principale Componenten-Analyse

Het doel van Principale Componenten-Analyse (PCA) is het terugbrengen van een grote groep variabelen tot een kleinere groep componenten. Componenten kun je beschouwen als nieuwe variabelen. Eigenlijk zijn het zogenaamde ‘lineaire combinaties’ van de bestaande variabelen. Een heel simpele metafoor: als je drie variabelen zou hebben, A, B en C, dan zou de eerste component bijvoorbeeld \(25\%\) van A, \(50\%\) van B, en \(75\%\) van C kunnen zijn; de tweede component zou \(50\%\) van A, \(25\%\) van B, en \(10\%\) van C zijn; en de derde component zou \(25\%\) van A, \(25\%\) van B, en \(15\%\) van C zijn. Die lineaire combinaties kun je dus een beetje zien als ‘herformuleringen’ van de oorspronkelijke variabelen.

Als je evenveel van die componenten ‘herformuleert’ als er variabelen zijn, kun je de spreiding binnen en tussen de variabelen perfect reproduceren. Wat je precies probeert te reproduceren hangt af van hoe je de analyse uitvoert: je kunt als doel hebben om de covariantiematrix te reproduceren, of om de correlatiematrix te reproduceren (zie de vorige paragraaf).

23.3.1 Componenten kiezen

Het idee bij datareductietechnieken zoals componenten- en factoranalyse is dat de varianties van de items (die in de correlatiematrix allemaal op 1 zijn gezet) en de covarianties of correlaties tussen de items de patronen representeren waarin je bent geïnteresseerd. Daarom worden de factoren zo gekozen dat je met zo weinig mogelijk factoren de covariantiematrix of de correlatiematrix zo goed mogelijk kunt reproduceren. Bovendien worden de componenten of factoren zo gekozen dat ze niet met elkaar correleren (maar zie kopje Rotatie hieronder).

De lineaire combinaties worden dus niet zomaar samengesteld, maar een voor een, waarbij elke component steeds zo wordt gekozen dat hij zoveel mogelijk van de spreiding binnen en tussen de variabelen verklaart. Als de variabelen allemaal sterk met elkaar samenhangen, kan de eerste component al een groot deel van de covariantiematrix verklaren. Als je bereid bent te accepteren dat je die niet volledig kunt reproduceren, oftewel, als bijvoorbeeld 80% verklaarde (co)varianties voldoende is, dan kun je de data met slechts 1 variabele beschrijven, in plaats van met bijvoorbeeld tien variabelen.

In de vorige alinea had ik het over verklaarde (co)varianties, terwijl je vaak niet de covariantiematrix, maar de correlatiematrix probeert te reproduceren. Dat komt omdat de correlatiematrix de gestandaardiseerde covariantiematrix is. Dit wordt uitgelegd in de vorige paragraaf. Bij PCA en factor-analyse is het doel altijd om de covariantiematrix zo goed mogelijk te reproduceren: alleen is die covariantiematrix vaak gestandaardiseerd, en dus de correlatiematrix.

23.3.2 PCA met Openheid

Laten we de vijf Openheid items van net nemen en een principale componenten-analyse uitvoeren zodat we die van dichtbij kunnen bekijken. We doen deze PCA met de correlatiematrix, dus zonder dat we de verschillen in variantie tussen de items proberen te reproduceren.

Tabel 23.4: Een PCA met de vijf Openheid items en vijf componenten.
PC1 PC2 PC3 PC4 PC5
O1 0.70 0.23 0.36 0.39 -0.40
O2 -0.53 0.73 0.38 -0.19 0.12
O3 0.75 -0.07 0.30 0.10 0.57
O4 0.56 0.54 -0.63 0.05 0.08
O5 -0.71 0.04 -0.10 0.67 0.18

23.3.3 Componenten bestaan uit ladingen

In deze tabel zijn de zogenaamde ladingen voor alle vijf de variabelen en alle vijf de componenten te zien. De vijf componenten zijn nu gedefinieerd als het product van de bijbehorende ladingen met de datareeksen die met de vijf variabelen corresponderen. Dit is weergegeven in vergelijking (23.6), waar lambda (\(\lambda\)) voor de lading staat, zodat \(\lambda_{O1,PC1}\) de lading is voor O1 op de eerste component (of van de eerste component op O1; beiden uitdrukkingen worden gebruikt15).

\[\begin{equation} \text{Component}_1 = \lambda_{O1,PC1} O1_i + \lambda_{O2,PC1} O2_i + \lambda_{O3,PC1} O3_i + \lambda_{O4,PC1} O4_i + \lambda_{O5,PC1} O5_i \tag{23.6} \end{equation}\]

We kunnen nu de ladingen en de scores van de eerste deelnemer (\(i=1\)) in deze dataset invullen:

\[\begin{equation} \text{Component}_1 = .7 \cdot 4 + -.53 \cdot 3 + .75 \cdot 5 + .56 \cdot 6 + -.71 \cdot 1 = 7.61 \tag{23.7} \end{equation}\]

Dit zouden we voor alle deelnemers kunnen doen, en dan zouden we vijf nieuwe datareeksen hebben. Met die vijf datareeksen kunnen we dan de correlatiematrix van de oorspronkelijke vijf variabelen reproduceren.

23.3.4 Communaliteit

Dit kun je narekenen door de zogenaamde ‘communaliteit’ van elke variabele te berekenen. Dat is de proportie van de variabele die wordt beschreven door de componenten. Die communaliteit is gelijk aan de sum van de gekwadrateerde ladingen voor die variabele:

\[\begin{equation} \text{Communaliteit} = \lambda_{O1,PC1}^2 + \lambda_{O1,PC2}^2 + \lambda_{O1,PC3}^2 + \lambda_{O1,PC4}^2 + \lambda_{O1,PC5}^2 \tag{23.8} \end{equation}\]

De communaliteit van O1 is dus:

\[\begin{equation} \text{Communaliteit} = .7^2 + .23^2 + .36^2 + .39^2 + -.40^2 = 1 \tag{23.9} \end{equation}\]

Daar hebben we nog niet veel aan: we doen deze exercitie om minder datareeksen over te houden. En dat kan: we kunnen specificeren dat we minder componenten willen hebben. We kunnen bijvoorbeeld ook alleen de eerste drie nemen. Dan hebben we nog maar drie datareeksen over, en reproduceren we de correlatiematrix dus iets slechter. De kunst is nu om zo weinig mogelijk componenten te kiezen, maar toch de correlatiematrix zo goed mogelijk te reproduceren.

23.3.5 Eigenwaarden: de verklaarde variantie per component

Hierbij is het handig als we zouden weten hoeveel we aan elke component hebben om de correlatiematrix te begrijpen. Ook dat kunnen we uitrekenen: de proportie van de totale variantie in de covariantiematrix die een component verklaart is de som van de gekwadrateerde ladingen van die component. In dit geval is dat de proportie verklaarde variantie in onze correlatiematrix: de correlatiematrix is immers ook covariantiematrix, alleen dan gestandaardiseerd.

\[\begin{equation} \text{Proportie verklaarde variantie}_{PC1} = \notag \\ {\lambda_{O1,PC1}}^2 + {\lambda_{O1,PC2}}^2 + {\lambda_{O1,PC3}}^2 + {\lambda_{O1,PC4}}^2 + {\lambda_{O1,PC5}}^2 \tag{23.10} \end{equation}\]

Dan kunnen we uitrekenen hoeveel variantie wordt verklaard door de eerste component, PC1:

\[\begin{equation} \text{Proportie verklaarde variantie}_{PC1} = \notag \\ .7^2 + -.53^2 + .75^2 + .56^2 + -.71^2 = 2.15 \tag{23.11} \end{equation}\]

De totale hoeveelheid variantie om te verklaren is in ons geval \(5\): we gebruiken de correlatiematrix, en daarin is elke variabele gestandaardiseerd, waardoor de standaarddeviatie en de variantie van elk item aan elkaar gelijk zijn: die zijn allemaal \(1\). Omdat we vijf variabelen hebben, is er dus een totale variantie van \(5 \cdot 1 = 5\). Die eerste component verklaart dus al bijna de helft van onze correlatiematrix! Niet slecht.

Deze som van de ladingen voor een component heet ook wel de eigenwaarde van die component (“eigen” in deze term is oorspronkelijk Duits, maar betekent hetzelfde als in het Nederlands). Een correlatiematrix heeft dus altijd evenveel eigenwaarden als er variabelen zijn, in ons geval zijn dat er dus vijf: \(2.15\), \(0.88\), \(0.77\), \(0.65\) & \(0.55\). Omdat die eigenwaarden de proporties verklaarde variantie van de corresponderende componenten uitdrukken, tellen ze precies op tot het aantal correlaties, dus ook tot vijf.

23.3.6 Het Kaiser criterium

Als je een correlatiematrix wil reproduceren, draagt elke variabele precies \(1\) variantie bij, en dat betekent dat een component die een eigenwaarde lager dan \(1\) heeft minder variantie verklaart dan een van de oorspronkelijke variabelen. Je zou dit als criterium kunnen gebruiken om te bepalen hoeveel componenten je wil overhouden. In ons geval zouden we er dan maar eentje nemen. Dit heet ook wel het Kaiser criterium, genoemd naar een van de pioniers van de factor-analyse.

23.3.7 De scree plot

Een andere manier om te kiezen hoeveel componenten we willen kiezen, is een zogenaamde “scree plot” maken. Hierin worden de eigenwaarden gevisualiseerd, zoals zichtbaar in Figuur 23.1.

Een scree-plot voor de vijf Openheid componenten.

Figuur 23.1: Een scree-plot voor de vijf Openheid componenten.

De term ‘scree’ verwijst naar rotsblokken die van een berg rollen. Het idee van de scree plot is om te kijken waar de ‘elleboog’ in de lijn zit: waar de helling veel lager wordt (en, zo gaat de redenering, de rotsblokken dus blijven liggen). Vervolgens neem je het aantal componenten dat net \(1\) kleiner is. In dit geval is de helling tussen de eerste twee componenten veel groter dan die tussen de volgende vier componenten, dus die interpretatie van de scree plot is consistent met het Kaiser criterium en zou suggereren dat we het bij één component houden.

Als we er maar één nemen, dan is de communaliteit van de vijf variabelen opeens een stuk lager. Die bestaat nu alleen nog maar uit de gekwadrateerde lading voor die ene component. Voor O1 tot en met O5 zijn de communaliteiten nu dus \(0.5\), \(0.28\), \(0.57\), \(0.31\) & \(0.5\). De eerste variabele deelt dus \(50\%\) van zijn variantie met onze eerste component. Naast deze gedeelde variantie is er unieke variantie in O die we niet vangen in onze component.

23.3.8 Uniciteit

Die unieke variantie heet de ‘uniciteit’, en is altijd het complement van de communaliteit. De uniciteiten van onze vijf variabelen zijn \(0.5\), \(0.72\), \(0.43\), \(0.69\) & \(0.5\). Als we er een tweede component bij zouden nemen, dan zouden die uniciteiten dalen, totdat ze met vijf componenten uitkomen op \(0\).

Omdat de Openheid items sterk met elkaar correleren, is het logisch dat we op één component uitkomen. Laten we kijken wat er gebeurt als we er vijf andere items bij nemen, bijvoorbeeld voor extraversie.

23.3.9 PCA met Openheid en Extraversie

Tabel 23.5: De ladingen in een PCA met de vijf Openheid-items en vijf-Extraversie items en tien componenten.
PC1 PC2 PC3 PC4 PC5 PC6 PC7 PC8 PC9 PC10
O1 0.48 0.52 0.16 0.11 -0.38 0.31 -0.45 0.01 0.07 -0.11
O2 -0.33 -0.34 0.74 -0.30 -0.23 -0.12 -0.12 -0.06 -0.18 0.14
O3 0.64 0.43 0.01 -0.27 0.00 0.32 0.31 0.09 -0.10 0.34
O4 0.08 0.71 0.30 0.17 0.49 -0.09 -0.07 -0.21 -0.25 -0.05
O5 -0.41 -0.56 0.17 0.41 0.14 0.54 0.06 -0.06 -0.08 0.04
E1 -0.63 0.43 0.16 0.25 -0.16 -0.07 0.17 0.50 -0.15 -0.07
E2 -0.70 0.39 0.20 0.09 0.09 -0.03 -0.03 -0.06 0.47 0.26
E3 0.67 -0.10 0.51 -0.03 0.10 0.03 0.32 0.06 0.27 -0.30
E4 0.63 -0.39 0.09 0.08 0.36 -0.11 -0.34 0.38 0.05 0.18
E5 0.66 -0.10 0.07 0.53 -0.31 -0.29 0.15 -0.16 -0.03 0.20

Nu wordt het snel onoverzichtelijk. Gelukkig willen we toch geen tien componenten. Laten we gelijk kijken met hoeveel componenten we toe kunnen. De eigenwaarden zijn \(3.1\), \(1.9\), \(1.03\), \(0.73\), \(0.72\), \(0.62\), \(0.59\), \(0.48\), \(0.44\) & \(0.39\). Op basis van het Kaiser criterium spant het er dus om: zouden we twee componenten moeten nemen, of drie? Laten we naar de scree plot in Figuur 23.2 kijken, misschien geeft die meer duidelijkheid.

Een screen-plot voor de vijf Openheid componenten.

Figuur 23.2: Een screen-plot voor de vijf Openheid componenten.

De helling begint na de derde component inderdaad af te nemen, maar nog niet zoveel als na de vierde component. Alleen op basis van de data komen we er niet uit. Gelukkig hebben we in dit geval een theorie. We weten dat deze tien items eigenlijk uit twee setjes bestaan die bij elkaar horen. Het is logisch dat de Openheid items sterk met elkaar samenhangen: die zijn immers ontworpen om hetzelfde te meten. Dat geldt ook voor de vijf Extraversie items. Dit is ook te zien in de correlatiematrix:

Tabel 23.6: De correlatiematrix voor de vijf Openheid-items en de vijf Extraversie-items.
O1 O2 O3 O4 O5 E1 E2 E3 E4 E5
O1 1 -.18 .43 .28 -.34 -.07 -.12 .23 .1 .27
O2 -.18 1 -.29 -.14 .26 .11 .16 .04 -.07 -.17
O3 .43 -.29 1 .25 -.4 -.22 -.28 .38 .17 .25
O4 .28 -.14 .25 1 -.26 .19 .23 .09 -.08 -.01
O5 -.34 .26 -.4 -.26 1 .07 .11 -.13 -.04 -.15
E1 -.07 .11 -.22 .19 .07 1 .53 -.34 -.47 -.3
E2 -.12 .16 -.28 .23 .11 .53 1 -.37 -.48 -.42
E3 .23 .04 .38 .09 -.13 -.34 -.37 1 .42 .41
E4 .1 -.07 .17 -.08 -.04 -.47 -.48 .42 1 .35
E5 .27 -.17 .25 -.01 -.15 -.3 -.42 .41 .35 1

Als je deze goed bestudeert kun je zien dat de Openheid-items sterker met elkaar samenhangen dan met de Extraversie-items (en dus noodzakelijkerwijs vice versa).

Twee componenten liggen daarom voor de hand. Logischerwijs verklaart dan de ene component vooral de Openheid-items, en de andere component de Extraversie-items. Dat zie je echter niet terug in de ladingen, die zijn weergegeven in Tabel 23.7.

Tabel 23.7: De ladingen in een PCA met de vijf Openheid-items en de vijf Extraversie-items en twee componenten.
PC1 PC2
O1 0.48 0.52
O2 -0.33 -0.34
O3 0.64 0.43
O4 0.08 0.71
O5 -0.41 -0.56
E1 -0.63 0.43
E2 -0.70 0.39
E3 0.67 -0.10
E4 0.63 -0.39
E5 0.66 -0.10

De eerste component lijkt te zijn samengesteld om alle items zo goed mogelijk te verklaren, terwijl de tweede component de restjes kreeg. Dat is ook precies wat er gebeurt bij PCA, dus die indruk klopt.

23.3.10 Rotatie

Bij PCA (en EFA) kunnen we de componenten daarom ‘roteren’ zodat elke component vooral wordt uitgedrukt in de variabelen die er het sterkst mee samenhangen. Er bestaan verschillende rotaties. Zolang we de componenten ongecorreleerd willen houden, gebruiken we de zogenaamde ‘varimax’ rotatie. Als we die toepassen vinden we de factorladingen in tabel 23.8.

Tabel 23.8: De ladingen in een PCA met de vijf Openheid-items de en vijf-Extraversie items, twee componenten, en een varimax rotatie.
RC1 RC2
O1 0.14 0.69
O2 -0.11 -0.47
O3 0.33 0.70
O4 -0.30 0.65
O5 -0.05 -0.69
E1 -0.76 0.04
E2 -0.80 -0.03
E3 0.62 0.26
E4 0.74 0.00
E5 0.62 0.25

Na rotatie zien we dat de geroteerde component RC1 hoger laadt op de Extraversie-items, terwijl RC2 hoger laadt op de Openheid-items. Dat wordt bereikt door de componenten letterlijk te roteren. Om dit te begrijpen kunnen we de ladingen plotten in een grafiek. De ladingen voordat we roteerden staan in Figuur 23.3.

Een visualisatie van ladingen in twee dimensies.

Figuur 23.3: Een visualisatie van ladingen in twee dimensies.

Hier zie je dat de items die het hoogste laden op PC1, Principale Component 1, het verst naar rechts staan (E3 en E5), het item dat het laagst laadt op die component het verst naar links (E2), terwijl het item dat het hoogst laadt op PC2, Principale Component 2, het hoogst staat (O4), en het item dat het laagst op PC2 laadt, O5, het laagst. Je ziet hier ook dat de meeste items op beide componenten laden (of, dat beide componenten op de meeste items laden).

Varimax rotatie roteert nu letterlijk de assen. In dit geval staan die na de rotatie zoals weergegeven in Figuur 23.4 (Abdi, 2003).

Orthogonaal geroteerde assen.

Figuur 23.4: Orthogonaal geroteerde assen.

Als we dit weer terugroteren naar een gewoon assen-stelsel zien we de ladingen op de twee componenten na rotatie zoals zichtbaar in Figuur 23.5.

Factorladingen na roratie.

Figuur 23.5: Factorladingen na roratie.

23.3.11 Andere rotaties

Rotatie is primair een hulpmiddel om de interpretatie van de componenten te vergemakkelijken. Rotatie leidt niet tot betere voorspelling.

De varimax-rotatie is niet de enige rotatie die we kunnen toepassen. Varimax is een zogenaamde ‘orthogonale’ rotatie. Orthogonaal betekent onafhankelijke. Eerder legden we uit dat bij PCA de componenten altijd ongecorreleerd zijn. In deze plotjes wordt die orthogonaliteit gerepresenteerd door de hoek tussen de assen die de componenten representeren (de groene lijn en de paarse lijn). Deze hoek bleef steeds \(90\circ\), wat correspondeert met een correlatie van \(0\).16

Als Extraversie en Openheid samenhangen is een ‘nonorthogonale’ rotatie beter. Deze worden vaak ‘oblique’ rotaties genoemd. Er bestaan meerdere soorten van, maar in de meeste situaties wordt er een gebruikt die ‘oblimin’ heet.

23.3.12 De covariantiematrix reproduceren

Het roteren heeft geen invloed op hoe goed we de oorspronkelijke covariantiematrix (of correlatiematrix) kunnen reproduceren. Dit kun je zien aan de residuen: het verschil tussen de oorspronkelijk geobserveerde covariantiematrix en de gereproduceerde covariantiematrix. In Tabel 23.9 zijn de residuen te zien van het model met twee componenten zonder rotatie.

Tabel 23.9: De residuen na het reproduceren van de covariantiematrix (in dit geval, de correlatiematrix) met twee componenten, en zonder rotatie.
O1 O2 O3 O4 O5 E1 E2 E3 E4 E5
O1 0.50 0.16 -0.11 -0.13 0.15 0.01 0.01 -0.04 -0.01 0.00
O2 0.16 0.77 0.08 0.13 -0.07 0.05 0.06 0.23 0.01 0.02
O3 -0.11 0.08 0.41 -0.11 0.10 0.00 0.00 0.00 -0.07 -0.13
O4 -0.13 0.13 -0.11 0.49 0.17 -0.06 0.01 0.11 0.15 0.01
O5 0.15 -0.07 0.10 0.17 0.52 0.05 0.04 0.09 0.00 0.06
E1 0.01 0.05 0.00 -0.06 0.05 0.42 -0.08 0.12 0.10 0.16
E2 0.01 0.06 0.00 0.01 0.04 -0.08 0.35 0.14 0.12 0.09
E3 -0.04 0.23 0.00 0.11 0.09 0.12 0.14 0.54 -0.05 -0.04
E4 -0.01 0.01 -0.07 0.15 0.00 0.10 0.12 -0.05 0.45 -0.10
E5 0.00 0.02 -0.13 0.01 0.06 0.16 0.09 -0.04 -0.10 0.56

In Tabel 23.10 staan de residuen van het model na varimax rotatie. De reden dat deze gelijk zijn, is dat rotatie verandert hoe de beide componenten zijn samengesteld. Sommige items worden na rotatie wat meer verklaard door de ene component en wat minder door de andere component; maar de proportie verklaarde variantie blijft steeds gelijk.

Tabel 23.10: De residuen na het reproduceren van de covariantiematrix (in dit geval, de correlatiematrix) met twee componenten, en met varimax rotatie.
O1 O2 O3 O4 O5 E1 E2 E3 E4 E5
O1 0.50 0.16 -0.11 -0.13 0.15 0.01 0.01 -0.04 -0.01 0.00
O2 0.16 0.77 0.08 0.13 -0.07 0.05 0.06 0.23 0.01 0.02
O3 -0.11 0.08 0.41 -0.11 0.10 0.00 0.00 0.00 -0.07 -0.13
O4 -0.13 0.13 -0.11 0.49 0.17 -0.06 0.01 0.11 0.15 0.01
O5 0.15 -0.07 0.10 0.17 0.52 0.05 0.04 0.09 0.00 0.06
E1 0.01 0.05 0.00 -0.06 0.05 0.42 -0.08 0.12 0.10 0.16
E2 0.01 0.06 0.00 0.01 0.04 -0.08 0.35 0.14 0.12 0.09
E3 -0.04 0.23 0.00 0.11 0.09 0.12 0.14 0.54 -0.05 -0.04
E4 -0.01 0.01 -0.07 0.15 0.00 0.10 0.12 -0.05 0.45 -0.10
E5 0.00 0.02 -0.13 0.01 0.06 0.16 0.09 -0.04 -0.10 0.56

De residuen zijn ook weer een informatiebron die kan helpen bij het bepalen hoeveel componenten je wil ‘trekken’, zoals dat heet. In de praktijk combineer je die informatiebronnen. Dit wordt meer in detail besproken na de paragraaf over Exploratieve Factor-Analyse.

23.3.13 Puntschattingen en betrouwbaarheidsintervallen

Het is belangrijk om altijd te onthouden dat de oorspronkelijke geobserveerde correlatiematrix of covariantiematrix is berekend op basis van data uit een steekproef. Die correlaties of covarianties (en varianties) zijn dus in elke steekproef anders.

Zoals altijd is het daarom ook bij PCA (en EFA, zoals zal worden besproken in de volgende paragraaf) belangrijk om geen conclusies te baseren op puntschattingen. Puntschattingen (de specifieke correlatie, eigenwaarde, lading, of proportie verklaarde variantie die in een gegeven steekproef zijn gevonden) bestaan voor een deel uit meetfout, steekproeftoeval, en andere vormen van ruis. Soms maar een klein beetje, maar soms fors.

En zoals altijd is het daarom ook bij PCA (en EFA) belangrijk om een indruk te krijgen van hoe accuraat de schattingen zijn. Dit kan met betrouwbaarheidsintervallen. In Figuur 23.6 is de scattermatrix met de betrouwbaarheidsintervallen voor de oorspronkelijke geobserveerde correlaties te zien.

Een scattermatrix voor de vijf Openheid-items en de vijf Extraversie-items.

Figuur 23.6: Een scattermatrix voor de vijf Openheid-items en de vijf Extraversie-items.

Aan deze betrouwbaarheidsintervallen is duidelijk te zien dat de residuen erg klein zijn in vergelijking met de ruis die toch al in deze correlaties zit. De geobserveerde correlaties kunnen zomaar \(r=.1\) hoger of lager zijn, en sommige betrouwbaarheidsintervallen hebben zelfs een totale breedte van meer dan \(r=.3\), waardoor die correlaties in de populatie zomaar eens \(r=.15\) hoger of lager zouden kunnen zijn.

Vanuit dit perspectief zijn de residuen vrij klein: de afwijking in onze gereproduceerde correlatiematrix is in dezelfde orde van grootte, kleiner zelfs, dan de afwijkingen die we sowieso zouden verwachten in een nieuwe steekproef.

De breedte van deze betrouwbaarheidsintervallen hangt af van de omvang van de steekproef. De steekproef waar we hier naar kijken bevat \(223\) deelnemers. Als de steekproef groter was geweest, hadden we de correlaties accurater kunnen schatten, en waren de betrouwbaarheidsintervallen nauwer geweest.

Niet alleen de correlaties springen heen en weer van steekproef tot steekproef. De hele PCA is gebaseerd op die correlatie- of covariantiematrix, en omdat die in elke steekproef anders is, zijn de eigenwaarden, componenten, ladingen, en alle andere dingen die in een PCA (of EFA) worden berekend in elke steekproef anders.

Om dit te laten zien staan in tabel 23.11 de ladingen voor drie PCAs in drie nieuwe steekproeven van dezelfde omvang, die we gemakshalve ‘Twee’, ‘Drie’, en ‘Vier’ noemen.

Tabel 23.11: Ladingen in drie andere steekproeven (‘Twee’, ‘Drie’, en ‘Vier’).
Twee, PC1 Twee, PC2 Drie, PC1 Drie, PC2 Vier, PC1 Vier, PC2
O1 0.16 0.62 0.31 0.52 0.17 0.67
O2 -0.13 -0.47 0.06 -0.63 0.03 -0.73
O3 0.33 0.73 0.28 0.73 0.40 0.66
O4 -0.28 0.52 -0.30 0.54 -0.35 0.42
O5 -0.01 -0.70 -0.02 -0.66 -0.11 -0.64
E1 -0.66 -0.11 -0.62 0.10 -0.72 -0.10
E2 -0.78 -0.14 -0.74 -0.01 -0.82 0.02
E3 0.57 0.52 0.67 0.31 0.65 0.19
E4 0.72 -0.11 0.76 -0.10 0.77 0.00
E5 0.65 0.18 0.61 0.29 0.55 0.35

Hier is duidelijk te zien hoeveel de ladingen heen en weer kunnen springen. Een lading die in de ene steekproef \(\lambda_{O1,PC1}=.16\) is (steekproef Twee), kan in de andere steekproef zomaar \(\lambda_{O1,PC1}=.31\) zijn (steekproef Drie); en een lading van \(\lambda_{E3,PC2}=.52\) in de ene steekproef (steekproef Twee) kan in een andere steekproef zomaar \(\lambda_{E3,PC2}=.19\) zijn.

Welke lading ‘waar’ is, kun je pas weten nadat je meerdere steekproeven hebt genomen. Daarom is het verstandig om, als je maar een steekproef tot je beschikking hebt, je sceptisch op te stellen jegens puntschattingen. Overigens is het mogelijk om betrouwbaarheidsintervallen te berekenen voor ladingen. Dit kan echter vooralsnog alleen met R, en valt buiten het curriculum. Voor nu is de boodschap dus: vertrouw puntschattingen niet te veel, en wees dus terughoudend met interpretatie.

23.4 Soorten en meetmodellen

Met PCA proberen we componenten samen te stellen om een covariantiematrix zo goed mogelijk te reproduceren met zo weinig mogelijk componenten. Dat is vaak nuttig, maar bij onderzoek naar mensen meestal juist niet. Als je variabelen items uit een vragenlijst zijn, zit er meetfout in de metingen die je verzamelt, en bovendien meet elk item vaak ook andere stukjes psychologie, die niet noodzakelijk meetfout zijn, maar ook geen deel uitmaken van bijvoorbeeld Extraversie of Openheid.

Daarom bestaat de variantie van elk item voor een nontriviaal deel uit variantie waar we helemaal niet in geïnteresseerd zijn. Zo bekeken kun je stellen dat PCA aanneemt dat alle items perfect zijn gemeten: de componenten worden zo gekozen dat zowel de covarianties als de varianties van elk item zo goed mogelijk kunnen worden gereproduceerd.

In de psychologie en gerelateerde velden zoals onderwijswetenschappen of managementwetenschappen is die benadering verkeerd. Daar werken we meestal vanuit het model dat er een reden is voor de samenhang tussen groepjes items: dat er bepaalde regulariteiten bestaan in de psychologie van mensen, en dat die regulariteiten een rol spelen bij het beantwoorden van de items. In andere woorden: we hebben vaak een idee over constructen die stukjes psychologie beschrijven, en we nemen aan dat die stukjes psychologie een causale rol spelen bij de responsen van de deelnemers. Hier komen de soorten uit hoofdstuk Constructen en de meetmodellen uit hoofdstuk Constructen Meten terug.

PCA hoort bij het formatieve meetmodel: hierbij veronderstel je niet dat er een natuurlijke soort is, maar je construeert een variabele om pragmatische redenen. Je construct is dan dus een praktische soort, zonder enige pretentie op correspondentie met psychologische regulariteiten. Echter, in wetenschappelijk onderzoek in de psychologie en gerelateerde velden onderzoeken we vaak constructen, en dat zijn geen praktische soorten.

Als je psychologische constructen onderzoekt, gebruik je meestal een reflectief meetmodel of een netwerk meetmodel. Als je veronderstelt dat er een latent construct bestaat dat verantwoordelijk is voor de scores op de items, dan kan in plaats van componenten-analyse factor-analyse worden gebruikt. Dat bespreken we in de volgende paragraaf. Als je een netwerk meetmodel hanteert kun je ook geen factor-analyse gebruiken; dan zijn er aparte methoden die buiten het curriculum vallen, maar waarvan heel kort wat verwijzingen staan in de laatste paragraaf van die hoofdstuk.

23.5 EFA: Exploratieve Factor-Analyse

Als je onderzoek doet naar mensen is een Principale Componenten-Analyse dus meestal fout, en voer je in plaats daarvan vaak een Exploratieve Factor-Analyse uit. Die is ietsje ingewikkelder, maar niet veel, en nu we de PCA hebben uitgelegd kunnen we die extra stap wel maken.

23.5.1 Alleen communaliteiten

ALs je veronderstelt dat de scores op de items worden veroorzaakt door een of meerdere latente variabelen (e.g. psychologische constructen), dan hanteer je een een reflectief meetmodel, zoals geïllustreerd in Figuur 6.2 in hoofdstuk Constructen Meten. Deze figuur is echter versimpeld: de score op items wordt niet uitsluitend bepaald door het construct, maar ook door allerlei andere zaken, zoals andere constructen, meetfout, en andere bronnen van ruis. Figuur 23.7 is daarom vollediger.

Een reflectief meetmodel.

Figuur 23.7: Een reflectief meetmodel.

Die ‘error’-termen bestaan niet in PCA: bij PCA wordt uitgegaan van perfecte meting. Daarom is het doel om de volledige covariantiematrix te reproduceren: als PCA uit zou gaan van meetfout, dan zou PCA een poging doen om rekning te houden met die ruis.

Exploratieve Factor-Analyse doet dat wel, met een heel slim truukje: in plaats van dat de factoren (wat bij PCA componenten heten, heten bij factor-analyse opeens factoren) zo samen te stellen dat ze de volledige correlatie- of covariantiematrix zo goed mogelijk kunnen reproduceren, worden de varianties van de items eerst vervangen door de communicaliteit.

De communaliteit was dat deel van de variantie in een item dat het deelt met de andere componenten (in PCA) of de factoren (in EFA). Het complement van de communicaliteit was de uniciteit: de unieke variantie in het item. Binnen een reflectief meetmodel neem je aan dat de gedeelde variantie komt door de onderliggende factor of factoren: dat zijn de latente constructen. De uniciteit is dan dus error: daar ben je niet in geïnteresseerd, en je wil je factoren dus ook niet zo kiezen dat ze proberen om die error te verklaren.

In de diagonaal van de correlatie- of covariantiematrix staan de varianties van de items (of, in het geval van de correlatiematrix, de gestandaardiseerde varianties, die altijd \(1\) zijn). Als we die vervangen door dat deel van de variantie van elk item dat het deelt met de factoren die we gaan trekken (kiezen/selecteren), dan worden de factoren tenminste niet afgestemd op de error.

De uitdaging is: hoe komen we aan die communaliteiten? Want die zijn het resultaat van de factor-analyse, en hebben we dus nog niet voordat we de factor-analyse uitvoeren… De oplossing is om de proportie verklaarde variantie te nemen (\(R^2\)). Dit is de gekwadrateerde zogenaamde multipele correlatie (\(R\)). Ditkan worden berekend met een regressie-analyse. Als we een regressie-analyse uitvoeren waarin we het eerste item als afhankelijke variabele specificeren (ook wel het ‘criterium’ genoemd in de context van regressie-analyse), en alle andere items als voorspellers (ook wel de ‘covariaten’ genoemd in de context van regressie-analyse), dan krijgen we de proportie verklaarde variantie in dat eerste item aan de hand van al die andere items.

Die \(R^2\) is een schatting van hoeveel overlap er is tussen dat eerste item enerzijds, en alle andere items anderzijds. Omdat we binnen een reflectief meetmodel aannemen dat die overlappende variantie wordt veroorzaakt door een of meer onderliggende latente constructen, is die proportie verklaarde variantie (\(R^2\)) een goede schatting voor de communaliteit. We doen dus voor elk item een regressie-analyse met alle andere items als voorspellers, en vullen dan de reeks aan \(R^2\)-schattingen die we krijgen in op de diagonaal van de correlatiematrix.17

Vervolgens voeren we de factor-analyse uit. De factoren worden dan zodanig gekozen dat die aangepaste correlatie- of covariantiematrix zo goed mogelijk kan worden gereproduceerd; en daar rollen dan communaliteiten uit. Die communaliteiten hangen af van het aantal factoren dat we trekken. Omdat we altijd minder factoren trekken dan er items zijn, zijn de communaliteiten dus lager dan de \(R^2\). Daarom vullen we vervolgens die communaliteiten weer in, en herhalen we de factor-analyse. Daar komen dan weer iets bijgestelde communaliteiten uit. Dan vullen we die weer in; en dat herhalen we totdat de communaliteiten niet meer veranderen.

23.5.2 EFA met Openheid en Extraversie

We herhalen nu de EFA waar we het stukje over PCA mee afsloten: met de vijf Openheid-items en de vijf Extraversie-items. We passen gelijk de varimax-rotatie toe, en we trekken weer twee factoren.

Tabel 23.12: De factorladingen in een EFA met de vijf Openheid items en vijf Extraversie items, twee factoren, en een varimax rotatie.
MR1 MR2
O1 0.13 0.59
O2 -0.11 -0.33
O3 0.30 0.66
O4 -0.24 0.51
O5 -0.07 -0.56
E1 -0.68 0.01
E2 -0.76 -0.05
E3 0.53 0.26
E4 0.66 0.03
E5 0.52 0.24

Deze resultaten zijn iets anders dan de uitkomsten van de principale component-analyse, doordat we nu rekening houden met het feit dat er meetfout in de items zit. Deze ladingen representeren dus beter hoe sterk de items en de twee factoren (die de latente constructen representeren) samenhangen. Deze factoren zijn gebaseerd op de aanname dat ze onafhankelijk (orthogonaal) zijn: varimax is een orthogonale rotatie. We kunnen deze strike aanname ook laten vieren, als het plausibel is dat de twee latente constructen met elkaar samenhangen. In dat geval moeten we een oblique rotatie toepassen: oblimin. De factorladingen die we dan verkrijgen staan in Tabel 23.13.

Tabel 23.13: De factorladingen in een EFA met de vijf Openheid items en vijf Extraversie items, twee factoren, en een oblimin rotatie.
MR1 MR2
O1 0.04 0.60
O2 -0.05 -0.33
O3 0.19 0.65
O4 -0.33 0.54
O5 0.03 -0.57
E1 -0.69 0.05
E2 -0.76 0.00
E3 0.49 0.23
E4 0.66 -0.01
E5 0.49 0.21

Als de twee constructen waarvan we aannemen dat ze de scores op de items veroorzaken inderdaad met elkaar samenhangen, dan kloppen deze factorladingen nog weer beter dan die met de varimax-rotatie. We kunnen ook kijken hoe sterk de resulterende factoren correleren: in dit geval is dat \(r = .3\). Het lijkt er dus op dat oblimin inderdaad een betere rotatie is dan varimax. De factorladingen in Tabel 23.13 zijn dus de beste schatting van de samenhang tussen de items en de factoren.

Als de factoren oblique zijn geroteerd (en dus correleren) overlappen ze in hun “verklaring” van de items. Door die overlap is de proportie verklaarde variantie van de factor niet langer gelijk aan de som van de gekwadrateerde factorladingen ten opzichte van de totaal de verklaren variantie (oftewel, het aantal items als de correlatiematrix wordt geanalyseerd). In de praktijk maakt dit niet uit: je rekent dit immers nooit met de hand uit.

23.6 Het aantal factoren kiezen

Bij factor-analyse geldt, net als in andere wetenschappelijke methoden en statistische technieken, dat die subjectief is, en dat er tijdens de analyse veel keuzes worden gemaakt.

Soms zijn dingen heel duidelijk: in dit geval is er wellicht een degelijke onderbouwing te geven voor drie factoren, en zeker voor twee factoren, maar waarschijnlijk niet voor een enkele factor of voor vier factoren. Het onderscheid tussen twee of drie factoren is al minder vanzelfsprekend, en daarom is het belangrijk om alle informatiebronnen te combineren.

In dit hoofdstuk zijn de volgende informatiebronnen besproken:

  • het Kaiser criterium;
  • de scree plot;
  • de residuele correlaties of covarianties;
  • theorie en interpretatie.

Er bestaan nog andere criteria, die buiten het curriculum vallen, maar belangrijk zijn om over te leren als je ooit echt een factor-analyse gaat doen. Deze zijn:

  • Kijken naar de ‘fit’ door middel van \(\chi^2\);
  • Parallelle analyse;
  • Het Very Simple Structure (VSS) criterium;
  • Het Minimum Average Partial (MAP) criterium.

Hoe groter de steekproef, hoe accurater de correlaties geschat kunnen worden, en hoe vaker deze criteria zullen convergeren; tenminste, als de inderdaad een bepaald aantal onderliggende factoren is.

23.7 Steekproefomvang voor factor-analyse

Als je exploratieve factor-analyse uitvoert om te onderzoeken welke factoren er zijn, dus tijdens de ontwikkeling van een meetinstrument, is het moeilijk om te berekenen hoe groot de steekproef is die je nodig hebt. Dat komt omdat de benodigde steekproefomvang afhangt van meerdere dingen die je dan nog niet weet, zoals het aantal factoren, de lading van de items die op ‘hun’ factor laden, en de correlatie tussen de factoren. De benodigde steekproefomvang verschilt voor de ontwikkeling van meetinstrumenten en de verificatie van validiteit van eenmaal ontwikkelde meetinstrumenten.

23.7.1 Ontwikkeling van meetinstrumenten

De benodigde steekproefomvang is lager naarmate de communaliteiten hoger zijn, de factorladingen hoger zijn, en er meer items per factor zijn (Kyriazos, 2018; Winter* et al., 2009). Als je echt exploratief werkt, weet je dit allemaal nog niet.

Om die reden zijn steekproefomvangen die worden gesuggereerd voor factor-analyse vaak gebaseerd op vuistregels. In een boek van Comrey en Lee (1992) noemen ze bijvoorbeeld \(100\) deelnemers ‘slecht’; \(200\) ‘redelijk’; \(300\) ‘goed’; \(500\) ‘heel goed’; en \(1000\) of meer, ‘uitstekend’.

Er zijn echter ook simulaties uitgevoerd om meer grip te krijgen op wanneer nu precies hoeveel deelnemers nodig zijn. Op basis daarvan worden de volgende suggesties gedaan (MacCallum et al., 1999).

In het beste geval, als je zeker weet dat er maar enkele factoren zijn en de communaliteiten hoog zijn, kunnen \(100\) deelnemers volstaan (MacCallum et al., 1999). Dat is echter het meest optimistische scenario, en daar kun je niet vanuitgaan tijdens de ontwikkeling van een meetinstrument.

Dan moet je er rekening mee houden dat de communaliteiten lager kunnen zijn, en het aantal factoren hoger. Als de communaliteiten rond de \(.5\) liggen zijn \(100-200\) deelnemers voldoende, maar alleen als je zeker weet dat er maar weinig factoren zijn waar alle items op laden. Als de communaliteiten lager liggen, en er bovendien voor elke factor een paar (\(3-4\)) items zijn die er hoog op laden, dan zijn er minstens \(300\) deelnemers nodig. Als je er niet vanuit kunt gaan dat er maar weinig factoren zijn, of dat er sowieso een aantal hoog ladende items per factor zijn, dan kan het verstandig zijn om minstens \(500\) deelnemers te werven.

MacCullum et al. (1999) suggereren daarom om een zo groot mogelijke steekproef te werven bij de ontwikkeling van meetinstrumenten. Ze suggereren verder om de items te beperken tot items die theoretisch relatief dicht bij elkaar zouden moeten liggen. Het onderzoeken van meetinstrumenten die meerdere constructen combineren vereist meer deelnemers dan vaststellen dat een meetinstrument slechts één construct meet.

Een richtlijn hierbij is ook het aantal deelnemers dat nodig is voordat een correlatie stabiliseert. Zoals in hoofdstuk Correlaties wordt besproken zijn er ongeveer \(400\) deelnemers nodig om een lage correlatie (\(r \approx .1\)) te schatten met een \(95\%\) betrouwbaarheidsinterval met een totale breedte van ongeveer \(.2\). Om een stabielere schatting te krijgen, een \(95\%\) betrouwbaarheidsinterval met een maximale totale breedte van \(.1\), volstaan \(1000\) deelnemers bij een minimale correlatie van \(r \approx .4\), en zijn meer deelnemers nodig om lagere correlaties accuraat te schatten.

Dat er zoveel deelnemers nodig zijn voordat je er op kunt vertrouwen dat correlaties van steekproef tot steekproef ongeveer dezelfde waarde krijgen, verklaart deels waarom er zoveel deelnemers nodig zijn voor factor-analyse. Uiteindelijk is factor-analyse een manier om naar correlatie-matrices te kijken.

Als de variabelen dichotoom zijn, zijn de benodigde steekproeven overigens nog groter (Pearson & Mundform, 2010): dat geldt altijd als er minder meetwaarden zijn, omdat er informatie over variantie verloren gaat.

23.7.2 Verificatie van validiteit

Als een meetinstrument al is ontwikkeld, is de situatie anders. De items zijn dan al geselecteerd op basis van, onder andere, hun communaliteit en factorladingen. Bovendien zijn die bekend uit de eerdere analyses. Dat betekent dat het niet langer nodig is om de steekproefomvang in te stellen op tegenvallende (lage) communaliteiten of meer factoren dan verwacht.

Dit betekent dat vaak kleinere steekproeven zullen volstaan, en bovendien dat de ontwikkelaars van het meetinstrument hebben kunnen specificeren hoeveel deelnemers nodig zijn. De richtlijnen die zij geven kun je volgen; en als zij geen richtlijnen gaven, dan weet je in elk geval alvast hoeveel factoren er zijn en hoe hoog de factorladingen en communaliteiten zijn, zodat je kunt opzoeken hoeveel deelnemers je ongeveer nodig hebt.

Soms werven onderzoekers die een meetinstrument ontwikkelen te weinig deelnemers tijdens het ontwikkelings- en validatieonderzoek. In dat geval kun je minder vertrouwen hebben in de factoren, factorladingen, en communicaliteiten die ze rapporteren. In zulke gevallen is niet duidelijk wat de betekenis is van afwijkende resultaten. Als de oorspronkelijke onderzoekers bijvoorbeeld maar \(200\) deelnemers gebruikten, dan kan het goed zijn dat de factorstructuur die zij vonden in hun steekproef minder representatief is voor de factorstructuur in de populatie dan de factorstructuur in jouw steekproef.

Een afwijking kan dan dus een manifestatie zijn van steekproef- of meetfout in de steekproef van de oorspronkelijke onderzoekers, maar kan ook een indicatie zijn dat het meetinstrument niet valide is toegepast in jouw huidige steekproef. Hier is dan niet goed uitsluitsel over te krijgen. Het kan dus verstandig zijn om meetinstrumenten die zijn gevalideerd met onvoldoende grote steekproeven te vermijden.

23.8 CFA: Confirmatieve Factor-Analyse

Exploratieve factor-analyse is de aangewezen methode in exploratief onderzoek: als de onderzoeker nog niet weet welke factoren te verwachten zijn. Vaak zijn daar wel al ideeën over. In dat geval is confirmatieve factor-analyse de goede methode.

In confirmatieve factor-analyse specificeer je welke items onder welke factor(en) vallen. Die items laden vervolgens alleen op de factor waar ze bij horen, en alle variantie die ze niet delen met die factor wordt beschouwd als ruis (als error).

Confirmatieve factor-analyse is heel geschikt om verschillende modellen te vergelijken. Doordat er standaard een serie zogenaamde “fit indices” worden gegenereerd zijn er veel hulpmiddelen om te kijken hoe goed de modellen in vergelijking met elkaar de covariantiematrix kunnen reproduceren.

Confirmatieve factor-analyse is standaard beschikbaar in jamovi en R, maar vereist in SPSS de aankoop van een aparte module (“Amos”).

23.9 Netwerk-meetmodellen

Netwerk-meetmodellen zijn nog relatief nieuw, en kunnen nog alleen worden toegepast in R. Er is een Open Access introductie beschikbaar van Marsmanb et al. (2018), en de website https://psych-networks.com/ bevat veel blog posts die goed gebruikt kunnen worden ter orientatie.

Referenties

Abdi, H. (2003). Factor rotations in factor analyses. Encyclopedia for Research Methods for the Social Sciences. Sage: Thousand Oaks, CA, 792–795.
Kyriazos, T. A. (2018). Applied Psychometrics: Sample Size and Sample Power Considerations in Factor Analysis (EFA, CFA) and SEM in General. Psychology, 09(08), 2207–2230. https://doi.org/ggcvgs
MacCallum, R. C., Widaman, K. F., Zhang, S., & Hong, S. (1999). Sample size in factor analysis. Psychological Methods, 4(1), 84. https://doi.org/bhr39c
Marsman, M., Borsboom, D., Kruis, J., Epskamp, S., Bork, R. van, Waldorp, L. J., Maas, H. L. J. van der, & Maris, G. (2018). An Introduction to Network Psychometrics: Relating Ising Network Models to Item Response Theory Models. Multivariate Behavioral Research, 53(1), 15–35. https://doi.org/gfj8tt
Pearson, R. H., & Mundform, D. J. (2010). Recommended Sample Size for Conducting Exploratory Factor Analysis on Dichotomous Data. Journal of Modern Applied Statistical Methods, 9(2), 359–368. https://doi.org/c7dn
Winter*, J. C. F. de, Dodou*, D., & Wieringa, P. A. (2009). Exploratory Factor Analysis With Small Sample Sizes. Multivariate Behavioral Research, 44(2), 147–181. https://doi.org/bczhf7

  1. Hoewel de eerste vaak intuitiever wordt gevonden, is de tweede technisch correct. Uiteindelijk is altijd helder waarnaar wordt verwezen, dus maakt het niet veel uit.↩︎

  2. Leuk weetje: de correlatie is gelijk aan de cosinus van deze hoek: de cosinus van \(90\circ\) is \(0\).↩︎

  3. Als we een covariantiematrix willen analyseren, vermenigvuldigen we die \(R^2\) met de variantie van elk item. Dat is eigenlijk ook wat we doen bij de correlatiematrix, maar omdat de variantie van elk item daar \(1\) is, komt dat erop neer dat we gewoon de \(R^2\) invullen.↩︎