Hoofdstuk 17 Ontbrekende waarden

In dit hoofdstuk wordt besproken:
  • welk proces ten grondslag kan liggen aan ontbrekende waarden
  • hoe je met ontbrekende waarden kan omgaan.
Deze stof wordt behandeld in de volgende Open Universiteitscursus(sen):
  • Onderzoekspractium bachelor thesis (PB9916)
Dit hoofdstuk bouwt voort op deze andere hoofstukken:
  • Data-screening

17.1 Inleiding

Ontbrekende gegevens (missings) zijn gegevens die niet zijn geregistreerd voor een variabele voor de betreffende respondent. Ontbrekende gegevens verminderen de statistische power van de analyse, wat de validiteit van de resultaten kan verstoren.

Bij het omgaan met ontbrekende gegevens kunnen twee methoden worden gebruikt: imputatie of verwijdering van gegevens. De imputatiemethode probeert redelijke schattingen voor ontbrekende gegevens te vinden en vervangt de ontbrekende gegevens door deze schattingen. Dit is vooral handig wanneer het percentage ontbrekende gegevens laag is. Als het percentage ontbrekende gegevens hoog is, dan wordt het resultaat van imputeren onbetrouwbaar. De andere optie is om gegevens te verwijderen. Bij het omgaan met gegevens die willekeurig ontbreken, kunnen de bijbehorende gegevens van dezelfde respondent worden verwijderd om eventuele vertekening te verminderen. Het verwijderen van gegevens is meestal niet de beste optie als er niet genoeg waarnemingen zijn om een betrouwbare analyse uit te voeren. Dan is er nog een derde optie en dat is niets doen. Deze optie komt in de praktijk meestal neer op het verwijderen van gegevens, aangezien de analysesoftware automatisch personen met ontbrekende waarden buiten de analyse zal houden.

17.2 Het proces achter ontbrekende waarden

Alvorens te beslissen welke aanpak moet worden gebruikt, moet men begrijpen waarom de gegevens ontbreken, dus welk proces er aan de missings ten grondslag ligt: het missing proces. Ontbrekende data kunnen voorkomen in verschillende situaties, die we hieronder bespreken.

17.2.1 Missing Completely At Random (MCAR)

In de MCAR-situatie ontbreken gegevens, ongeacht de verwachte waarde of de waarden van andere variabelen. Hierbij wordt aangenomen dat de missings totaal willekeurig zijn en er dus geen reden is om te verwachten dat hoge dan wel lagere waarden vaker ontbreken dan andere waarden. Met andere woorden: het missing proces is onafhankelijk van de uitkomst van de meting en van alle andere geobserveerde dan wel niet-geobserveerde karakteristieken van respondenten. Ieder persoon (rij van de de dataset) heeft een even grote kans om een ontbrekende waarde te hebben op een bepaalde variabele. Er kunnen bijvoorbeeld gegevens ontbreken door testontwerp of fouten in de software die de gegevens moest vastleggen. Dit patroon van ontbrekende waarden wordt gezien als MCAR omdat de redenen voor het ontbreken ervan extern zijn en niet gerelateerd aan de waarde van de waarneming. Het is doorgaans veilig om MCAR-gegevens te verwijderen omdat de resultaten geen systematische vertekening zal geven. De statistische tests hebben dan meestal minder power, maar de resultaten zullen wel betrouwbaar zijn.

17.2.2 Missing at Random (MAR)

Wanneer het proces waardoor de ontbrekende waarden zijn ontstaan willekeurig (missing at random) is, wordt aangenomen dat de missings niet afhangen van de “werkelijke” waarden zelf, maar wel af kunnen hangen van bijvoorbeeld het niveau van de vorige waarnemingen of van andere karakteristieken van de respondent. Met andere woorden: het missing proces is afhankelijk van geobserveerde eerdere metingen of bekende karakteristieken. Binnen een groep gedefinieerd door de waarden van geobserveerde variabelen is de kans voor iedereen gelijk om een ontbrekende waarde te hebben. De ontbrekende gegevens kunnen in principe worden geschat op basis van de volledig waargenomen gegevens, hetgeen wordt aangeduid met de term “imputeren”. Bij zowel MCAR als MAR wordt ook wel gesteld dat het proces waarmee de ontbrekende waarden zijn ontstaan ignorable is. De aanname van een ignorable proces stelt dat er voldoende informatie in de data aanwezig is om voor de ontbrekende waarden te corrigeren. In het algemeen is het dan beter deze informatie te gebruiken in plaats van ontbrekende data te verwijderen.

17.2.3 Missings Not At Random (MNAR)

De categorie MNAR is van toepassing wanneer de ontbrekende gegevens een structuur hebben of we simpelweg niet weten waarom waarden ontbreken. Hierbij wordt aangenomen dat de missings niet willekeurig zijn en beïnvloed worden door processen die niet geobserveerd zijn, het missing proces wordt dan nonignorable genoemd. Met andere woorden: het missing proces is afhankelijk van (nog) niet geobserveerde metingen of onbekende karakteristieken van de respondenten. Men moet de ontbrekende gegevens eerst nauwkeurig modelleren om een goede data-analyse te kunnen doen. Het simpelweg verwijderen van waarnemingen met ontbrekende gegevens die MNAR zijn, kan resulteren in een model met vertekening.

17.3 Verwijderen van ontbrekende waarden

Er zijn in principe drie methoden voor het verwijderen van gegevens bij het omgaan met ontbrekende gegevens: personen lijstgewijs (complete case analysis) of paarsgewijs verwijderen, en variabelen volledig verwijderen.

17.3.1 Lijstgewijs verwijderen

Bij lijstsgewijs verwijderen worden alle gegevens verwijderd van een respondent met een of meer ontbrekende waarden. Alleen respondenten blijven over voor analyse bij wie alle variabelen een waarde hebben. Deze techniek wordt vaak gebruikt omdat het de standaardoptie is in veel software. Met andere woorden als de onderzoeker niets doet met missing data, het probleem als het ware negeert, dan past hij impliciet de lijstgewijze verwijdering toe van de rijen met ontbrekende waarden. Wanneer de ontbrekende waarden MCAR zijn is deze methode correct, maar vaak is lijstgewijs verwijderen niet de juiste methode. Dit komt omdat aan de veronderstellingen van MCAR zelden wordt voldaan. Hierdoor geeft lijstgewijs verwijderen onzuivere schattingen van de gewenste parameters. Ook kan het de power van de schattingen verlagen.

17.3.2 Paarsgewijs verwijderen

Paarsgewijze verwijdering (ook wel: analyse van beschikbare gevallen) probeert het dataverlies dat optreedt bij lijstgewijze verwijdering te minimaliseren. Een gemakkelijke manier om te bedenken hoe paarsgewijze verwijdering werkt, is door te denken aan een correlatiematrix. Een correlatie meet de sterkte van de relatie tussen twee variabelen. Voor elk paar variabelen waarvoor beide gegevens beschikbaar zijn, kan de correlatiecoëfficiënt worden berekend. Maar wanneer bij een respondent één gegeven van een paar ontbreekt dan kan voor die respondent geen correlatie worden berekend, dus die respondent wordt “verwijderd”. Voor de correlatie tussen twee andere variabelen kan een andere respondent eventueel worden verwijderd als bij deze respondent een waarde ontbreekt.Paarsgewijze verwijdering gebruikt dus alle beschikbare gegevens voor een analyse, er wordt zo min mogelijk verwijderd.

Een sterk punt van deze techniek is dat het de power van de analyse vergroot. Hoewel deze techniek doorgaans de voorkeur heeft boven lijstgewijze verwijdering, wordt er ook van uitgegaan dat de ontbrekende gegevens MCAR zijn. Er zijn echter ook nadelen. Een nadeel van het gebruik van paarsgewijze verwijdering is dat de standaardfout niet correct kan worden berekend door een softwarepakket, wat vertekening kan geven. Soms kan een bepaalde analyse helemaal niet worden uitgevoerd omdat er een probleem kan ontstaan met de correlatiematrix, die niet voldoet aan bepaalde wiskundige eigenschappen, die in sommige analyses worden gebruikt.

Paarsgewijze verwijdering kan een geschikte optie zijn als de aanname van MCAR redelijkerwijs kan worden gedaan, en de data bij benadering multivariaat normaal verdeeld zijn met een niet al te hoge onderlinge correlatie.

17.3.3 Variabelen verwijderen

Als voor heel veel respondenten (bijvoorbeeld meer dan \(60\) procent, maar dit is ook afhankelijk van de grootte van de dataset) de gegevens voor een bepaalde variabele ontbreken, kan het verstandig zijn om deze variabele in zijn geheel te verwijderen, mits deze niet essentieel is voor de analyse.

17.4 Imputeren

Als er gegevens ontbreken, kan het zinvol zijn om gegevens te verwijderen, zoals hierboven. Maar dat is meestal niet de meest effectieve optie. Als er bijvoorbeeld te veel informatie wordt weggegooid, is het niet meer mogelijk om een betrouwbare analyse uit te voeren. In plaats van verwijdering zijn er verschillende oplossingen om de ‘ware’ waarden van de ontbrekende gegevens zo goed mogelijk te schatten. De ontbrekende gegevens worden vervolgens vervangen door deze schattingen. Dit wordt imputeren genoemd. Afhankelijk van de reden waarom de gegevens ontbreken, kunnen imputatiemethoden redelijk betrouwbare resultaten opleveren. Er zijn heel veel imputatiemethoden, hieronder bespreken we enkele veelvoorkomende.

17.4.1 Onafhankelijke data

Allereerst noemen we enkele methoden waarbij de waarden onafhankelijk zijn van elkaar. Dit zal vaak het geval zijn bij cross-sectionele data.

17.4.1.1 Gemiddelde, mediaan en modus

Wanneer slechts een klein aantal waarnemingen ontbreekt, kan men het gemiddelde of de mediaan van de waarnemingen op een bepaalde variabele berekenen en deze waarde gebruiken om de ontbrekende waarden op deze variabele mee te schatten. Een variant voor nominale variabelen is om de modus te gebruiken om mee te imputeren. Dit is een van de meest eenvoudige methoden voor het imputeren van ontbrekende gegevens.

Als er echter relatief veel ontbrekende gegevens zijn, kan dit leiden tot verlies van variatie in de gegevens. De datareeks bevat dan namelijk veel waarden die precies het gemiddelde (of mediaan) zijn, waardoor de verdeling sterk gepiekt wordt. De lagere variantie van een dergelijke variabele zal ook leiden tot lagere standaardfouten en dus tot verkeerde toetsresultaten. Als de ontbrekende waarden MCAR zijn, dan wordt het gemiddelde wel zuiver geschat, maar de correlaties tussen variabelen worden vertekend. Om dit probleem (deels) te verhelpen kan er willekeurige ruis worden toegevoegd aan het te imputeren gemiddelde, uiteraard verschillend voor iedere geïmputeerde waarde. De ruisterm wordt bijvoorbeeld getrokken uit een normaalverdeling met gemiddelde 0 en variantie gelijk aan die van de waargenomen datareeks.

17.4.1.2 Hot-deck-imputatie

Bij hot-deck-imputatie wordt de ontbrekende waarde vervangen door een willekeurige andere waarde uit de datareeks. Soms kan deze donorwaarde genomen worden van een respondent die op basis van bepaalde karakteristieken lijkt op de respondent met de ontbrekende waarde (matching), bijvoorbeeld iemand met dezelfde leeftijd en hetzelfde opleidingsniveau. Ook kan een donor worden worden gekozen met een waarde die dicht ligt bij een op regressie gebaseerde voorspelling (predictive mean matching). Hieraan ligt de aanname ten grondslag dat deze karakteristieken samenhangen met de waarden op de te imputeren variabelen.

17.4.1.3 Op regressie gebaseerde imputatie

Deze methode maakt gebruik van de samenhang tussen de variabelen. Op basis van de waargenomen waarden wordt een regressieanalyse uitgevoerd met de te imputeren variabele (\(Y\)) als afhankelijke variabele en een aantal relevante predictoren. Als voor een ontbrekende waarde van \(Y\) de waarden van de predictoren wel bekend zijn, kunnen voorspelde waarden worden uitgerekend en die kunnen worden gebruikt om de ontbrekende waarden van Y mee te imputeren.

Hieraan ligt de aanname ten grondslag dat de predictoren samenhangen met de te imputeren variabele, dus dat het gekozen regressiemodel een acceptabele fit heeft. De schattingen bij deze methode van de uiteindelijke analyse zijn niet zuiver, ze wijken dus naar verwachting af van de populatiewaarden en hebben een te klein betrouwbaarheidsinterval. Deze methode is risicovol omdat bepaalde verbanden in de geïmputeerde dataset kunstmatig worden versterkt. Wanneer de voorspelde waarden van het model worden gebruikt om mee te imputeren spreken we van deterministische regressie-imputatie. Ook bij deze methode kan ruis worden toegevoegd, om de variantie op te hogen. De willekeurige term kan worden getrokken uit de residuen van de regressie, dit wordt stochastische regressie-imputatie genoemd.

17.4.1.4 K-Nearest Neighbours

Deze methode is complexer en kan worden gebruikt wanneer een waarde van een nominale variabele ontbreekt. Het gaat hierbij om het classificeren van een ontbrekend datapunt in een categorie. Bij deze methode selecteert men eerst variabelen die samenhangen met de te imputeren nominale variabele (\(Y\)). Vervolgens past men een techniek toe om de datapunten van de gevonden variabelen af te beelden in een bepaalde ruimte, bijvoorbeeld principale componentenanalyse (PCA). Elk punt kan worden gelabeld met de categorieën van de nominale variabele Y. Ook het punt met de ontbrekende waarde (\(Q\)) ligt in deze ruimte, maar de categorie van Q ontbreekt.

Er wordt een afstandsmaat gekozen op basis waarvan de \(k\) dichtstbijzijnde punten rondom \(Q\) worden berekend. Als \(k = 1\) dan wordt de categorie van het dichtstbij zijnde punt gekozen om Q mee te imputeren. Bij \(k > 1\) wordt de modus van de dichtstbijzijnde buren (nearest neighbours) berekend en deze wordt gebruikt om een ontbrekende waarde van \(Q\) mee te imputeren. Bij deze methode moet men dus het aantal naaste buren en de afstandsmaat kiezen.

17.4.2 Tijdreeks-specifieke methoden

Als de gegevens van een datareeks in de tijd (of plaats) geordend zijn en dus niet onafhankelijk zijn, is een andere optie om tijdreeks-specifieke methoden te gebruiken voor imputatie.

17.4.2.2 Last Observation Carried Forward (LOCF) & Next Observation Carried Backward (NOCB)

Deze methoden worden gebruikt bij longitudinale gegevens, waarin waarnemingen ontbreken. Elke ontbrekende waarde wordt vervangen door de laatst waargenomen waarde (LOCF) of door de eerstvolgende waarde (NOCB). Ook kan een combinatie van beide methoden worden toegepast door het gemiddelde te nemen van beide waarden. Verder kunnen de methoden worden uitgebreid door meerdere waarden mee te nemen, bijvoorbeeld het gemiddelde van de eerstvolgende drie waarden. Deze methoden zijn eenvoudig te begrijpen en toe te passen, maar ook hier kunnen de schattingen onzuiver zijn, ook als de ontbrekende waarden MCAR zijn.

17.4.3 Multiple imputatie

Multiple imputatie wordt beschouwd als een goede benadering voor datasets met een grote hoeveelheid ontbrekende data. In plaats van elk ontbrekend datapunt te vervangen met een enkele waarde, worden de ontbrekende waarden van een variabele geïmputeerd met meerdere waarden die de variabiliteit van de steekproef en de onzekerheid van de geimputeerde waarde weergeven. Het imputatieproces wordt \(m\) keer herhaald om meerdere geïmputeerde datasets te maken. Elke set wordt vervolgens geanalyseerd met behulp van de standaard analytische procedures en de resultaten van meerdere analyses worden gecombineerd om een algemeen resultaat te produceren.

Door herhaalde imputaties te gebruiken wordt de totale variabiliteit in de waarden van de variabelen als gevolg van de steekproeftrekking en van het schatten van de ontbrekende waarden beter benaderd dan door slechts met één waarde te imputeren. Dit is dus een belangrijke meerwaarde in vergelijking met stochastische regressie-imputatie, waarbij wel rekening wordt gehouden met de variabiliteit (onzekerheid) van het steekproefproces, maar niet met die van het imputatieproces. Als de verschillende imputaties voor een bepaalde waarde, sterk van elkaar verschillen, dus een grote variantie hebben, dan bestaat er grote onzekerheid over de te imputeren waarde. Lijken de geïmputeerde waarden daarentegen sterk op elkaar, dan is er weinig onzekerheid. De variantie in de multipele imputaties representeert dus onzekerheid over de te imputeren waarde. Multiple imputaties kunnen statistisch geldige resultaten opleveren, zelfs als er een kleine steekproefomvang is of een grote hoeveelheid ontbrekende gegevens.

Een nadeel is de grotere complexiteit van deze methode, maar tegenwoordig is de methode standaard aanwezig in de meeste statistische software.

Traditioneel werden er bij multiple imputatie vaak maar een paar imputaties uitgevoerd, bijvoorbeeld \(m = 5\). Maar tegenwoordig wordt een hoger aantal aangeraden, zoals \(m = 50\), omdat de verdelingen dan beter kunnen worden geschat. Meer informatie over multiple imputaties kan worden gevonden in dit boek: Flexible imputation of missing data.

17.5 Voorbeelden van imputatie

Allereerst een klein voorbeeld ter illustratie.

De data bestaan uit \(12\) subjecten met scores op \(4\) variabelen (V1 tot V4). Variabele V2 bevat één missing en de andere drie variabelen hebben elk twee missings.

De subjecten met ontbrekende waarden (\(3\), \(5\) en \(7\)) zijn in groen aangegeven (zie Tabel 17.1).

Tabel 17.1: Voorbeeld data met ontbrekende waarden.
Subject V1 V2 V3 V4
1 6 5 5 1
2 2 2 1 3
3 1 NA 1 NA
4 3 2 3 4
5 NA 4 NA 5
6 2 3 5 6
7 NA 1 NA NA
8 4 3 6 6
9 2 2 4 4
10 3 3 2 3
11 3 2 3 2
12 1 2 2 4

De gemiddelden (\(M\)) van de vier variabelen zijn respectievelijk: \(M1=2.70, M2=2.64, M3=3.20, M4=3.80\). Dit zijn de gemiddelden die berekend zijn op basis van de beschikbare gegevens van elke variabele. De gemiddelden op basis van een complete case analysis, dus waarbij alleen die subjecten worden betrokken die nergens een ontbrekende waarde hebben, zijn een beetje anders, namelijk: \(M1=2.89, M2=2.67, M3=3.44, M4=3.67\). Voor de berekening van deze gemiddelden zijn de subjecten \(3\), \(5\) en \(7\) dus voor alle variabelen volledig weggelaten.

Wanneer we de ontbrekende waarden van een variabele imputeren met het gemiddelde van de desbetreffende variabele (mean-imputatie), dan geeft dat het volgende resultaat (zie Tabel 17.2).

Tabel 17.2: Voorbeeld data met geimputeerde waarden.
Subject V1 V2 V3 V4
1 6.0 5.000000 5.0 1.0
2 2.0 2.000000 1.0 3.0
3 1.0 2.636364 1.0 3.8
4 3.0 2.000000 3.0 4.0
5 2.7 4.000000 3.2 5.0
6 2.0 3.000000 5.0 6.0
7 2.7 1.000000 3.2 3.8
8 4.0 3.000000 6.0 6.0
9 2.0 2.000000 4.0 4.0
10 3.0 3.000000 2.0 3.0
11 3.0 2.000000 3.0 2.0
12 1.0 2.000000 2.0 4.0

De gemiddelden van de geïmputeerde variabelen zijn vanzelfsprekend gelijk aan de gemiddelden van variabelen met de missings, maar andere beschrijvende statistieken kunnen wel zijn veranderd, zoals te zien is in Tabel 17.3.

Tabel 17.3: Beschrijvende statistieken voor en na imputatie
V1 V1imp V2 V2imp V3 V3imp V4 V4imp
Min. 1.000 1.000 1.000 1.000 1.000 1.000 1.00 1.000
1st Qu. 2.000 2.000 2.000 2.000 2.000 2.000 3.00 3.000
Median 2.500 2.700 2.000 2.318 3.000 3.100 4.00 3.900
Mean 2.700 2.700 2.636 2.636 3.200 3.200 3.80 3.800
3rd Qu. 3.000 3.000 3.000 3.000 4.750 4.250 4.75 4.250
Max. 6.000 6.000 5.000 5.000 6.000 6.000 6.00 6.000
Var 2.111 1.827 1.000 1.140 2.778 2.509 2.75 2.145
NA’s 2.000 0.000 1.000 0.000 2.000 0.000 2.00 0.000

De mediaan en het derde kwartiel verschillen tussen incomplete data en geïmputeerde data, net als de variantie. De verdeling van de variabele is dus veranderd. Ook de correlaties tussen de variabelen zijn gewijzigd.

De correlatie tussen bijvoorbeeld V2 en V3 in de incomplete data is \(0.55\) en in de geïmputeerde data \(0.398\).

17.5.1 Realistisch voorbeeld

Om de gevolgen van enkele eenvoudige imputatiemethoden te laten zien, zullen we een realistischer voorbeeld construeren met \(N = 500\) (zie Tabel 17.4).

Er zijn weer vier variabelen, maar nu getrokken uit een normale verdeling met gemiddelde \(0\) en variantie \(1\). De correlatiematrix in de populatie is gelijk aan die uit het vorige voorbeeld. We vervangen op willekeurige wijze naar verwachting \(20\) procent van de waarden door missings in deze data. Hieronder staan de beschrijvende statistieken van de vier variabelen. In de laatste rij staat aangegeven hoeveel ontbrekende waarden er in iedere variabele zijn.

Tabel 17.4: Beschrijvende statistieken
V1 V2 V3 V4
Min. -2.642 -2.762 -3.859 -3.118
1st Qu. -0.783 -0.766 -0.640 -0.687
Median -0.120 -0.117 -0.003 -0.030
Mean -0.098 -0.094 0.014 0.006
3rd Qu. 0.523 0.527 0.656 0.688
Max. 2.414 2.493 3.467 2.711
Var 0.983 0.925 1.027 1.025
NA’s 72.000 59.000 155.000 83.000

17.5.1.1 Imputatie met het gemiddelde

Ook de ontbrekende waarden in deze variabelen worden eerst geïmputeerd met hun gemiddelden. In Figuur 17.1 staat de verdeling van V3 weergegeven, zowel met en zonder geïmputeerde waarden. Het is duidelijk te zien dat de verdeling gepiekter wordt door het imputeren met het gemiddelde.

Density van incomplete en met de gemiddelden geïmputeerde data

Figuur 17.1: Density van incomplete en met de gemiddelden geïmputeerde data

In Figuur 17.2 wordt met een scatterplot van V2 en V3 getoond welke punten zijn geïmputeerd. Zij liggen allemaal op een lijn voor elk van de variabelen. De correlatie in de incomplete data is \(0.574\) en in de geïmputeerde data \(0.443\). In het algemeen geldt dat de correlatie tussen variabelen afneemt door imputatie met het gemiddelde (mean-imputatie).

Scatterplot van V2 en V3 in geimputeerde data

Figuur 17.2: Scatterplot van V2 en V3 in geimputeerde data

17.5.1.2 Regressie-imputatie

De data kunnen ook worden geïmputeerd door gebruik te maken van de voorspellingen van een regressiemodel, waarbij telkens drie andere variabelen in de dataset als voorspellers worden gebruikt. Als we regressie-imputatie toepassen, dan zijn er twee mogelijkheden: deterministische of stochastiche imputatie. Bij deterministische imputatie worden de voorspelde waarden uit de regressievergelijking geïmputeerd en bij stochastiche imputatie wordt er ook een extra residuele (ruis)term toegevoegd. In Tabel 17.5 worden de correlaties tussen de vier variabelen getoond na imputatie met de gemiddelden en na toepassing van beide regressiemethoden.

Tabel 17.5: Correlaties tussen de variabelen
incomplete mean_imp det_reg sto_reg
V1-V2 0.808 0.706 0.847 0.813
V1-V3 0.564 0.397 0.573 0.537
V1-V4 -0.373 -0.358 -0.437 -0.424
V2-V3 0.566 0.443 0.607 0.556
V2-V4 -0.222 -0.213 -0.263 -0.240
V3-V4 0.403 0.289 0.402 0.401

Merk op dat de correlatie tussen V2 en V3 bij de incomplete data verschillend is van de correlatie die eerder is genoemd. De reden hiervoor is dat de eerdere genoemde correlatie de complete waarden van twee variabelen gebruikte (paarsgewijs verwijderen), terwijl de correlaties in de tabel zijn berekend op basis van de personen (rijen), die geen enkele ontbrekende waarde hebben (complete cases). De laatste correlatie is dus gebaseerd op minder gevallen omdat er ook missings zijn in V1 en V4, maar alle correlaties in de tabel hebben wel op dezelfde rijen betrekking. De tabel laat zien dat beide regressiemethoden correlaties opleveren die dichter bij die van de complete data liggen dan de mean-imputatiemethode.

In de Figuur 17.3 worden de verdelingen van de variabelen weer getoond, dit keer na regressie-imputatie samen met de verdelingen met de incomplete data. De verdeling wordt beter benaderd door regressie-imputatie dan door mean-imputatie, met name bij de stochastische variant. In de figuur is dit echter moeilijk te zien is (er is hier zelfs nauwelijks een verschil te zien tussen de verdelingen).

Density van incomplete en via regressie geimputeerde data

Figuur 17.3: Density van incomplete en via regressie geimputeerde data

In de Figuur 17.4 toont een scatterplot van V2 en V3 welke punten zijn geïmputeerd. Zij liggen nu verspreid in de puntenwolk. De correlatie in de incomplete data is \(0.574\) en in de via regressie geïmputeerde data \(0.607\) (deterministisch) en \(0.556\) (stochastisch).

Scatterplot van V2 en V3 in regressie geimputeerde data

Figuur 17.4: Scatterplot van V2 en V3 in regressie geimputeerde data

Intuïtief geeft dit een beter beeld dan bij imputatie met de gemiddelden.

In het algemeen zal ook bij regressie-imputatie de verdeling enigszins gepiekter zijn dan het geval zou zijn geweest met complete data. Om de variantie nog beter te benaderen kan multipele imputatie worden toegepast.

Tenslotte verwijzen we naar dit online boek voor de praktische kant van omgaan met missing data: Applied missing data with SPSS and R-studio.