5 februari 2026

In november 2024 zat ik onbewust in een TikTok-bubbel.  Op basis van mijn ‘For You Page’ was ik er vrij zeker van dat Kamala Harris de verkiezingen in de Verenigde Staten zou winnen. Niet omdat ik mij er echt in verdiept had, maar omdat mijn algoritme mij vooral video’s liet zien die dat beeld bevestigden. Dat voelde overtuigend, tot de werkelijkheid anders bleek.

Jody Hoenink

wetenschappelijk medewerker

Meer informatie

Achteraf was dat vooral een verkeerde verwachting, meer niet. Maar het mechanisme erachter is interessant. Het algoritme deed precies waarvoor het was gemaakt, namelijk selecteren op basis van mijn gedrag en voorkeuren. Om zoveel mogelijk geld te verdienen door content te tonen die mij het langst TikTok laat gebruiken (en daarin slaagt het algoritme helaas bijzonder goed). De selectie was onzichtbaar, maar niet neutraal.

Die ervaring staat niet op zichzelf. Algoritmes zijn overal. Namelijk, in onze telefoons, in webshops, bij verzekeraars, en steeds vaker ook bij de overheid. Overheidsinstellingen gebruiken algoritmes vooral om te kiezen hoe beperkte capaciteit in te zetten. Wie krijgt extra aandacht? Welke dossiers verdienen prioriteit? Net als bij TikTok zijn die selecties vaak logisch en efficiënt. Maar anders dan op mijn telefoon blijven de gevolgen daar zelden beperkt tot een misplaatste verwachting.

Wat efficiënt is, is niet altijd eerlijk

Bij overheidsinstanties kunnen selectie-algoritmes directe gevolgen hebben voor mensen. Dat werd zichtbaar bij de controle op de uitwonendenbeurs door de Dienst Uitvoering Onderwijs. Om beperkte capaciteit efficiënt in te zetten, werd een algoritme gebruikt om studenten te selecteren voor extra controle. Dit is gedaan op basis van de kenmerken leeftijd, onderwijsvorm en afstand tot het ouderlijk huis. Die selectie leek logisch, maar werd lange tijd niet getoetst op de uitwerking voor verschillende groepen. Het gevolg was dat studenten met een migratieachtergrond disproportioneel vaker werden gecontroleerd (Algorithm Audit, 2024). Doordat het systeem grotendeels onzichtbaar bleef, konden deze verschillen zich opstapelen voordat ze werden herkend.

Hier botsten twee doelen die in beleid vaak samenkomen: efficiëntie en rechtvaardigheid. Met efficiëntie wordt niet alleen kostenbesparing bedoeld, maar vooral het gericht en tijdig inzetten van schaarse capaciteit. De juiste aandacht, op het juiste moment, voor de juiste dossiers. Daartegenover staat rechtvaardigheid: gelijke behandeling, gelijke kansen en het voorkomen dat bepaalde groepen structureel nadeel ondervinden.

Je kunt deze afweging zien als een weegschaal, maar niet als een ruilmechanisme. De vraag is niet hoeveel rechtvaardigheid we willen opofferen voor efficiëntie, maar hoe we systemen zo ontwerpen en toetsen dat ze aan beide eisen tegelijk voldoen.

Rechtvaardigheid zichtbaar maken

Na affaires en incidenten ligt de nadruk vaak op wat misging. Begrijpelijk, maar het helpt minder bij de vraag hoe we herhaling kunnen voorkomen. Daarom hebben wij de Selectiviteitsscan ontwikkeld: om de rechtvaardigheidskant van de weegschaal expliciet zichtbaar te maken. Algoritmes worden op dit moment nog niet grondig genoeg getoetst op mogelijke indirecte verschillen tussen groepen. Dat is niet omdat organisaties dat niet willen, maar omdat het vaak lastig is of niet mogelijk. Gevoelige persoonsgegevens, zoals leeftijd of migratieachtergrond, mogen vanwege privacywetgeving nu niet zomaar worden gebruikt om algoritmes te toetsen.

Onze publicatie laat zien dat dit probleem op te lossen is. Organisaties kunnen hun selectie laten analyseren in de beveiligde microdataomgeving van het Centraal Bureau voor de Statistiek (CBS), zonder zelf toegang te krijgen tot gevoelige persoonsgegevens. Een onafhankelijke partij voert de analyse uit en de organisatie ontvangt alleen de uitkomsten. Zo wordt zichtbaar of bepaalde groepen vaker of juist minder vaak in de selectie terechtkomen dan in een neutrale referentiegroep. Die inzichten bieden organisaties vervolgens de mogelijkheid om hun selectiecriteria of werkwijze kritisch tegen het licht te houden en, waar nodig, aan te passen.

Als toepassing van de Selectiviteitsscan liet het UWV een selectie-algoritme toetsen dat medewerkers ondersteunt bij het signaleren van werkzoekenden die mogelijk extra hulp nodig hebben bij het solliciteren. De analyse laat zien dat zowel het algoritme als de medewerkers afwijken van een neutrale groepssamenstelling. Dat is op zichzelf niet verrassend: bij elk selectieproces zijn verschillen te verwachten. Wel blijkt dat deze afwijkingen bij het algoritme kleiner zijn dan bij de menselijke selectie. De scan maakt niet zichtbaar of een algoritme ‘eerlijk’ of ‘oneerlijk’ is, maar brengt in kaart hoe groot de verschillen zijn. Het is vervolgens aan de eigenaar van het algoritme om te beoordelen of die verschillen aanvaardbaar en te rechtvaardigen zijn.

Meer dan één kant van de weegschaal

De Selectiviteitsscan helpt om één kant van die afweging zichtbaar te maken: rechtvaardigheid. Maar ook dat is geen eindpunt. Een algoritme kan eerlijker worden ingericht en alsnog weinig bijdragen aan het doel waarvoor het is ingezet. Daarom verschuiven wij in ons volgende project de blik naar effectiviteit. Doet het selectie-algoritme daadwerkelijk wat het belooft? Worden burgers er beter van geholpen?

Terugkijkend op mijn TikTok-bubbel was het vooral opvallend hoe vanzelfsprekend die selectie voelde. Zonder dat ik het doorhad, kreeg ik een samenhangend maar onvolledig beeld voorgeschoteld. Grappig, maar voor mij niet schadelijk. In beleid ligt dat anders, daar kan dezelfde onzichtbare selectie directe gevolgen hebben voor mensen. Dat vraagt om een bewuste omgang met algoritmes: niet door ze te wantrouwen of te vermijden, maar door hun keuzes zichtbaar te maken, te wegen en waar nodig bij te stellen. Pas dan kan een evenwichtige balans ontstaan tussen efficiëntie en rechtvaardigheid.