16 december 2025
Het Centraal Planbureau (CPB) heeft een nieuwe methode ontwikkeld waarmee overheidsorganisaties kunnen toetsen of hun selectie-algoritmes indirect onderscheid maken tussen groepen. Dit kan zonder toegang te krijgen tot gevoelige persoonsgegevens. Deze zogenoemde Selectiviteitsscan laat zien dat dit kan én dat dit veilig kan. Dat is belangrijk, want overheidsalgoritmes worden op dit moment niet grondig genoeg getoetst. Daardoor kan onbedoeld ongelijke behandeling ontstaan of in stand blijven.
Steeds meer overheidsinstanties gebruiken algoritmes om dossiers te selecteren of risico’s in te schatten. Dat kan efficiëntie opleveren, maar brengt ook risico’s met zich mee, zoals recentelijk nog bleek bij de controle op de uitwonendenbeurs. Het is daarom belangrijk om te controleren of deze algoritmes bepaalde groepen niet benadelen. Dat is nu vaak lastig, omdat organisaties gevoelige gegevens, zoals leeftijd of migratieachtergrond, niet kunnen gebruiken. De Selectiviteitsscan biedt hiervoor een oplossing. Organisaties uploaden hun selectie naar de beveiligde microdataomgeving van het CBS, waar een onafhankelijke partij de analyse doet. De organisatie krijgt alleen de uitkomsten te zien; de gevoelige persoonsgegevens blijven volledig afgeschermd.
Casus UWV-algoritme
Als toepassing van de Selectiviteitsscan heeft het UWV een selectie-algoritme door het CPB laten toetsen: de Sollicitatiescan WW. Dit algoritme helpt bij het selecteren van dossiers die medewerkers bekijken om te beoordelen of iemand extra ondersteuning nodig heeft bij het solliciteren. De analyse laat zien dat bij zowel het algoritme als de medewerkers de groepssamenstelling in de selectie verschilt van een neutrale referentiegroep. In de referentiegroep heeft 37% een migratieachtergrond; het algoritme komt uit op 38% en medewerkers op 43%. Bij elk selectieproces zijn enige verschillen te verwachten, en in dit geval zijn die bij het algoritme kleiner dan bij medewerkers. De Selectiviteitsscan laat zien dát er verschillen zijn; het is aan de eigenaar van het algoritme om verschillen te duiden en rechtvaardigen.
Algoritmes veilig toetsen
Het is belangrijk dat de overheid duidelijker gaat vastleggen wanneer selectie-algoritmes mogen worden gebruikt en hoe zij moeten worden gecontroleerd. De huidige regels, zoals de AI-verordening en het algoritmekader, richten zich op procedures maar bieden nog geen garantie dat (onbedoelde) ongelijke behandeling wordt voorkomen. Dit kan alleen door algoritmes goed te toetsen, maar overheidsorganisaties hebben daar nu te weinig mogelijkheden voor. De Selectiviteitsscan biedt hiervoor een oplossing. Deze methode sluit aan bij de Europese verplichting om uiterlijk in augustus 2026 een veilige testomgeving te hebben voor dit soort toetsen. Door de scan centraal beschikbaar te maken, kunnen algoritmes beter en veiliger worden beoordeeld, zonder dat organisaties zelf toegang krijgen tot gevoelige persoonsgegevens.
Downloads
-
Selectiviteitsscan: veilige toetsing van algoritmes
Pdf, 530.6 kB
| Verdiepingsdocument selectiviteitsscan | 4.86 MB | ⇣ |
Heeft u vragen t.a.v. deze publicatie? Contacteer ons.
