3 Vragenuur: Vragen Raemakers

Vragen van het lid Raemakers aan de staatssecretaris van Sociale Zaken en Werkgelegenheid over het bericht "Algoritme voorspelt wie fraude pleegt bij bijstandsuitkering".

De voorzitter:

Dan ga ik nu naar de heer Raemakers namens D66 voor zijn vraag aan de staatssecretaris van Sociale Zaken en Werkgelegenheid, die ik ook welkom heet, over het bericht over het opsporen van bijstandsfraude op basis van algoritmen. De heer Raemakers namens D66.

De heer Raemakers (D66):

Voorzitter, dank u wel. Algoritmes zijn een steeds groter onderdeel van ons leven. We worden de hele dag gemeten. Facebook bepaalt wat we aan nieuws zien, en Google Maps bepaalt onze route naar het werk. Ook de overheid gebruikt steeds vaker algoritmes. Dat kan ook heel positief zijn, om verkeersstromen beter te sturen en om in te schatten waar in de toekomst meer huizen nodig zullen zijn. D66 ziet die kansen ook. Maar het gebruik van algoritmes kent ook risico's. Intransparante algoritmes kunnen ook bepaalde groepen onevenredig benadelen, zeker als de gebruikte informatie gekleurd of onjuist is. We lezen in de NRC dat een aantal Nederlandse gemeenten algoritmes inzet om bijstandsfraude op te sporen. Het is natuurlijk altijd goed om fraude op te sporen, maar het inzetten van die algoritmes biedt ook hier een risico.

Daarom heb ik een paar vragen aan de staatssecretaris. Krijgen inwoners van de gemeenten waar de algoritmes gebruikt worden inzicht in hoe de algoritmes werken en welke gegevens precies worden gebruikt? Kunnen zij die gegevens op verzoek ook inzien, en ze wijzigen als ze niet blijken te kloppen? Zijn de gemeenteraden van deze gemeenten op de hoogte van de toepassing van de data? Hebben zij voldoende inzicht in de manier waarop algoritmes worden ingezet? Wordt dat algoritme en die toepassing ook voorgelegd aan en goedgekeurd door de gemeenteraad? Zijn daar landelijke regels voor? En tot slot: ik denk dat de menselijke maat altijd heel belangrijk is als we het hebben over de bijstand. Is die menselijke maat wel voldoende gewaarborgd? Volgens de nieuwe Europese privacywet moet er namelijk altijd een menselijke beoordeling zijn en moet je een mens ter verantwoording kunnen roepen als een beslissing ingrijpende gevolgen heeft. We willen dus niet dat een computer een sanctie gaat uitdelen op basis van een algoritme. Er is echt een tussenstap nodig in de vorm van een menselijke ingreep. Ik vraag de staatssecretaris: is dat voldoende geborgd?

Dank u wel.

De voorzitter:

Het woord is aan de staatssecretaris.

Staatssecretaris Van Ark:

Voorzitter, dank u wel. Ook dank aan de heer Raemakers voor zijn vragen. Ik deel met hem de mening dat het goed is om fraude op te sporen, zoals hij aangeeft. Sterker nog, het is ontzettend belangrijk om fraude op te sporen, want fraude ondermijnt het draagvlak onder onze sociale zekerheid, onze solidariteit. In feite doen deze gemeenten wat ze moeten doen: effectiever en efficiënter fraude opsporen. Ik vind het ook belangrijk om daar ruimte aan te geven. Ik ben een voorstander van datagestuurd handhaven. Ik heb gisteren een brief gestuurd aan de Kamer over de handhavingskoers. Daarin ziet u ook voorbeelden daarvan — uiteraard, zeg ik tegen de heer Raemakers, met inachtneming van de wettelijke regels en waarborgen. Voor zover ik kan overzien, gebruiken gemeenten de gegevens die ze al in hun administratie hebben staan. Dat weten mensen dus ook, want vaak hebben ze die gegevens zelf aangeleverd. Het zijn gegevens die gemeenten nodig hebben voor het vaststellen van het recht op uitkering. Er mag inderdaad geen sprake zijn van automatische besluitvorming. Er kunnen wel data omhooggehaald worden, maar er moet altijd een persoon tussen zitten. Uit het artikel bleek dat dat ook daadwerkelijk het geval is. De gemeenteraad ziet inderdaad toe op de manier waarop het college het beleid uitvoert. De gemeenteraad kan dus ook vragen hoe het fraudetoezichtbeleid eruitziet. Dat is wat ik graag wil aangeven in antwoord op de vragen van de heer Raemakers.

De heer Raemakers (D66):

Ik dank de staatssecretaris. Voor D66 is het ook heel belangrijk dat die algoritmes eerlijk en controleerbaar zijn en niet leiden tot een vicieuze cirkel voor kwetsbare mensen. De staatssecretaris zei zojuist dat de gegevens door de mensen zelf zijn aangeleverd. Dat klopt natuurlijk, maar het is wel het sociale domein. Dat betekent dat alle gegevens die mensen aanleveren, heel kwetsbaar zijn. Ik vind ook dat we moeten voorkomen dat vooroordelen uit het verleden gebruikt worden bij de toepassing nu. Er zijn bijvoorbeeld algoritmes die zijn gebaseerd op historische data, op wat er in het verleden is gebeurd. Het risico bestaat dat die vooroordelen uit het verleden weer opduiken in dat wiskundige model. Mijn vraag is hoe we voorkomen dat die vooroordelen uit het verleden blijven leven. Ik zal het wat duidelijker maken. Stel je voor dat blijkt dat er in een bepaalde wijk, met bijvoorbeeld veel migratie-inwoners, in het verleden meer fraude was, dat we daar nu extra gaan controleren omdat we weten dat daar een grotere kans op fraude is en dat dan blijkt dat er 50% of 60% fraude blijkt te zijn. Dan kunnen we met z'n allen zeggen dat dat helemaal niet goed is en dat we moeten ingrijpen, maar het kan natuurlijk ook zo zijn dat het percentage in de andere wijken, waar wij niet controleren op basis van historische data, net zo groot is. Hoe voorkomen we dat het model in zichzelf discrimineert?

Tot slot: de gemeenteraden zijn hiermee bekend, evenals de colleges van B en W, maar welke bedrijven verzorgen deze technologie? En zijn die algoritmes beroepsgeheim of zijn ze openbaar en transparant?

Staatssecretaris Van Ark:

Het is een instrument dat wordt toegevoegd aan de instrumenten die gemeenten al hebben. Ik hecht eraan om dat te zeggen, omdat er natuurlijk al veel meer mogelijkheden zijn om fraude te bestrijden. Dit instrument wordt toegevoegd. Ik denk dat dit betekent dat de gemeenten de goede dingen doen en dat ze er ook rekening mee moeten houden dat ze de dingen goed doen. Dit wijst er ook op dat gemeenten hier een serieuze zaak van maken, maar dit wordt dus toegevoegd. Dat betekent dat ook in andere wijken en op andere plekken gecontroleerd zal moeten blijven worden. Hoe het precies zit met de algoritmes, moet ik u als typische alfa schuldig blijven. Dat kan ik voor u nazoeken. Ik ga ervan uit — zo heb ik het artikel ook gelezen — dat alles in volledige transparantie gebeurt. Dat vind ik ook van belang, omdat wij met z'n allen de voorzieningen opbrengen en omdat de transparantie vooral van belang is om te weten dat ons belastinggeld op de juiste manier wordt besteed. Daarom ben ik een voorstander van het opsporen van fraude.

De heer Raemakers (D66):

Net als de staatssecretaris ben ik ook een enorme alfa. Ik zal dus niet te veel over die algoritmes praten.

De voorzitter:

Dat schept een band!

De heer Raemakers (D66):

Ja, maar ik zou wel graag de toezegging van de staatssecretaris krijgen dat ze met een bepaalde regelgeving komt waarmee gemeenten democratisch besluiten over die algoritmes, zodat dit niet iets is wat we bij bedrijven neerleggen en waar de gemeenteraad als hoogste orgaan van de gemeente niets meer over te zeggen heeft. Ik zou dus graag de toezegging krijgen dat dit echt goed gecontroleerd wordt.

Staatssecretaris Van Ark:

We hebben zelfs Europese richtlijnen die binnenkort ook in Nederland van kracht worden. Die zijn het kader waarbinnen het toezicht plaats moet vinden. Daarbij is het zo dat de gemeenteraad erop moet toezien dat het college het juiste beleid uitvoert. Dat zijn de kaders waarbinnen gewerkt moet worden en ik ben niet van plan om daar nog extra regelgeving aan toe te voegen. Ik vind het wel van belang dat er ook binnen die regels wordt gewerkt.

De voorzitter:

Dank u wel, meneer Raemakers.

De heer Alkaya (SP):

Om het scherp te krijgen: fraude aanpakken is natuurlijk oké, maar we moeten niet iedereen die een uitkering ontvangt, gaan behandelen als een potentiële fraudeur. Daarbij is het toch echt wel belangrijk dat die algoritmes openbaar zijn en ook door derden gecheckt kunnen worden, want er zijn natuurlijk organisaties die hier veel verstand van hebben. Daarom zou ik van de staatssecretaris toch wat scherper de harde toezegging willen dat die algoritmes ook openbaar worden en dat men niet alleen transparant is over het proces maar dat die algoritmes ook zelf openbaar worden gemaakt, zodat ook derden dit kunnen checken. Als dat nog uitgezocht moet worden, vraag ik de staatssecretaris om terug te komen naar de Kamer om aan te geven hoe zij dit wil gaan borgen.

Staatssecretaris Van Ark:

Ik zou het ook om willen draaien: op het moment dat je uit een signalendatabase omhoogkomt en als, zoals ik zojuist ook tegen de heer Raemakers zei, door een persoon bij je wordt gecheckt of je terecht een uitkering ontvangt, is dat ook een kans om te laten zien dat daar wel degelijk sprake van is. Dat vind ik ook van belang voor het draagvlak en onze solidariteit, want iedereen die terecht een uitkering krijgt, zou zich daar niet voor moeten schamen. Dat wil ik dus wel gezegd hebben. Bij die algoritmes gaat het om de werkwijze die gemeenten hanteren. Zij moeten daarmee voldoen aan de Europese richtlijnen en aan landelijk beleid, maar ook aan wat de gemeenteraad als controlerende taak heeft. Daarbinnen moeten zij zich begeven. Het is ook aan de gemeenteraad om dat te controleren.

De voorzitter:

Dank u wel.

Naar boven