Vragen van de leden Raemakers en Verhoeven (beiden D66) aan de Staatsecretarissen van Sociale Zaken en Werkgelegenheid en van Binnenlandse Zaken en Koninkrijksrelaties over het bericht «Algoritme voorspelt wie fraude pleegt bij bijstandsuitkering» (ingezonden 12 april 2018).

Antwoord van Staatssecretaris Van Ark (Sociale Zaken en Werkgelegenheid) (ontvangen 29 mei 2018)

Vraag 1

Bent u bekend met het bericht «Algoritme voorspelt wie fraude pleegt bij bijstandsuitkering»?1

Antwoord 1

Ja.

Vraag 2 en 3

Bij hoeveel en welke gemeenten wordt dergelijke software gebruikt om bijstandsfraude op te sporen?

Klopt het dat deze gemeenten de software inkopen bij bedrijven? Kunt u aangeven bij welke bedrijven?

Antwoord 2 en 3

Ik vind het belangrijk om fraude op te sporen, want fraude ondermijnt het draagvlak onder onze sociale zekerheid. Deze gemeenten doen wat ze moeten doen: fraude opsporen. Daarbij ben ik voorstander van data-gestuurd handhaven, zoals verwoord in de SZW Handhavingskoers 2018–2021 die op 9 april jl. is aangeboden aan uw Kamer (Kamerstukken II 2017/18, 17 050, nr. 541). Data-gestuurd handhaven moet uiteraard plaatsvinden met inachtneming van de wettelijke regels en waarborgen. Uit navraag bij Stimulansz (een organisatie die de vier in het NRC-artikel genoemde gemeenten en samenwerkingsverbanden van gemeenten ondersteunt op het terrein van het sociaal domein en de initiator achter het toegepaste algoritme) blijkt dat bij de vier genoemde gemeenten en samenwerkingsverbanden van gemeenten opdracht is gegeven tot het ontwikkelen van een algoritme. Voor zover mij bekend is er geen verdere informatie beschikbaar of en hoeveel van de 388 gemeenten gebruik maken van de in het NRC-artikel genoemde software of andere software. Het is aan gemeenten waar zij diensten inkopen voor de uitvoering van hun gedecentraliseerde taken.

Vraag 4

Welke historische data wordt gebruikt voor de analyse van mogelijke bijstandsfraude? Kunnen inwoners de gebruikte data inzien en eventueel, bijvoorbeeld bij fouten, wijzigen? Hebben de ingeschakelde bedrijven toegang tot deze data?

Antwoord 4

Navraag bij Stimulansz heeft opgeleverd dat gemeenten voor het algoritme uitsluitend gegevens gebruiken uit hun eigen uitkeringsadministratie. Deze uitkeringsadministratie wordt gebruikt voor het vaststellen van het recht op een uitkering en daarmee ook voor de rechtmatigheid van de uitkeringen. In feite gaan de betreffende gemeenten effectiever en efficiënter werken met de data die ze al hebben en mogen gebruiken in de handhaving (data-gestuurd werken). Volgens de Wet bescherming persoonsgegevens (Wbp) en vanaf 25 mei 2018 de Algemene verordening gegevensbescherming (AVG), hebben burgers het recht op informatie over en toegang tot hun persoonsgegevens. Bij gebleken onjuistheden hebben de betrokken burgers recht op rectificatie van de gegevens. Echter, als het om gegevens in de uitkeringsadministratie gaat, hebben uitkeringsgerechtigden de plicht om onverwijld (wijzigingen van) de gegevens zelf door te geven aan de gemeente (inlichtingenplicht). Het gaat immers om gegevens die van invloed zijn op de hoogte of de duur van de uitkering, bijvoorbeeld wijzigingen van het inkomen of samenwonen. Doen burgers dit niet dan is er sprake van een overtreding van de inlichtingenplicht en moet de betreffende gemeente de teveel betaalde uitkering terugvorderen en een boete of waarschuwing opleggen.

Gemeenten die bedrijven inschakelen om namens hen gegevens te verwerken moeten de verwerking regelen in een verwerkersovereenkomst. De gemeente dient als de verwerkingsverantwoordelijke te garanderen dat bij de inschakeling van een verwerker de rechten van de betrokkenen zijn gewaarborgd. In artikel 28 van de AVG worden eisen gesteld aan de inschakeling van de verwerker en de verwerkersovereenkomst. De door het ingeschakelde bedrijf gebruikte data dienen gepseudonimiseerd te zijn en enkel door de gemeente te herleiden naar de uitkeringsgerechtigde.

Vraag 5 en 6

Ziet u ook het risico dat het gebruik van algoritmes discriminerend kan zijn voor bepaalde groepen mensen als de werking van de algoritmes niet transparant en controleerbaar is of gebaseerd is op data die door selectieve handhaving tot stand is gekomen? Bent u bekend met voorbeelden hiervan, zoals het gebruik van discriminerende recidiverisico software in de Verenigde Staten?

Is de werking van de gebruikte algoritmes transparant en controleerbaar? Wordt de werking van de gebruikte algoritmes door onafhankelijke derden gecontroleerd?

Antwoord 5 en 6

Ja, het risico van discriminatie dat kan ontstaan door de inzet van algoritmen en de kwaliteit van de data is bekend, evenals de casus waaraan uw Kamer refereert.

Data-analyse moet plaatsvinden binnen de kaders van de Wbp en vanaf 25 mei 2018 binnen de kaders van de AVG. Een van de uitgangspunten van deze verordening is transparantie over het verwerken van persoonsgegevens. De gemeenten dienen op grond van de AVG altijd informatie te geven over de aard van de verwerking. Daarbij kan de betrokkene een klacht indienen over de geboden transparantie bij de Autoriteit Persoonsgegevens als toezichthoudende autoriteit op grond van de AVG.

In het belang van het beschermen van de modus operandi om fraude op te sporen, kan door het college worden besloten het algoritme niet vrij te geven. Als daar met een beroep op de Wet openbaarheid van bestuur (WOB) om verzocht wordt, is het vervolgens aan de rechter om deze weigering te beoordelen. Verder ziet de gemeenteraad toe op de manier waarop het college het beleid, waaronder het fraudebeleid, uitvoert.

Vraag 7

Deelt u de mening dat de technologie die overheden gebruiken onze normen en waarden en onze wetten moeten eerbiedigen en niet, wellicht onbedoeld, discriminerend mogen zijn? Deelt u derhalve de mening dat door overheden gebruikte algoritmes transparant en controleerbaar moeten zijn om te voorkomen dat algoritmes discriminerend werken?

Antwoord 7

Ja, het gebruik van technologie moet plaatsvinden binnen de wettelijke kaders. Dat geldt ook voor het gebruik van algoritmen. Echter, in het belang van het beschermen van de modus operandi om fraude op te sporen, kan worden besloten het algoritme niet vrij te geven omdat het instrument dan zijn waarde verliest. Zie hierover ook het antwoord op vraag 5 en 6.

Vraag 8

Op welke wijze vindt terugkoppeling van de resultaten uit de data-analyses en de daaruit volgende onderzoeken naar bijstandsfraude plaats, en hoe leidt dit tot aanpassingen van de gebruikte algoritmes? Hoe wordt een vicieuze cirkel voorkomen, bijvoorbeeld als het rekenmodel versterkt wordt in foutieve initiële aannames op basis van gekleurde historische data door nieuwe data uit de handhavingspraktijk?

Antwoord 8

Het gebruik van de algoritmes is aanvullend op de bestaande handhavingspraktijk. Volgens Stimulansz wordt het algoritme gebruikt om vast te stellen wat de kans is dat een uitkeringsgerechtigde fraudeert. De gevallen met de grootste kans zullen onderzocht worden om fraude al dan niet vast te stellen. De uitkomsten worden toegevoegd aan het algoritme. Ook fraudegevallen die niet naar aanleiding van het algoritme opgespoord worden, worden toegevoegd. Dit betekent concreet dat het algoritme constant leert van nieuwe fraudezaken en nieuwe patronen, waardoor voorkomen wordt dat het algoritme zoekt in een bepaalde hoek. Verder is van belang dat met betrekking tot de handhaving in het sociaal domein geen sprake is van automatische besluitvorming. Signalen, ook signalen die door middel van data-analyse tot stand komen, moeten altijd eerst onderzocht worden met toepassing van het beginsel van hoor en wederhoor, alvorens een sanctie kan worden opgelegd.

Vraag 9

Wanneer is het onderzoek van de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties over het gebruik van algoritmes door overheden afgerond?

Antwoord 9

Het onderzoek van BZK over het gebruik van algoritmes door overheden wordt naar verwachting in de tweede helft van 2018 afgerond.

Naar boven