Vragen van het lid Dijk (SP) aan de Minister en Staatssecretaris van Financiën over het bericht «Belastingdienst blijft wet overtreden met mogelijk discriminerende fraude-algoritmen» (ingezonden 15 december 2023).

Antwoord van Staatssecretaris Van Rij (Financiën – Fiscaliteit en Belastingdienst) (ontvangen 7 februari 2024). Zie ook Aanhangsel Handelingen, vergaderjaar 2023–2024, nr. 775.

Vraag 1

Waarom is ervoor gekozen om algoritmes die niet voldoen aan de algemene verordening gegevensbescherming (AVG) nog steeds te gebruiken bij de Belastingdienst, zelfs na de blootlegging van het toeslagenschandaal? Klopt het dat de risicomodellen OBCF, ABN en OB Negatief op 20 januari 2021 tijdelijk zijn stopgezet, maar dat er na een interne discussie over het belang van het gebruik van deze algoritmes deze weer aan zijn gezet?1

Antwoord 1

Het klopt dat de risicomodellen OBCF, ABN en OB Negatief op 20 januari 2021 tijdelijk zijn uitgezet, omdat de modellen mogelijk niet voldeden aan de vereisten vanuit de AVG. De Belastingdienst heeft vervolgens een risico-afweging gemaakt bij het gebruik van deze modellen, waarin verschillende belangen zijn gewogen. De privacy van de burger en bedrijven, de dienstverlening aan hen en het toezicht op hen. Die weging is zo uitgevallen, dat de modellen weer in gebruik zijn genomen en risico’s die zich daarbij kunnen voordoen geaccepteerd worden. In die weging is ook betrokken op welke punten niet werd voldaan aan de AVG, namelijk het ontbreken van een gegevensbeschermingseffectbeoordeling (GEB) en transparantie. Het model OB Negatief wordt voorzien van een GEB en van de modellen wordt voorzien dat zij in het algoritmeregister van de Belastingdienst worden opgenomen ter bevordering van de transparantie.

De geautomatiseerde selectietechnieken die worden aangehaald in de Kamerbrief voortgang wetstraject Wet waarborgen gegevensverwerking Belastingdienst, Toeslagen en Douane2 hebben ook betrekking op ABN en OB Negatief. De vervolgstappen die volgen naar aanleiding van de analyse naar de grondslagen voor geautomatiseerde analyse van aangiften en het geautomatiseerd opleggen van aanslagen die hieruit voortkomen zijn dan ook relevant voor deze modellen.

Vraag 2

Nu dat de risicomodellen OBCF en ABN gewijzigd zijn, voldoen zij nu volledig aan de AVG? Bent u ook van plan om de risicomodellen te toetsen op discriminatie? Is OB Negatief ook in gebruik? Zo ja, voldoet deze volledig aan de AVG? Als OB Negatief niet voldoet aan de AVG, gaat u het gebruik van dit algoritme onmiddellijk stopzetten? Zijn er andere algoritmes of datasets in gebruik die in strijd zijn met de AVG? Gaat u gebruik van deze algoritmes en datasets onmiddellijk stopzetten?

Antwoord 2

In het kader van het voldoen aan de AVG wordt een risicoafweging van relevante belangen gemaakt en vervolgens op managementniveau gekeken of restrisico’s geaccepteerd kunnen worden. Sinds het op 27 januari 2021 genomen besluit om de modellen weer aan te zetten, heeft de Belastingdienst aanpassingen doorgevoerd:

  • Het model OB Negatief wordt voorzien van een GEB. Het gebruik van dit model zal in het kader van transparantie binnenkort worden opgenomen in het Algoritmeregister van de Belastingdienst.

  • Het model ABN is door experts op regelniveau beoordeeld en waar nodig aangepast. Dit model is voorzien van een AVG-beoordeling (een Privacy Risk Assessment).

  • Het model OBCF is ook door experts op regelniveau beoordeeld en is naar aanleiding daarvan aangepast en in gewijzigde vorm per 14 september 2023 in gebruik genomen.

  • Voor de modellen ABN en OBCF wordt een herontwerp gemaakt, waarna zij worden opgenomen in het algoritmeregister van de Belastingdienst.

  • Voor OB Negatief, ABN en OBCF is met onderzoek naar de regels van de modellen vastgesteld dat geen sprake is van directe discriminatie en geen bijzondere persoonsgegevens verwerkt worden.

In het jaarplan 20243 van de Belastingdienst heb ik uw Kamer meegenomen in de ethiek rondom analytics. In 2024 bouwt de Belastingdienst voort op de al ingezette sporen rondom ethische aspecten. Zo implementeert de Belastingdienst de normen van de IAMA (Impact assessment voor Mensenrechten bij de inzet van Algoritmes), gaat de Belastingdienst verder met bias en fairnesstoetsing (controleren of de algoritmes niet (onbewust) discrimineren) en wordt het algoritmeregister gevuld. In dit landelijk overheidsregister4 neemt de Belastingdienst haar hoog risico algoritmen op. Op de eigen website geeft die Belastingdienst hier ook inzicht in5.

Ook wordt van alle bedrijfsprocessen van de Belastingdienst (waaronder die van de OB) getoetst of die voldoen aan de vereisten van AVG, BIO en archiefwet. Tot slot is een waarborgenkader opgesteld om de rechtmatigheid en transparantie van risicoselectie en algoritmen te garanderen. Het ontwikkelde waarborgenkader selectie-instrumenten, kan hier ondersteuning aan bieden

Vraag 3

Heeft u niets geleerd van de analyse risicoclassificatiemodel toeslagen van 21 april 2022, waaruit blijkt dat de hoogste risicoscores worden gegeven aan mensen met een laag inkomen, alleenstaande ouders en mensen met een andere nationaliteit? Vindt u het acceptabel dat gelijkwaardige data nog steeds gebruikt wordt bij de Belastingdienst? Dit is toch simpelweg klassenjustitie?6

Antwoord 3

Ik ben het niet eens met de vraagstelling dat er niets is geleerd. Het gebruik van het Risicoclassificatiemodel Toeslagen is in juli 2020 stopgezet. De Belastingdienst gaat ontoelaatbaar onderscheid op meerdere wijzen tegen. Dit doet de Belastingdienst door hier in de ontwikkeling van modellen aandacht aan te besteden, bijvoorbeeld door het uitsluiten van gevoelige variabelen. Na de ontwikkeling vindt monitoring plaats op de algoritmes. Indien er een aanwijzing is van indirect ongewenst en ontoelaatbaar onderscheid worden maatregelen getroffen.

Vraag 4

Worden alle algoritmes en datasets in gebruik bij de Belastingdienst meegenomen in het onderzoek over vervuilde data naar aanleiding van de motie-Marijnissen c.s.?7

Antwoord 4

De aanpak voor de motie Marijnissen c.s. is opgenomen in mijn brief van 30 mei 20228 en bijbehorende rapportage Herstellen, Verbeteren, Borgen. Voor datasets en algoritmen van destijds geldt dat processen die mogelijk ongelijk uitwerken zijn geïdentificeerd. In oktober 2020 is bij medewerkers van de Belastingdienst geïnventariseerd welke lijsten er bestaan op het gebied van nationaliteit en/of risico- of fraudesignalen. Er zijn 119 lijsten gevonden, waar vervolgonderzoek naar verricht wordt. Ook heeft onderzoek plaatsgevonden naar 969 applicaties binnen de Belastingdienst op het gebruik van bijzondere typen persoonsgegevens binnen deze applicaties. Dit onderzoek is afgerond.

Vraag 5

Wat denkt u dat dit soort nieuws doet met het vertrouwen van mensen in de overheid, wat nu al zo laag is? Heeft u en het kabinet niets geleerd heeft van de eigen fouten in het toeslagenschandaal?

Antwoord 5

Van de fouten die gemaakt zijn in de toeslagenaffaire is nadrukkelijk geleerd. Het bewustzijn voor algoritmen met onbedoelde effecten is enorm toegenomen. Daarnaast worden diverse verbetermaatregelen genomen. Zo toetst de Belastingdienst alle bedrijfsprocessen aan de vereisten van de AVG, BIO en archiefwet en wordt gewerkt aan de implementatie van het waarborgenkader selectie-instrumenten. Ook is er een kwaliteitsframework dat alle afspraken, beschrijvingen, processen, templates, standaarden en richtlijnen omvat die moeten garanderen dat de kwaliteit van analytische toepassingen kunnen worden bepaald, beheerst en verbeterd. Daarmee krijgt de juiste werking van deze bedrijfsprocessen meer aandacht dan tevoren. De Belastingdienst moet structureel laten zien dat wordt gewerkt aan verbeteringen om de processen op orde te brengen om het vertrouwen van burgers en ondernemers in de Belastingdienst te herstellen, waarbij ik besef dat dit vertrouwen niet van de één op de andere dag terug te winnen is.

Vraag 6

Deelt u de mening dat inwoners altijd moeten kunnen zien waar en op welke manier hun persoonsgegevens en data gebruikt worden door de overheid, en dat als een besluit over een persoon (deels) wordt genomen door een algoritme, dat die persoon daarover geïnformeerd moet worden? Zo ja, wat gaat u doen om daarvoor te zorgen?

Antwoord 6

Ja, ik deel de mening dat burgers moeten kunnen zien waar hun persoonsgegevens worden gebruikt. De Belastingdienst werkt hier op meerdere manieren aan. Van algoritmen wordt getoetst of uitlegbaar is op welke manier selectie plaatsvindt. Het ontwikkelde waarborgenkader selectie-instrumenten, kan hier ondersteuning aan bieden.


X Noot
1

Follow the Money, 14 december 2023, Belastingdienst blijft wet overtreden met mogelijk discriminerende fraude-algoritmen. (https://www.ftm.nl/artikelen/belastingdienst-bleef-wet-overtreden-met-omstreden-fraude-algoritmen).

X Noot
2

Kamerstuk 32 761, nr. 281

X Noot
3

Kamerstuk 31 066, nr. 1327

X Noot
6

Kamerstuk 31 066, nr. 1008.

X Noot
7

Kamerstuk 35 510, nr. 21.

X Noot
8

Kamerstuk 31 066, nr. 1030

Naar boven