26 643 Informatie- en communicatietechnologie (ICT)

Nr. 982 VERSLAG VAN EEN COMMISSIEDEBAT

Vastgesteld 15 maart 2023

De vaste commissie voor Digitale Zaken heeft op 15 februari 2023 overleg gevoerd met mevrouw Van Huffelen, Staatssecretaris Koninkrijksrelaties en Digitalisering, over:

  • de brief van de Minister van Binnenlandse Zaken en Koninkrijksrelaties d.d. 10 juni 2021 inzake voortgang AI en algoritmen (Kamerstuk 26 643, nr. 765);

  • de brief van de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties d.d. 12 mei 2021 inzake aanbieding afschrift van de brief aan de Nationale ombudsman in reactie op het rapport De burger is geen dataset (Kamerstuk 26 643, nr. 756);

  • de brief van de president van de Algemene Rekenkamer d.d. 26 januari 2021 inzake rapport Aandacht voor algoritmes (Kamerstuk 26 643, nr. 737);

  • de brief van de Staatssecretaris Koninkrijksrelaties en Digitalisering d.d. 26 oktober 2021 inzake reactie op het rapport «Xenophobic machines» van Amnesty International (Kamerstukken 26 643 en 31 839, nr. 799);

  • de brief van de president van de Algemene Rekenkamer d.d. 18 mei 2022 inzake rapport Algoritmes getoetst. De inzet van 9 algoritmes bij de overheid (Kamerstuk 26 643, nr. 854);

  • de brief van de Minister van Binnenlandse Zaken en Koninkrijksrelaties d.d. 26 november 2021 inzake beantwoording vraag, gesteld tijdens het commissiedebat Telecomraad van 24 november 2021, over verplichte mensenrechtentoets bij hoogrisico-AI-systemen (Kamerstukken 26 643 en 32761, nr. 800);

  • de brief van de Staatssecretaris Koninkrijksrelaties en Digitalisering d.d. 4 juli 2022 inzake reactie op het onderzoeksrapport van Amnesty International getiteld Xenofobe machines (Kamerstukken 33 826 en 26 643, nr. 45);

  • de brief van de Staatssecretaris Koninkrijksrelaties en Digitalisering d.d. 7 oktober 2022 inzake beantwoording vragen commissie over het rapport Algoritmes getoetst. De inzet van 9 algoritmes bij de overheid (Kamerstuk 26 643, nr. 854) (Kamerstuk 26 643, nr. 923);

  • de brief van de Staatssecretaris Koninkrijksrelaties en Digitalisering d.d. 22 december 2022 inzake inrichtingsnota algoritmetoezichthouder (Kamerstuk 26 643, nr. 953);

  • de brief van de Staatssecretaris Koninkrijksrelaties en Digitalisering d.d. 21 december 2022 inzake stand van zaken Algoritmeregister (Kamerstuk 26 643, nr. 950).

Van dit overleg brengt de commissie bijgaand geredigeerd woordelijk verslag uit.

De voorzitter van de commissie, Kamminga

De griffier van de commissie, Boeve

Voorzitter: Kamminga

Griffier: Muller

Aanwezig zijn negen leden der Kamer, te weten: Van Baarle, Bouchallikh, Dekker-Abdulaziz, Kamminga, Kathmann, Koekkoek, Leijten, Rahimi en Slootweg,

en mevrouw Van Huffelen, Staatssecretaris Koninkrijksrelaties en Digitalisering.

Aanvang 14.01 uur.

De voorzitter:

Aan de orde is het commissiedebat Inzet algoritmes en data-ethiek binnen de rijksoverheid van de vaste commissie voor Digitale Zaken. Ik heet de Staatssecretaris van harte welkom en uiteraard de leden en een mooie volle publieke tribune. Welkom allemaal en ook welkom aan de mensen die thuis of elders meekijken naar dit debat. We hebben drie uur uitgetrokken voor het debat. We zijn met vijf leden van de zijde van de Kamer, waarvan er twee ons iets eerder moeten verlaten. Overigens met goede reden, want de heer Van Baarle zit ook in het plenaire debat en de heer Slootweg moet nog naar een technische briefing over een ander onderwerp dat ook alles met digitaal te maken heeft, namelijk de digitale euro. Hij zal zich later weer bij ons voegen. Daarom zitten ze vooraan.

Ik stel aan de leden voor om drie interrupties in tweeën aan elkaar te doen. Dat betekent drie interrupties en een vervolgvraag. U mag een vraag stellen en een vervolgvraag, want ik merk toch dat dat vaak fijner werkt. We kijken even naar de tijd, maar volgens mij is het uitgangspunt prima. Dan doen we hetzelfde in de termijn van de Staatssecretaris.

Aangezien een aantal leden eerder weg moeten, wil ik de heer Van Baarle namens DENK het woord geven voor zijn inbreng.

De heer Van Baarle (DENK):

Voorzitter. Is inmiddels al bekend wat het aantal algoritmes binnen de overheid met automatische besluitvorming is? Kan de Staatssecretaris inmiddels aangeven of en, zo ja, hoeveel zelflerende algoritmes de overheid gebruikt? Een aantal maanden geleden kon de Staatssecretaris hier schriftelijk geen antwoord op geven. Dit roept vragen op. We hebben een doorlichting gedaan van de algoritmen op discriminatie, de uitvoering van de befaamde motie nr. 13, heet-ie volgens mij in het jargon. Wat is die doorlichting waard geweest, als we na die doorlichting niet weten welke algoritmen we binnen de overheid hebben? Wat is er dan precies allemaal doorgelicht? Bij die doorlichting kijk je toch naar alle algoritmen en of ze discrimineren.

Ik las in de schriftelijke beantwoording ook dat er nog geen sprake is van een geharmoniseerd toetsingskader van het Rijk. Dit verbaasde mij, want mijn impressie was dat we wel een toetsingskader hebben. Maar als dat niet zo is, waar is dan in die doorlichting aan getoetst? Is dat dan niet totale willekeur?

Als de Staatssecretaris geen antwoord kan geven op deze vragen, dan heeft de fractie van DENK ernstige twijfels bij de uitvoering van de doorlichting op discriminatie in de algoritmen. Dan herhaalt de fractie van DENK het pleidooi om deze doorlichting extern te laten toetsen. We hebben met verheuging gezien dat de Staatssecretaris dit alsnog wil laten doen, maar we willen graag vragen waarom de keuze is gemaakt om de ADR dit te laten doen; de ADR die jarenlang aan de lat stond om toezicht te houden op onder andere de Belastingdienst en nooit heeft geconstateerd dat er zoiets plaatsvond als de toeslagenmisdaad. Is het wel de juiste instantie om dit te laten doen?

Ik constateer dat de richtlijnen binnen de overheid allemaal redelijk vrijblijvend zijn. De Staatssecretaris strooit met handleidingen en spreekt heel vaak over stimuleren in plaats van verplichten. De vraag van DENK blijft, zoals we ook gevraagd hebben in een aangenomen motie: wanneer komen nou de bindende criteria? Daarbij is het steeds maar wachten op de AI Act. Dat is een beetje het ei waarop gebroed wordt en waar we volgens de Staatssecretaris alles mee gaan redden. Maar hoe concreet worden nou de antidiscriminatiecriteria in die AI Act? Er wordt alleen gesproken over het registreren van bijvoorbeeld hoogrisicoalgoritmes en dat daar de verscherpte richtlijnen voor gaan gelden. Wat is daarin de definitie van hoog risico waar we op afkoersen? Hoe sorteren we nu voor op de invoering van de AI Act? Kan de Staatssecretaris nu een antwoord geven op de vraag hoe we die nationaal gaan handhaven en wie dat gaat doen?

Dan de toezichthouder. De fractie van DENK is blij dat die toezichthouder er komt, maar is wel teleurgesteld in de rol. Want het is eigenlijk een toezichthouder die geen toezicht houdt. Je zou toch zeggen dat een toezichthouder op zijn minst toezicht moet gaan houden of we de bestaande normen goed toepassen, maar dat gaat de toezichthouder niet doen. Die gaat regie voeren en heel veel overleggen. Wat is de toegevoegde waarde van een toezichthouder die geen toezicht gaat houden, die niet als dagelijkse taak heeft om organisaties en bedrijven binnen te lopen en te zeggen: «Trek uw lades open, uw computers. We willen weten wat u daar doet. Wij gaan dat controleren»? Waarom is dat niet de primaire taakopvatting, vraag ik aan de Staatssecretaris.

De Staatssecretaris gaf in de schriftelijke behandeling ook aan dat zij geen zicht heeft op de algoritmes die overheidsinstanties hebben uitbesteed in de ontwikkeling. Mijn vraag is of de Staatssecretaris dat nu wel heeft. Want als we algoritmes uitbesteden, hebben we als overheid dus heel weinig zicht op hoe ze ontwikkeld worden. Mijn vraag is of we een overzicht kunnen krijgen van het aantal algoritmes waarvan de ontwikkeling is uitbesteed en of de Staatssecretaris bereid is om met afspraken te komen of in ieder geval een modelcontract waarin we voor de uitbesteding van algoritmes heel harde afspraken maken ten aanzien van non-discriminatie.

De voorzitter:

U zit al op meer dan meer dan vierenhalve minuut en u had vier minuten.

De heer Van Baarle (DENK):

O, o.

De voorzitter:

Ik wil u dus vragen om tot een afronding te komen.

De heer Van Baarle (DENK):

Dan rond ik af met een vraag over een motie die wij hebben aangehouden, die de regering verzoekt tot het opstellen van protocollen over hoe te handelen als men discriminatie vindt in algoritmes. Ik wil de Staatssecretaris vragen hoe zij naar dit idee kijkt.

De voorzitter:

Meneer Van Baarle, dank u wel voor uw inbreng namens DENK. Welkom aan de leden die wat later binnenkwamen. Het is wellicht goed om te weten dat ik heb gezegd dat ik drie interrupties in tweeën toesta. U heeft dus de gelegenheid om een vervolgvraag te stellen bij een interruptie. Dit geldt per termijn. Dan geef ik nu het woord aan de heer Slootweg, CDA.

De heer Slootweg (CDA):

Dank u wel, voorzitter. Een deel van de titel van dit commissiedebat kan spoedig aanleiding geven voor filosofische bespiegelingen. Data-ethiek, ethiek die betrekking heeft op datagegevens. De afbakeningen lijken gemaakt te worden door het te hebben over de inzet van algoritmes die uitgevoerd worden door de rijksoverheid. Mijn bijdrage zal ik daarom richten op drie elementen: de toezichthouder, het register en de gegevensbeveiliging bij ambtenaren.

Voorzitter. De keuze is gemaakt om de Autoriteit Persoonsgegevens uitvoerder te maken van de opdracht rijksalgoritmetoezichthouder. De Staatssecretaris managet de verwachtingen door aan te geven dat met de beschikbare middelen deze toezichthouder niet zelf alle vragen en problemen kan oplossen. Zowel door de plek als organisatieonderdeel bij de Autoriteit Persoonsgegevens als door de hierboven geformuleerde reikwijdte is de algoritmetoezichthouder misschien eerder een expertisecentrum dat de samenwerking op het algoritmetoezicht moet optimaliseren dan een alomvattende toezichthouder op alle algoritmes die invloed hebben op het maatschappelijke verkeer. Deelt de Staatssecretaris deze opvatting?

De voorzitter:

Voordat u uw betoog vervolgt, heeft mevrouw Leijten van de SP een interruptie.

Mevrouw Leijten (SP):

Welkom aan de heer Slootweg. Fijn om hem weer als collega in ons midden te hebben. Scherp als altijd, wou ik zeggen. Ik heb wel een vraag aan hem en aan het CDA. Deze scherpe analyse dat er eigenlijk helemaal geen toezichthouder is, maar hooguit een expertisecentrum, hebben wij ook gemaakt. Wat vindt het CDA daar nou van? Is dat conform de afspraken in het regeerakkoord wat het CDA betreft en is het in lijn met wat hij maatschappelijk wenselijk vindt als het gaat over de inzet van algoritmes en het toezicht daarop?

De heer Slootweg (CDA):

Ik denk dat dit zeer terechte vragen zijn van mevrouw Leijten. Ik denk dat wij nu eigenlijk in de opbouw zijn naar iets van een toezichthouder, die volgens ons veel meer invloed zal hebben. Ik kom later in mijn vragen op punten als of er niet een wettelijke grondslag moet zijn als je algoritmes gebruikt. Ik denk dat het op dit moment ook weer niet zo gek is dat dit in de zoektocht naar hoe je dit op een goede manier kan doen de eerste stappen zijn. Maar ik wil wel verkennen wat nou die reikwijdte is en hoe we die zo breed mogelijk kunnen maken daar waar sommige algoritmes zodanige gevolgen kunnen hebben dat het de rechtsbescherming van onze inwoners aantast.

Mevrouw Leijten (SP):

Ik ben het in grote lijnen eens met de heer Slootweg dat we nog in de fase van verkennen zijn, maar daarmee is eigenlijk het besluit dat genomen is om de AP maar de autoriteit te maken of het expertisecentrum – ik vind dat heel treffend, zoals ik al zei – wel problematisch. Want in de verkenning van wat we willen, welke impact het heeft op wetgeving, waar we staan, of het wenselijk is hoe we ze toepassen en hoe we uiteindelijk van alles toetsen, kan het best weleens zijn dat we bijvoorbeeld de Algemene Rekenkamer een veel logischere toezichthouder vinden vanuit de rol die die al heeft. Die kijken wel in de algoritmes. Die doen niet alleen maar: hebben we ze in beeld en kennen we misschien wat codes? En dat is misschien wel wat we zoeken. Is er dan bij het CDA ook de mogelijkheid om in die verkenning nog af te wijken van de keuzes die de Staatssecretaris nu als het ware al heeft gemaakt?

De heer Slootweg (CDA):

Ik begrijp de vraag en toch denk ik dat ik wel blij ben dat we nu deze eerste stappen maken. Ik zou het ook jammer vinden als er op dit moment veel energie gaat zitten in de vraag wat nou de plek is in plaats van dat wij de toezichthouder zo veel mogelijk tanden geven. Volgens mij ontstaat er altijd weer een natuurlijk moment in de tijd door te zeggen: moet die nou hier of moet die nou daar? In eerste instantie wil ik ervoor zorgen dat die tanden zo veel mogelijk ontwikkeld worden.

De voorzitter:

Mevrouw Leijten, deze tel ik dan wel als tweede interruptie.

Mevrouw Leijten (SP):

Voorzitter, ik ken u als heel eerlijk en rechtvaardig. Mijn lot ligt in uw handen. Ik zou tegen de heer Slootweg willen zeggen dat we ons daarmee wel weggeven. Ik weet nog dat de Kamer drie jaar geleden zei: we moeten de Uitvoeringsorganisatie Herstel Toeslagen nou echt een kans geven, want er zit zo veel energie in. Nu zijn we drie jaar verder en nu is het argument: nee, we kunnen het niet meer over een andere boeg gooien, want er zit zo veel energie in. Niks ten nadele van de mensen die bij het expertisecentrum werken en de Autoriteit Persoonsgegevens als instantie, maar de keuze om de algoritmetoezichthouder en het algoritmeregister ook op die plek neer te leggen bepaalt wel wat we straks kunnen doen. Dan is de wijziging niet meer mogelijk. Ik zou toch willen dat het CDA dat beseft.

De heer Slootweg (CDA):

Ik zie dit meer als een aansporing om het denken gewoon niet stil te zetten. Ik zal deze periode in ieder geval willen gebruiken om te kijken hoe we de functie van toezichthouder meer tanden en body kunnen geven. Ik hoop dat ik mevrouw Leijten dan ook aan mijn kant vind; dat weet ik eigenlijk wel zeker. Voor de rest zie ik het echt gewoon als aansporing om niet stil te blijven staan.

De voorzitter:

Vervolgt u uw betoog.

De heer Slootweg (CDA):

Dan kom ik eigenlijk tot mijn vragen. Die gaan over de macht, over het min of meer dwingend kunnen opleggen van regels, afspraken en het formuleren van normen. Welke doorzettingsmacht heeft de algoritmetoezichthouder om te komen tot een gezamenlijke normuitleg? Speelt hij een rol in het ontwikkelen van nieuwe normen en op welke wijze kan hij deze afdwingen? Een belangrijke voorvraag voor mijn fractie is: speelt hij een rol in het toestaan dat algoritmes sowieso gebruikt gaan worden in de uitvoering?

Voorzitter. Het CDA ziet zeer wel het nut in van technologie en digitalisering om de werking en verbanden in onze samenleving ten dienste te staan, maar de werkelijkheid is anders. Een zeer ethische vraag betreft de zorg over het eigenaarschap van data. Heb ik er eigenlijk nog wel zeggenschap over als ik deze bijvoorbeeld upload? We zien wel degelijk dat analyse en deling van gegevens door overheidsorganisaties noodzakelijk zijn om bepaalde kwaden te bestrijden. Denk aan de bestrijding van zware ondermijnende criminaliteit en weerzinwekkende delicten als mensenhandel en kinderporno. Die bestrijding schuurt met de bescherming van de persoonlijke levenssfeer. Die spanning moeten we niet alleen onder ogen zien, maar ook proberen op te lossen. Is de Staatssecretaris het met het CDA eens dat de rechtsbescherming van burgers in het bestuursrecht moet worden versterkt wanneer zij overheidsorganisaties willen aanspreken op fout gebruik van algoritmes? Heeft de wetgever niet nadrukkelijk de opdracht om in wet- en regelgeving af te wegen hoe en waar algoritmes mogen worden benut? Kan een algoritmetoezichthouder niet pas functioneren wanneer de normstelling zelf in de wet is vastgelegd in plaats van dat achteraf wordt beoordeeld of de vertaling die heeft plaatsgevonden in algoritmes, wel in orde is?

Voorzitter. De Staatssecretaris heeft aangegeven dat het algoritmeregister een belangrijke bijdrage moet leveren aan het beter uitlegbaar maken van de toepassing en de uitkomst van algoritmes. Ze heeft als uitgangspunt meegegeven dat overheidsorganisaties zelf verantwoordelijk zijn voor de inzage in algoritmes en daarmee het opstellen en het beheer van het algoritmeregister. Maar wat zijn de mogelijkheden voor de toezichthouders wanneer een overheidsorganisatie dit niet nakomt? Een van de belangrijkste doelen is het verhogen van transparantie. Is de Staatssecretaris het met ons eens dat die transparantie pas bereikt kan worden als het register ook een heldere en toegankelijke uitleg van de werking van het algoritme bevat? Wat ons betreft zou onder het kopje «toepassing» altijd een heldere omschrijving toegevoegd moeten worden. Een blik in het register leert dat deze nu vaak nog ontbreekt.

Ten slotte. Ik ben over mijn tijd heen, maar de gegevensbescherming bij ambtenaren is nog wel een punt. Voor de veiligheid is er in de Verenigde Staten voor gekozen dat men bijvoorbeeld TikTok niet meer mag gebruiken. Zouden ook wij daarin niet naïef moeten zijn, en zouden we dus bijvoorbeeld die weg van de Amerikaanse overheid volgen? Ik zou graag de opvatting van de Staatssecretaris daarover horen.

De voorzitter:

Dank u wel, meneer Slootweg van het CDA. Ik was bij de heer Van Baarle enigszins coulant, dus dat ben ik ook bij u geweest en dat zal ik ook bij anderen zijn. Maar dit is geen oproep om allemaal richting de vijf minuten te gaan, vertel ik er alvast bij. Ik vind vierenhalve minuut namelijk wel de max. U heeft nog een interruptie van mevrouw Dekker-Abdulaziz, D66.

Mevrouw Dekker-Abdulaziz (D66):

Goed om te horen dat het CDA ook overweegt om TikTok te verbieden voor ambtenaren, want dat hebben wij toevallig twee weken geleden aan de Staatssecretaris gevraagd. Hierbij sluit ik via deze vraag even bij u aan met de reflectie ...

De heer Slootweg (CDA):

Eigenlijk sluit die dus aan bij uzelf.

Mevrouw Dekker-Abdulaziz (D66):

Ja, precies. Dat wilde ik even bevestigen.

De voorzitter:

Dan gaan we verder naar de volgende spreker van de Kamer, mevrouw Bouchallikh, GroenLinks.

Mevrouw Bouchallikh (GroenLinks):

Dank u wel, voorzitter. Hoe we omgaan met het gebruik van algoritmes door de overheid staat eindelijk meer op de politieke agenda. Er is sinds kort een algoritmeregister en ook is recent de algoritmetoezichthouder van start gegaan. De eerste institutionele stappen zijn gezet en dat is goed, maar bij het lezen van de stukken voor dit debat zag ik ook hoeveel er nog moet gebeuren. Eerste stappen zijn dan helaas niet genoeg. Ook staan er nog veel vragen open.

Allereerst wil ik het hebben over het gebruik van algoritmes. We hebben het veel over regulering en controle – dat is nodig – maar we moeten ons ook afvragen wanneer de overheid überhaupt algoritmes moet gebruiken. Dat is een vraag die ook het Rathenau Instituut terecht stelt. Algoritmes lijken inmiddels soms vanzelfsprekend, maar iedere keer zou opnieuw moeten worden beoordeeld of er geen andere opties zijn om hetzelfde doel te bereiken. Is de Staatssecretaris het hiermee eens? Zo ja, hoe wordt deze proportionaliteitstoets gedaan? Als er wordt besloten om algoritmes te gebruiken om een bepaald doel te bereiken, moet ervoor worden gezorgd dat de juiste typen algoritmes zo zorgvuldig mogelijk worden ingezet, zodat discriminerende risico-indicatoren voorkomen worden.

Daarmee kom ik de op de tweede zorg die wij hebben, de registraties in het algoritmeregister. Uit de stukken blijkt dat er nog maar heel weinig algoritmes worden geregistreerd. Ook algoritmes met grote risico's, die bijvoorbeeld worden gebruikt voor fraudeopsporing, blijken nog niet geregistreerd. De rijksoverheid, waar het kabinet direct voor verantwoordelijk is, heeft nog geen 30 algoritmes geregistreerd, terwijl er minstens 86 zijn volgens de Algemene Rekenkamer. Waarom is dit nog niet gebeurd?

Wat gaat het kabinet doen om overheden ertoe te bewegen dat algoritmes zo snel mogelijk geregistreerd worden? Wat is de deadline wat de Staatssecretaris betreft? Kunnen de algoritmes die de grootste impact hebben met voorrang worden geregistreerd?

De volgende zorg die wij hebben, is de mensenrechtentoets. Tot nu toe is nog geen enkele toets uitgevoerd. Hoe kan dat? De Kamer heeft in een motie uitgesproken dat deze mensenrechtentoets verplicht moet zijn. De Staatssecretaris heeft dat ook bevestigd, maar toch gebeurt dit nog niet. Wat gaat de Staatssecretaris doen om ervoor te zorgen dat de mensenrechtentoetsen worden uitgevoerd en dat deze ook daadwerkelijk verplicht worden?

Etnisch profileren is ook een schending van mensenrechten. In de motie van mijn collega Klaver, die inmiddels twee jaar geleden is aangenomen, stond expliciet dat de regering het gebruik van nationaliteit, etniciteit en geboorteplaats als datavariabelen voor risicomodellen en -profielen volledig uit moest sluiten. Kan de Staatssecretaris aangeven hoe en of dit deel van de motie inmiddels is uitgevoerd? Zo niet, wat gaat het kabinet dan voor actie ondernemen om dit alsnog te doen? Eerder pleitten wij ook voor een verbod van etnisch profileren, zoals onder andere Amnesty en Bits of Freedom ook deden, maar de Staatssecretaris zag dit eerder niet op diezelfde manier zitten. Hoe ziet zij dit nu en wat doet zij wel om te voorkomen dat burgers via algoritmes gediscrimineerd worden? Hoe kunnen burgers daar überhaupt achter komen?

Ik heb nog kort twee andere punten over het register. Het College voor de Rechten van de Mens waarschuwt dat alleen registreren van algoritmes niet voldoende is, want systemen moeten ook continu goed worden gecontroleerd. Ook heeft het college zorgen over de transparantie en de bruikbaarheid van de informatie in het register voor burgers. Graag op beide punten een reactie van de Staatssecretaris. Kan zij uitleggen hoe zij de terechte zorgen van het college wegneemt?

Het is goed dat de algoritmetoezichthouder er eindelijk is, zoals ik eerder ook heb gezegd. Ik heb in het vorige debat ook gesteld dat capaciteit ontzettend belangrijk is. Vandaag heb ik een vraag over de doorzettingsmacht van de toezichthouder. Eerder werd die «de tanden» genoemd. Wat ons betreft moeten die zo scherp mogelijk zijn. Uiteraard hoop ik op harmonie, maar hoe ziet de escalatieladder eruit als daar geen sprake van is? Hoe wordt gegarandeerd dat de toezichthouder het laatste woord heeft en daarin ook wordt ondersteund vanuit het ministerie? Wanneer verwacht de Staatssecretaris dat de toezichthouder op volle sterkte kan opereren?

Dank u wel.

De voorzitter:

Dank u wel, mevrouw Bouchallikh. Keurig binnen de vier minuten. Complimenten daarvoor. Ik zie geen interrupties, dus dan gaan we door naar de volgende spreker van de Kamer, mevrouw Dekker-Abdulaziz namens D66.

Mevrouw Dekker-Abdulaziz (D66):

Dank, voorzitter. Het gebruik van algoritmen door de overheid is een tweesnijdend zwaard. Zoals verschillende rapporten, van onder andere de Algemene Rekenkamer, laten zien, zorgt het gebruik van algoritmen enerzijds voor tijdbesparing en efficiëntie in het werk van de overheid. Anderzijds kleven er risico's aan het niet juist gebruiken van algoritmen. De voorbeelden waarbij het fout ging, kennen we hier allemaal. Het is dus van belang dat wij als politiek randvoorwaarden scheppen waarin algoritmes goed kunnen worden toegepast en dat er toezicht is op de toepassing daarvan.

Voorzitter. Ik wil het over de volgende drie zaken hebben. De toezichthouder en de AP, het Algoritmeregister en de datahonger bij de overheid.

Ten eerste, D66 is blij dat de Staatssecretaris opvolging geeft aan de afspraak uit het coalitieakkoord. Een toezichthouder op algoritmes bij de overheid kan bijdragen aan de transparantie voor burgers en de bevordering van samenwerking binnen bestaande structuren. Wij vragen ons af hoe de governance er nu precies uit komt te zien. Is de nieuwe rol van de AP meer als overlegorgaan of een uitvoerende toezichthouder? Handelt de toezichthouder reactief of kan er juist voorkomend worden gehandeld? Wij gaan ervan uit dat de nieuwe toezichthouder zich uitsluitend richt op het Rijk en niet op bedrijven en lagere overheden. Hoe verhoudt de AP zich in haar nieuwe rol tot de sectorale bestaande toezichthouders, ook qua doorzettingsmacht? In hoeverre hoort het opleggen van boetes ook bij de nieuwe rol van de AP, gelet op de drie doelen uit de inrichtingsnota? Ten slotte, voorzitter. Op welke termijn kan de Staatssecretaris de Kamer informeren of de nieuwe wet- en regelgeving nodig is en of er aansluiting gezocht wordt bij de EU-verordening?

Voorzitter, ten tweede. Er is een eerste versie van een algoritmeregister. Wat ons betreft is dat een goed beginpunt, maar daar moeten de komende tijd nog stappen op gezet worden. Wat ons betreft blijven de sectorale toezichthouders toezien op de sectorale algoritmes. Laten we voorkomen dat we door te veel hooi op onze vork te nemen, verzanden in een onoverzichtelijke hoeveelheid gegevens. Het register heeft wat ons betreft nut door de algoritmes van de rijksoverheid verplicht inzichtelijk te maken voor eenieder die ermee te maken krijgt. Kan de Staatssecretaris hierop reflecteren?

Daarnaast is het teleurstellend dat er weinig overheidsonderdelen vrijwillig meewerken aan het Algoritmeregister, zeker omdat er nog steeds verschillende hoogrisicoalgoritmen door de overheid worden gebruikt, zoals beschreven in het rapport van vorig jaar van de Algemene Rekenkamer. Welke instrumenten heeft de Staatssecretaris om het aantal algoritmen in het register te vergroten in afwachting op het verplichtende karakter?

Ten slotte, voorzitter. De overheid is een gulzige dataverzamelaar. Vaak is dat noodzakelijk voor een goede dienstverlening, maar soms worden er gegevens verzameld die niet noodzakelijk zijn voor het uitvoeren van bepaalde overheidstaken. Ik heb hier eerder al vragen over gesteld, zoals bij de begrotingsbehandeling vorig jaar. Het rapport van de Algemene Rekenkamer waar ik zojuist al naar verwees, concludeert dat er bij de politie nog steeds meer gegevens worden verzameld dan noodzakelijk zijn voor de berekeningen. De Raad van State adviseert in haar rapport Digitalisering in wetgeving: maak afspraken over datagebruik. Afgelopen maandag heeft de Minister van BZK nog de Big Brother Award mogen ontvangen. Kortom, er is ruimte voor verbetering. De VNG stelt voor om een transparantiebeginsel op te nemen in de algemene beginselen van behoorlijk bestuur. Hoe kijkt de Staatssecretaris hiernaar? Welke acties worden verder in gang gezet om orde te brengen in de verzameldrift van data van de overheid? Ten slotte wil ik me aansluiten bij de vragen van GroenLinks over de mensenrechtentoets.

Dank u, voorzitter.

De voorzitter:

Dank u wel, mevrouw Dekker-Abdulaziz namens D66. Ik kijk even rond. Ik zie geen interrupties. Dan is het woord aan de heer Rahimi, VVD.

De heer Rahimi (VVD):

Dank u wel, voorzitter. Afgelopen jaar heb ik mij vanuit de VVD in kunnen zetten voor ons mooie midden- en kleinbedrijf. Vanaf heden mag ik mij als VVD-Kamerlid, en tevens oud-IT-ondernemer, met genoegen ook bezighouden met Digitale Zaken en Digitale Overheid. Dat is een portefeuille die zowel de veiligheid als de economische situatie van de mensen raakt. Digitale zaken gaan niet alleen over IT- en softwaresystemen. Tijdens mijn studie informatica kwamen juist veel ethiek, logica en transparantie over ICT-systemen naar voren. Het is bijvoorbeeld in gebruik van bepaalde technieken en functies verantwoord of niet binnen de IT. Dat is een heel belangrijk punt.

Voorzitter. Elke maand neemt de overheid miljoenen beslissingen, bijvoorbeeld over wie wel en wie geen huurtoeslag krijgt. Voor al die beslissingen gebruikt de overheid algoritmes. Er zitten kansen maar ook risico's aan het gebruik van deze algoritmes. Een zeer belangrijk punt hierbij is hoe we zorgen voor een eerlijke totstandkoming van de algoritmes.

Voorzitter. Zonder algoritmes zouden we namelijk ook heel veel meer ambtenaren moeten hebben om elke dag al die beslissingen die de overheid moet nemen, te realiseren. Het moet duidelijk zijn dat de inzet van algoritmes en data-analyse binnen de overheid niet leidt tot beperking van de persoonlijke vrijheid en privésfeer van burgers en ondernemers. Ik wil de Staatssecretaris vragen hoe zij dit wil verwezenlijken. Tevens wil ik weten hoe zij ervoor gaat zorgen dat deze uitkomst ethisch verantwoord en in overeenstemming met de juridische principes van onze samenleving is, zodat dit niet leidt tot ongelijke behandeling van burgers op basis van bijvoorbeeld ras, gender of socio-economische status.

Voorzitter. Ik ben blij dat er een start is gemaakt met het algoritmeregister, waarin nu inmiddels 109 algoritmes geregistreerd staan. De VVD zou graag willen dat de Staatssecretaris meerdere instanties najaagt om eerder dan eind 2024 hun algoritmes te laten registreren. Alle zbo's, provincies, gemeentes en waterschappen moeten ook op een geautomatiseerde manier het register vullen. Nu gebeurt dat niet automatisch en op verschillende manieren.

Voorzitter. Wat betreft de toetsing van algoritmes heeft de Autoriteit Persoonsgegevens dus de taak om deze uit te voeren. Er is hiervoor ook een apart team aangesteld. Daarbij heb ik wel enkele vragen. Wat is het mandaat van de Autoriteit Persoonsgegevens? Kan de Autoriteit Persoonsgegevens ook handhaven? Heeft de Autoriteit Persoonsgegevens ook genoeg kennis in huis om alles te toetsen? Test de Autoriteit Persoonsgegevens ook op pilot- en demoalgoritmes? Ik denk dat het goed is dat er getoetst wordt op zowel bestaande als nieuwe algoritmes. Daarbij is het van belang dat niet alleen getoetst wordt of deze algoritmes, maar ook of de besluiten die daaruit komen en die grote effecten hebben op het leven van mensen, aan de AVG voldoen. Gaat de Autoriteit Persoonsgegevens helpen bij het maken van onderscheid tussen het verwerken van data en de algoritmes? De werking van algoritmes uitleggen is complex. Hoe weet een burger wat het in normale taal betekent?

Voorzitter. Naast de Autoriteit Persoonsgegevens zijn er verschillende andere toezichthouders die ook toegevoegde waarde kunnen hebben. Ik wil de Staatssecretaris vragen hoe de andere toezichthouders zich verhouden tot de Autoriteit Persoonsgegevens. Waar ligt het zwaartepunt bij het toezicht? Wat is de relatie met de regelgeving die uit Brussel komt? Welke wetgeving is er in Nederland nog nodig?

We hebben de komst van een algoritmeregister in het coalitieakkoord beloofd en nu is er ook wat gedaan. Het is ook wel goed om aan te geven dat er wat gebeurt. Dat is wel een compliment waard, ook al is het nog niet gevuld. Goed dat we dat dus doen. Ik realiseer me echter wel dat we alleen met incidentele probleemaanpak bezig zijn. Een structurele oplossing mist nog. We kunnen elke keer als er een incident met een algoritme is reactief handelen. Dat is goed geweest voor het begin, maar nu moeten we het inzichtelijk maken. We weten dat het een structureel probleem is, dus we moeten het ook systematisch en structureel oppakken en oplossen, en wegblijven van incidentenpolitiek. Denk hierbij bijvoorbeeld aan het proces van de controle van een jaarrekening van de gemeente door de accountant.

Voorzitter. Tot slot. Wat de VVD betreft is het van belang dat we inzichtelijk maken wat we verzamelen en waarom, en dat we in gewonemensentaal uitleggen wat we hiermee doen. Dat is voor ons het vertrouwen terugwinnen en teruggeven. Ik vind dat we daarmee op de goede weg zijn, maar we zijn er nog niet.

De voorzitter:

Dank u wel, meneer Rahimi. U heeft allereerst een interruptie van mevrouw Leijten en daarna van mevrouw Kathmann. Mevrouw Leijten, SP.

Mevrouw Leijten (SP):

Het verhaal van de heer Rahimi over dat we geen incidentgedreven politiek moeten hebben, is me uit het hart gegrepen. Maar laten we dan ook een principieel debat voeren. Wat vindt de VVD van het gebruik van algoritmen binnen de overheid? Wanneer kan dat wel en wanneer niet?

De heer Rahimi (VVD):

Ik gaf net al aan dat algoritmes gewoon nodig zijn, anders heb je honderdduizenden ambtenaren nodig. Als je 107 rijdt en je krijgt een boete, is dat ook een algoritme. Dus ja, die algoritmes heb je nodig. De vraag is niet wanneer wel en wanneer niet. Wat ik alleen aangeef, is dat het belangrijk is dat dit inzichtelijk is en dat aan de hand daarvan duidelijk is welke beslissingen worden genomen.

De voorzitter:

Er is een vervolgvraag van mevrouw Leijten, SP.

Mevrouw Leijten (SP):

Dit debat heet natuurlijk inzet algoritmes en data-ethiek, dus het gaat ook over wat voor overheid je wil zijn en wanneer je iets toepast. Je kan wel zeggen «de techniek is er, dus we doen het», maar dat is niet hoe we kijken naar de inzet van bepaalde middelen. Als het bijvoorbeeld gaat over het geweldsspectrum of het veiligheidsspectrum, kijken we ook altijd of het wenselijk en proportioneel is. Verbetert het de dienstverlening van de overheid? Verbetert het de integriteit van de besluitvorming? Naar dat soort zaken kijken we. Daarom stel ik wel de vraag aan de VVD: waar wel en waar niet en op welke grond dan, bijvoorbeeld wat betreft automatische besluitvorming die te maken heeft met inkomen en automatische besluitvorming op basis van profilering? Gebruiken we automatische besluitvorming, of juist niet? Laten we er altijd nog een menselijke toets zijn? Doen we dat dan vanuit dienstverlening of vanuit fraudeopsporing? Wat zijn precies de ethische grondslagen voor de VVD-fractie als het gaat over de inzet van algoritmen? Want als het alleen maar is «anders draait de overheid niet», dan lopen we wel in een fuik.

De heer Rahimi (VVD):

Het enige wat ik aangeef, is dat die inzichtelijk gemaakt moeten worden, zodat we kunnen toetsen wanneer wel en wanneer niet. Nu zijn die niet inzichtelijk, maar vraagt mevrouw Leijten mij nu wel wanneer wel en wanneer niet. Dat weet ik niet.

De voorzitter:

Ik geef u nog één vervolgvraag omdat u dat de vorige keer niet gedaan heeft.

Mevrouw Leijten (SP):

Dan zijn ze op, voorzitter. Ik heb goed geteld. Nee, maar dit is volgens de SP wel precies het probleem. We zitten in een situatie waarin we heel veel toepassen omdat de techniek er was en omdat we dachten dat die techniek zou helpen. Er zijn echt situaties waarin niet overtuigend vaststaat dat er met behulp van een algoritme een beter besluit wordt genomen dan wanneer professionals dat nemen zonder algoritme. Zouden we dan niet moeten zeggen dat je daarmee bijvoorbeeld terughoudend moet zijn? De politie verzamelt veel meer data dan nodig is. Er zijn profielen in de maak die discriminerend zijn. Dan zegt de VVD: we willen niet op incidenten reageren. Dat is heel goed, want die wil je voorkomen. Maar wat is dan precies het normenkader en wat zijn nou precies de afwegingen die de VVD-fractie wil maken voor de inzet van algoritmen in het publieke domein en bij de beslissingen die de overheid neemt?

De heer Rahimi (VVD):

Ik zal proberen antwoord te geven. Met incidentenpolitiek bedoel ik het volgende. Ik geef alleen aan dat er elke zoveel tijd iets naar buiten komt van «dit werkt niet goed» of «deze data zijn verzameld». Wij hebben gewoon op verschillende vlakken oplossingen voor verschillende systemen. Ik gaf net ook al een voorbeeld. Een gemeentelijke administratie wordt bijvoorbeeld elk jaar gecheckt. Daar zijn afspraken over. Die hebben een toezichthouder, die dat controleert. Ik geef alleen aan dat er niet alleen algoritmes zijn die er nú zijn, maar dat er ook algoritmes zijn die gaan komen. We moeten nadenken over wat voor effecten die hebben op welke data, maar daarvoor moeten die inzichtelijk zijn en moeten we duidelijk hebben welke algoritmes we gebruiken en waarvoor. Kijk bijvoorbeeld naar gebruik bij verwarde personen. Een algoritme is niets dan een calculatie. Mevrouw Leijten heeft het over de techniek en IT, maar het is gewoon een calculatie. Als iemand valt die een sensor heeft, gaat er een alarm af en kan er hulp worden ingeroepen. Dat is ook een algoritme. Ik kan verder geen inhoudelijk antwoord geven op de vraag welk algoritme goed is en welk algoritme niet. Er zijn tienduizenden algoritmes.

De voorzitter:

Ik vermoed dat u het hier niet helemaal over eens wordt in dit debat, maar wellicht is er nog een keer een andere gelegenheid. Ik ga nu door naar mevrouw Kathmann namens de PvdA voor een interruptie.

Mevrouw Kathmann (PvdA):

Ik wil de heer Rahimi bedanken voor zijn bijdrage. Sowieso ben ik blij met deze VVD-woordvoerder, want er spreekt een hoop ambitie uit. Daarom zou ik de VVD graag het volgende willen vragen. Bij die ambities hoort natuurlijk ook gewoon een goede toezichthouder. Hoe kijkt de VVD ernaar dat we inderdaad, zoals het CDA het noemt, meer een expertisecentrum hebben dan een echte toezichthouder, en dat het eigenlijk ook nog een expertisecentrum zonder tanden is, aangezien expertisecentrums die doorgaans niet hebben? Kunnen we op de VVD rekenen als het gaat om het realiseren van een echte toezichthouder?

De heer Rahimi (VVD):

Ik wil echt wegblijven van fake. U zegt: een echte toezichthouder. Ik begrijp wat er gezegd wordt. Mijn punt is het volgende. De Autoriteit Persoonsgegevens controleert op de persoonsgegevens, die data, maar er zijn zo veel meer dingen. Er zijn zo veel meer toezichthouders. Er zijn toezichthouders op media en financiële toezichthouders. Al die disciplines en domeinen hebben nu inderdaad niet één toezichthouder in zich. Ik stel dus voor – dat vraag ik eigenlijk ook aan de Staatssecretaris – om te komen tot een oplossing. Het feit dat wij nu dit debat hebben, is echt belangrijk. Het is belangrijk dat we nu al structureel nadenken over de manier waarop we het in de toekomst inrichten en dat toezicht gaan vormen. Hoe exact gaan we dat doen, en is de nieuwe vorm goed of niet? Dat kan je nu niet beslissen en daarom heb ik die vraag ook gesteld. Ik heb best wel wat vragen gesteld.

Mevrouw Kathmann (PvdA):

Maar dan is er in ieder geval dus wel een toezichthouder met tanden, op welke manier dan ook, die kan handhaven en normen kan stellen.

De heer Rahimi (VVD):

Ja, want een toezichthouder zonder tanden ...

De voorzitter:

Dank u wel voor deze beantwoording. U heeft nog een aanvullende vraag van mevrouw Kathmann. Dat wordt dan wel haar tweede interruptie.

Mevrouw Kathmann (PvdA):

Ik snap dat de VVD het misschien moeilijk vond om de vraag van mevrouw Leijten van de SP te beantwoorden. Ik heb in het verlengde daarvan wel eenzelfde soort vraag aan de VVD. Die gaat over de mensenrechtentoets die wordt toegepast. De heer Van Baarle zei: we zitten allemaal op die AI Act te wachten en we kijken daar hoopvol naar uit, maar we weten eigenlijk nu al dat een aantal zaken daarvan worden uitgesloten. Ik ken de VVD als een partij die in het spanningsveld tussen veiligheid en het borgen van privacy weleens een valse tegenstelling creëert. Hoe kijkt de VVD ernaar dat die AI Act de mensenrechtentoets eigenlijk op enkele relevante gebieden uitsluit? Dan gaat het bijvoorbeeld over wetshandhaving en grensmanagement. Vindt de VVD dat dat wel zou moeten, dus dat je die mensenrechtentoets eigenlijk te allen tijde zou moeten uitvoeren als je al die ambities wilt borgen waar de heer Rahimi het over had, dus onafhankelijk van het terrein?

De heer Rahimi (VVD):

Volgens mij wordt er nu onderhandeld over de AI Act. Volgens mij is die nog niet rond. Ik heb geen inhoudelijk idee over hoe die AI Act in elkaar moet zitten. Dat is ook niet mijn woordvoerderschap, moet ik eerlijk bekennen. Maar nogmaals, bij algoritmes wil je gewoon willen uitleggen: dit is bedacht om het vertrouwen terug te winnen. Het is bedacht om te kunnen zien welke data erin gaan, wat er gebeurt, wat eruit komt en welke beslissing er genomen wordt. Dat wordt inzichtelijk gemaakt. Daar gaat het om. En daarvoor moet je niet 109 algoritmes hebben, maar alle algoritmes, over alle lagen. En tegelijkertijd wil je exact weten dat het niet alleen maar voor het algemeen belang is. Ik mag hopen dat wat wij doen als gemeente, provincie, waterschap of Tweede Kamer altijd in het algemeen belang is. Je wilt zeggen voor welke wet het algoritme wordt toegepast en waar het voor dient. Is het voor de Politiewet? Voor de Gemeentewet? Dat is volgens mij belangrijk. Er moet dus inzichtelijk gemaakt worden wat erin gaat en welk doel het dient. Op de vraag over de AI Act heb ik geen antwoord, sorry.

De voorzitter:

Dank u wel. Dan heeft u nog een interruptie van mevrouw Bouchallikh, GroenLinks.

Mevrouw Bouchallikh (GroenLinks):

Ik was echt blij toen ik de VVD hoorde spreken over twee zaken waar wij het ook vaker over hebben, namelijk het weg willen gaan van incidentele politiek en discriminerende algoritmen. Specifiek werden gender en sociaaleconomische achtergrond genoemd. Dat waren een tijd geleden, in juni 2022, precies de afwegingen die wij maakten bij het opstellen van een motie waarin we vroegen om preventief onderzoek te doen om te kijken binnen welke rijksonderdelen er nog sprake is van discriminerende algoritmen. Daarmee willen we voorkomen dat we achteraf incidenten moeten gaan organiseren en regelen. Ik zie meneer Rahimi nadenkend kijken. Hij doet ook voor het eerst mee aan dit debat, dus alle begrip daarvoor; dat meen ik. Anders wil ik op een ander moment graag weten wat de afweging is geweest. Als ik kijk naar deze motie en luister naar het betoog, verbaast mij de tegenstem namelijk.

De heer Rahimi (VVD):

Ik ga graag in op het voorstel om hier later op terug te komen – dank daarvoor overigens – want twee jaar geleden zat ik nog niet eens in de Kamer. Ik ga daar dus graag op in.

De voorzitter:

Dank u wel daarvoor. En dan wens ik u succes met dat overleg. Dan zijn we nu bij de volgende spreker. Dat is mevrouw Koekkoek namens Volt.

Mevrouw Koekkoek (Volt):

Dank, voorzitter. Wij zijn kritisch op het kabinet als het aankomt op digitalisering, omdat er de afgelopen jaren weinig bestuurlijke visie is geweest op dit onderwerp. Nou brengt deze Staatssecretaris daar verandering in en dat waardeer ik, maar het kan en moet nog ambitieuzer. Het algoritmeregister is een goede stap, maar het is nog niet af. Om te komen tot een werkend systeem is het daarom belangrijk om de komende maanden samen met de Kamer, burgers, medeoverheden en uitvoeringsorganisaties na te denken over de doorontwikkeling van het register. Mijn eerste vraag aan de Staatssecretaris is daarom wie zij betrekt bij het uitwerken van het algoritmeregister. Wat Volt betreft komen alle algoritmes die door overheden en semioverheden in Nederland worden gebruikt centraal in één algoritmeregister. Dat lukt alleen door het gebruik van het register te verplichten voor overheden, met een mogelijkheid om die verplichting te handhaven. Dat betekent een wettelijke grondslag. De Staatssecretaris heeft in het AI-debat al aangegeven daarmee aan de slag te gaan, maar wel te willen wachten tot de AI-verordening er is. Ik vind dat een gemiste kans. Daarom vraag ik de Staatssecretaris niet te wachten op de uitwerking van de AI-verordening, maar een wettelijke grondslag voor verplichting van het algoritmeregister zo snel mogelijk te verankeren in de wet. Dat kan met een kaderbepaling waarbij de daadwerkelijke invulling door middel van AMvB gebeurt. Daarmee creëren we nu snelheid en later wendbaarheid. Ik vraag de Staatssecretaris ook om een brief te sturen met de daarin de dilemma's en de afwegingen voor het komen tot een dergelijke wettelijke verplichting.

Het register bestaat uiteraard niet in een vacuüm. Je hoopt in het register terug te zien dat alleen algoritmes worden gebruikt die via een ethisch waardekader tot stand zijn gekomen, dat er geen grondrechten geschonden worden. Je hoopt dat duidelijk is voor burgers hoe een besluit tot stand is gekomen. Daar moet je dus bij het ontwikkelen van algoritmes al rekening mee houden. Als je ze inkoopt, dan moet je de toepassing ervan begrijpen. Ik vraag de Staatssecretaris of zij het idee heeft dat er nu voldoende wettelijke kaders zijn om de ethische totstandkoming van algoritmes te garanderen en ook hoe het zit met de uitvoering van de breed aangenomen motie van DENK om bij besluiten van de overheid aan te geven of sprake is geweest van het gebruik van algoritmes in die besluitvorming. Wordt dat al toegepast of moeten we ook daarvoor een verplichting opnemen in de wet?

Voorzitter. Dan nog een aantal punten over data-ethiek. Ik zeg het vaker, in deze commissies en andere commissies: er wordt door het kabinet veel wetgeving gemaakt die niet in lijn is met privacywetgeving, niet handelt in de geest van het grondrecht op de bescherming van privacy. Ik noem een paar voorbeelden: PNR-gegevens, de anti-witwaswet en de NCTV-wet. Dat doet heel erg veel afbreuk aan de geloofwaardigheid en betrouwbaarheid van de overheid en dat moet beter. Een oplossing is om als onderdeel van de subsidiariteitstoets te onderzoeken of er voor verwerkingen van persoonsgegevens technische oplossingen zijn waarin gegevensverwerking zo veel mogelijk wordt beperkt, waarbij er ook aan wordt gedacht of er vanuit de samenleving oplossingen bestaan. Ik ben daarom benieuwd hoe de Staatssecretaris hierover denkt. Wordt er al genoeg gekeken naar technische oplossingen voor dataminimalisatie en is de IT van de overheid daar dan op toegerust?

Dank u, voorzitter.

De voorzitter:

Dank u wel, mevrouw Koekkoek namens Volt. Het moet me wel van het hart dat de dames beter in staat zijn om zich aan de minuten te houden dan de heren. Ik dacht: dat is een aanmoediging voor de twee volgende dames.

Mevrouw Leijten (SP):

Voorzitter, ik zal dat gemiddelde eventjes gaan torpederen.

De voorzitter:

Het woord is aan u, mevrouw Leijten.

Mevrouw Leijten (SP):

Voorzitter. Dit commissiedebat heet Inzet algoritmes en data-ethiek binnen de rijksoverheid, maar over data-ethiek hebben we het dan eigenlijk heel erg weinig. Het gaat over een toezichthouder, maar wat gaat die toezichthouder nou precies doen? Dat is onduidelijk. Het gaat over een algoritmeregister, maar wat daarin moet worden opgenomen, wanneer en op straffe van wat is onduidelijk. Er zijn rapporten geschreven, er worden onderzoeken gedaan en er worden werkagenda's opgesteld. De bestuurlijke drukte rond de algoritmes is enorm, maar de fundamentele vraag wat wij nou vinden dat er wel mag en niet mag met de inzet van algoritmes wordt onvoldoende besproken. Welke waarborgen willen we daarbij en welk toezicht? Allemaal vragen waarop nog geen antwoord is.

Toch gaan we ondertussen gewoon door met het inzetten van algoritmes die verregaande nadelige consequenties kunnen hebben voor mensen. Vinden we bijvoorbeeld dat algoritmes mogen worden ingezet op het voorspellen of kinderen het criminele pad op gaan? Vindt de Staatssecretaris dat eigenlijk een goed idee? Welke waarborgen zou ze daar concreet bij willen hebben? Wie gaat dat in de gaten houden, als bijvoorbeeld door de politie een dergelijk algoritme wordt ontwikkeld? Wie maakt welke afweging op welk moment? Welke beperkingen stelt het kabinet eigenlijk aan het inzetten van zelflerende algoritmes? Als het gaat over de jeugdzorg in Amsterdam, het Top400-algoritme waar ik naar verwijs, is de SP eigenlijk pislink over de beantwoording. Het gaat gewoon door. Er zijn dus kinderen, niet crimineel, die in systemen komen als zijnde potentieel crimineel en die zo worden benaderd op straat.

Sorry, maar ik heb het vaker gezegd: wij willen geen datasurveillance van de Facebooks van deze wereld en niet in algoritmes van Twitter worden getrokken die giftig zijn, maar we willen ook geen staat die op deze manier surveilleert en mensen in hokjes plaatst. Daarom stelde de SP voor om een waardekader te ontwikkelen. Een waardekader, ik krijg het nauwelijks uit mijn mond. U kent mij als iemand die duidelijke taal wil spreken, maar een waardekader is wat ons betreft de inzet van het kabinet voor hoe je dingen afweegt. Is gebruiksgemak, de voorspellende waarde daaruit, het voordeel of is het privacy? Wat weegt zwaarder? Op het moment dat we zo'n afwegingskader, zo'n waardekader, hebben, kunnen wij als Tweede Kamer controleren of het goed genoeg is of dat we het anders willen. Dan kan een toezichthouder daar toezicht op houden. Nu doen we maar wat. Wat de techniek mogelijk maakt, wordt ingezet, met alle risico's van dien. De Raad van State, de Wetenschappelijke Raad voor het Regeringsbeleid, Rathenau Instituut, Amnesty en Tweede Kamer uiten zorgen op zorgen op zorgen, maar deze Staatssecretaris zegt doodleuk: nee, ik ga algoritmes niet stoppen, ook niet als we niet zeker weten of ze goed zijn, want dan staat de overheid stil. Ja, maar dan hebben we dus een probleem met die overheid! Want natuurlijk wil niemand de overheid stilzetten. Maar we willen ook niet dat mensen in een fuik van profilering lopen. Dan moeten we wachten op Europa op het punt van algoritmes, want de AI Act regelt van alles, maar die gaat niet de mensenrechtentoets die wij hebben ontwikkeld, regelen. Hoe gaan we daar dan mee om? Waarom wachten we er nou precies op?

We hebben trouwens gisteren nog gezien dat er een uitspraak van het gerechtshof is. Daar is het ook in het mondelinge vragenuurtje over gegaan. Er moet een rechter aan te pas komen om te zeggen dat je toch niet op afkomst mag selecteren. Wat gaan we daar eigenlijk mee doen, vraag ik deze Staatssecretaris. Gaan we tegen die uitspraak in cassatie? Met «we» bedoel ik «de regering». Ik hoop dat toch niet.

Er zijn moties aangenomen over het gebruik van risicoprofielen, van vervuilde data, van het opschonen daarvan. Er is een heel programma opgesteld. «Motie 21» heet dat achter de schermen. Er zijn rapporteurs op aangesteld. Daar zou het vandaag ook over gaan. Maar dat is uitgesteld. Waarom? Het is niet af. Ik kan u dit vertellen: ieder ministerie gaat er anders mee om en iedereen onderzoekt het op een andere manier en iedereen heeft een andere definitie. We weten zeker dat de definitie bij politie en justitie totaal langs het probleem heen scheert. Dus wat zijn we nou precies aan het doen?

Voorzitter. Ook dat algoritmeregister ... O nee, ik moet op de tijd letten. We krijgen een toezichthouder en een algoritmeregister, maar we hebben daarbij een uitzondering op de rechtshandhaving. Waarom is dat nou gedaan?

Tot slot, voorzitter. Er is gekozen voor de Autoriteit Persoonsgegevens. Niks ten nadele van de Autoriteit Persoonsgegevens, maar we weten dat die al jarenlang eigenlijk tegen de klippen op werk heeft en geen mensen of geen funding heeft, ondergefinancierd is. Die krijgt een nieuwe taak met het handhaven van de zwarte lijsten in de zorg. Gisteravond hebben we daar een wetsvoorstel over gehad. Ze krijgt nu een nieuwe taak voor dat register en als algoritmetoezichthouder. Hoe krijgen we dat in hemelsnaam voor elkaar en hoe voorkomen we dat we over drie jaar zeggen: we hebben het allemaal wel opgetuigd, maar we hebben feitelijk geen toezicht?

De voorzitter:

Dank u wel, mevrouw Leijten namens de SP. Ik kijk even rond. Ik zie geen interrupties. Dan is het woord aan de laatste spreker van de zijde van de Kamer. Dat is mevrouw Kathmann van de PvdA.

Mevrouw Kathmann (PvdA):

Dank u, voorzitter. We spreken al de hele tijd over algoritmes. En ik zei het net al, als we erover spreken, moeten we niet denken dat het een dingetje op zichzelf is. We kunnen niet met registers, toezichthouders of mensenrechtentoetsen de hele ethische discussie over algoritmes platslaan. Wij vinden dat altijd heel erg prettig, want dan kan je dingen in een malletje, handreiking of beleidsnotitie stoppen. Maar dat gaat gewoon niet. Neem alleen al het stellen van de vraag «wat als het algoritme het bij het verkeerde eind heeft?» Dat moeten we altijd blijven doen. Als het antwoord nou is dat het algoritme het bij het verkeerde eind had, wat doet dat dan met besluitvorming en overheidshandelen? Dat is ongelofelijk belangrijk.

Ik zei het hier al eerder: a fool with a tool is still a fool. Dat betekent niet dat wij allemaal idioten zijn; dat zeg ik hier niet mee. Maar het betekent wel dat we de discussie over data-ethiek moeten blijven voeren. In de documenten die op ons af zijn gekomen, zie je ook echt dat het pas in de kinderschoenen staat. Ik snap daarom ook zeker de frustraties van de voorgaande spreker, mevrouw Leijten van de SP.

Toch is de Partij van de Arbeid blij met de stappen die door het kabinet zijn gezet met die algoritmetoezichthouder/het expertisecentrum en ook met het algoritmeregister. Zeker de moties van Klaver en Van Baarle hebben veel goeds gedaan om die stappen te kunnen zetten. Maar ik had wel echt een groot aantal vragen. De meeste zijn gesteld, dus die ga ik niet herhalen. Ik weet dat het stevige vragen waren, maar ik sluit me toch aan bij de vragen van de heer Van Baarle over de algoritmetoezichthouder. Waar zijn de tanden nou gebleven? Het duurt namelijk echt allemaal al erg lang. Wij snappen ook dat de Staatssecretaris dat vindt. Maar als we dan iets optuigen, laten we dan haast maken en gelijk dingen optuigen met tanden.

Als het gaat over de normontwikkeling bij de toezichthouder, wil ik me graag aansluiten bij de vragen van het CDA. Als het gaat om algoritmen en besluitvorming – dat is ongelofelijk belangrijk; ik zei het net al – wil ik me heel graag aansluiten bij de vragen die daarover zijn gesteld door Volt.

Het aantal algoritmes dat is aangemeld door de overheid bij het algoritmeregister is natuurlijk heel bedroevend. Daar heeft GroenLinks scherpe vragen over gesteld. Daar wil ik me heel graag bij aansluiten. Hetzelfde geldt voor de vragen van GroenLinks over de mensenrechtentoets.

Ik kon al mijn vragen dus wegstrepen, maar ik wil de Staatssecretaris wel nog om één reflectie vragen. Dit gaat over Joris Krijger, promovendus aan de Erasmus Universiteit. Laatst was hier ook stuk over in Trouw. Hij zegt dat zo'n algoritmeregister an sich helemaal niet voldoende is. We hebben eigenlijk expertteams nodig die zich helemaal mogen ingraven in zo'n algoritme, met geheimhouding of wat dan ook, want soms geeft de overheid aan dat het anders niet kan. Zo kan het algoritme helemaal worden doorgekliefd en kan er worden gezien hoe het tot stand is gekomen, hoe het is ontwikkeld en hoe het is toegepast. Dat is dus meer dan alleen een vinkje zetten als het in het register staat.

Tot slot zou ik graag een reflectie willen van de Staatssecretaris op die expertteams. Moeten we die niet breder inzetten? Er is namelijk een commissie bij het UWV. Die heeft wel een hele andere taakomschrijving, maar misschien zou je dit daarmee samen kunnen voegen tot een soort commissie met tanden; laat ik die zo noemen.

Tot zover, voorzitter.

De voorzitter:

Dank u wel, mevrouw Kathmann. U bent keurig binnen de vier minuten gebleven. Dank daarvoor. Daarmee zijn we aan het einde gekomen van deze termijn. Ik kijk heel even naar de Staatssecretaris. Ik schors tot 15.30 uur, maar dan gaan we ook stipt om 15.30 uur beginnen. We hebben dus niet nog vijf minuutjes uitlooptijd. We gaan om 15.30 dus verder. Omdat we nog een tweede termijn willen hebben, kijk ik even naar de Staatssecretaris en via haar naar de ambtenaren erachter met de vraag of één algemene inleidende tekst dan wellicht volstaat in plaats van één per kopje.

De vergadering wordt van 14.54 uur tot 15.30 uur geschorst.

De voorzitter:

Aan de orde is het commissiedebat Inzet algoritmes en data-ethiek binnen de rijksoverheid. We hebben net de eerste termijn van de Kamer gehad en we zijn aanbeland bij de beantwoording van de gestelde vragen door de Staatssecretaris. Ik geef de Staatssecretaris het woord. Nog even ter herinnering voor de leden: drie interrupties in tweeën.

Staatssecretaris Van Huffelen:

Dank u wel, voorzitter. Zoals u suggereerde, heb ik een korte introductie gemaakt. Daarna zou ik de gestelde vragen willen beantwoorden in een viertal blokjes, te beginnen met het blokje over algoritmes, dan over toezicht, dan over mensenrechten en daarna nog een blokje met andere onderwerpen die niet in een van deze passen. Ik ga proberen dat zo kort mogelijk te doen.

De kern van dit debat is de aandacht die we moeten hebben voor de inzet van algoritmes en data-ethiek. De impact daarvan, weten we allemaal, is ontzettend gegroeid in de afgelopen jaren in onze hele samenleving. Dat geldt lang niet alleen voor de overheid. Op allerlei plekken in onze samenleving worden algoritmes gebruikt. We weten dat die ons fantastische dingen kunnen brengen, maar we weten ook dat er gevaren zitten aan het gebruik van algoritmes, met name als het gaat over mensenrechten en de mate waarin we nog controle hebben over ons eigen leven.

We hebben op 25 januari ook over dit onderwerp gesproken en dat doen we vandaag opnieuw. Dat is goed, omdat we vanuit het werkprogramma dat dit kabinet heeft gemaakt vooral bezig zijn met het nadenken over de vraag: hoe kunnen we algoritmes in een positieve zin brengen en stimuleren? Hoe kunnen we de maatschappelijke en economische kansen ervan zo goed mogelijk benutten? Maar vooral ook: hoe kunnen we zorgen dat er voldoende aandacht blijft voor mensenrechten, voor ethiek, niet alleen maar voor de algoritmes die er vandaag de dag al zijn, maar zeker ook voor algoritmes en nieuwe technologieën die zich in de komende tijd gaan ontwikkelen?

Vanuit de werkagenda die is opgesteld, doen we dat vanuit het kabinet op verschillende manieren. We doen dat door in Europees verband heel actief in te zetten op zorgen dat er goede verordeningen komen voor algoritmes. Die zorgen namelijk niet alleen dat we in Nederland goede afspraken maken, maar ook dat algoritmes die elders worden geproduceerd en in Nederland worden gebruikt, of dat nou door de overheid is of door private personen, voldoen aan de vereisten die wij van belang achten. Daarbij zijn fundamentele rechten, mensenrechten, privacy, transparantie – weet je nog wat er precies gebeurt met jouw data? – een belangrijke factor. Dat doen we ook door binnen de Nederlandse overheid een stap verder te zetten. Dat hebben we dan ook gedaan – we komen daar zo meteen verder over te spreken – door het opzetten van een algoritmeregister, door het inzetten van een toezichthouder en niet in de laatste plaats door afspraken te maken, vooruitlopend op de implementatie van de algoritmeverordening vanuit de EU op een manier van werken binnen de overheid die voldoet aan wat het kabinet en zeker ook uw Kamer, zoals ze in eerdere debatten heeft aangegeven, van groot belang vinden. Dat is het eerste wat ik wilde zeggen. Ik ga nu over tot het beantwoorden van de vragen in de verschillende blokjes.

Ik begin met het thema algoritmes. Dan kom ik direct bij de vragen die door de heer Van Baarle daarover gesteld zijn. Hij vroeg het volgende aan mij. We zijn bezig op allerlei manieren om inzicht te krijgen in algoritmes die de overheid op dit moment in gebruik heeft. Dat doen we op verschillende manieren. Er is het register dat we nu aan het vullen zijn, maar er zijn ook de onderzoeken die we hebben gedaan naar aanleiding van de problemen die we eerder hebben gezien, bijvoorbeeld rondom de toeslagen, om per ministerie in beeld te krijgen welke algoritmes worden gebruikt en of daarbij sprake is van onoorbare praktijken, van discriminatie of van het foute gebruik van gegevens. U vroeg in het kader van het opzetten daarvan of we precies weten hoeveel algoritmes er zijn met automatische besluitvorming. Dat klinkt als een heel logische vraag, maar is heel lastig te beantwoorden. Algoritmes met automatische besluitvorming zijn bijvoorbeeld de algoritmes die we in stoplichten gebruiken, maar ook de algoritmes die gebruikt worden bij het toekennen van verkeersboetes. Als je langs een flitser rijdt en te hard of door rood licht rijdt, krijg je ook zoiets. Het punt is dat we dat niet precies weten. Wij selecteren niet zozeer op de vraag of er sprake is van automatische besluitvorming, maar kijken vooral of algoritmes van de categorie hoog risico zijn. Hoogrisicoalgoritmes zijn algoritmes waarbij sprake is van persoonsgegevens of van impact voor mensen in die zin dat er iets met hun data en gegevens gebeurt of dat besluitvorming een grote impact heeft op hun leven. De definitie daarvoor die we ook in Europees verband gebruiken, is eigenlijk het onderscheid dat we maken. Daarbij kijken we dus niet zozeer alleen naar de vraag hoe het precies werkt, maar geven we ook aan of er sprake is van een hoog risico of niet. Op dit moment hebben we dat dus niet. We zijn eigenlijk ook vooral van plan om de registratie van algoritmes te hanteren aan de hand van het criterium wel of geen hoog risico.

De voorzitter:

Voor u vervolgt, zijn er twee interrupties. Eerst is de heer Van Baarle en daarna de heer Rahimi. Meneer Van Baarle.

De heer Van Baarle (DENK):

Dank voor de beantwoording. Dat roept voor mij wel de vraag op wat dan precies de definitie is. Wat wordt er exact gekwalificeerd als hoog risico? Weten we dan wel het antwoord op de vraag hoeveel hoogrisicoalgoritmen we als overheid hebben?

Staatssecretaris Van Huffelen:

We hebben daar natuurlijk een eerste inventarisatie van gemaakt. De definitie van hoog risico die op dit moment – in een volgende fase komen we in de triloogfase – gebruikt wordt in die Europese verordening, is dat het erom gaat dat deze algoritmes worden toegepast in situaties waarin er sprake is van systemen waarin persoonsgegevens worden omvat en waarin die algoritmes risico's zouden kunnen bieden voor fundamentele rechten, gezondheid of veiligheid. In de verordening zijn daarvoor ook lijsten en systemen gemaakt. Die algoritmes zouden we ook honderd procent in beeld moeten hebben als we het in eerste instantie over de overheid hebben. Dat zijn precies de algoritmes die in dat register een plek moeten hebben en waarvan dan ook, conform de afspraken die wij daarover eerder hebben gemaakt, niet alleen inzichtelijk moet zijn waarvoor dat algoritme wordt gebruikt, maar ook hoe het in elkaar zit, of er sprake is geweest van een voorafgaande mensenrechtencheck, enzovoorts, enzovoorts, enzovoorts. Dat is dus wat wij onder die definitie verstaan.

De heer Van Baarle (DENK):

Excuses, maar dat was geen antwoord op de vraag. De vraag was wat precies de definitie van hoog risico is. Ik hoor dan dat het gaat om persoonsgegevens. Het is arbitrair wat daar wel en niet onder valt. Het is arbitrair wat onder risico's voor fundamentele rechten valt. Wanneer spreek je van een risico voor fundamentele rechten? Is die gelijkluidende definitie overal op exact dezelfde manier en uitlegbaar toegepast?

Twee. Mijn vraag is ook: als dat de definitie is die we hanteren, weet de Staatssecretaris dan wel het antwoord op de vraag hoeveel van die algoritmen we bij de overheid hebben? Als we dat niet weten, hebben we een probleem, volgens mij.

Staatssecretaris Van Huffelen:

De helderheid over die definities is, nogmaals, dat we die hebben beschreven in die AI-verordening. Die zal in de komende tijd ook verder worden uitgewerkt. We hebben daarin namelijk opgeschreven dat het gaat over algoritmes waarbij de besluitvorming effect heeft op mensenrechten. Dat gaat noodzakelijkerwijs dus niet over algoritmes die een lift of een stoplicht aansturen. Het gaat wel over de algoritmes die bepalen of je wel of niet in aanmerking komt voor een uitkering, of die werken op het gebied van bijvoorbeeld risicoselectie en dergelijke. Overigens gaat het erom – dat is iets wat we vandaag ook wel aan de orde zullen stellen, denk ik – dat er altijd eerst een afweging gemaakt moet worden van of er überhaupt wel of niet een algoritme wordt ingezet bij de uitvoering van beleid. Als we die hoogrisicoalgoritmes gedefinieerd hebben, moeten we er natuurlijk voor zorgen dat die allemaal in het register komen. Weet ik nu al voor honderd procent hoeveel dat er zijn? Nee, dat weten we nog niet voor honderd procent. Bij de activiteiten die we doen in het kader van de motie op stuk nr. 21 – daarover hebben we u een brief gestuurd waarover we later deze maand een debat zullen voeren – is het natuurlijk de bedoeling dat we ook heel precies weten of we alle algoritmes ook daadwerkelijk in beeld hebben. Omdat ik het zo belangrijk vind dat we dit voor honderd procent in beeld krijgen, gaat het er, wat mij betreft, niet alleen om dat we aan organisaties vragen om dat te doen, maar ook dat we dat uiteindelijk gaan verplichten, zodat we daarover niet alleen in Europa afspraken maken, maar we dat ook binnen de context van de Nederlandse overheid doen. Van de hoogrisicoalgoritmes moet namelijk honderd procent in beeld zijn. Daarvan moet transparant zijn hoe ze functioneren. Die moeten voldoen aan vereisten die bijvoorbeeld gaan over dat je niet alleen maar aan het begin, bij de introductie daarvan, een keurmerk of een toets hebt, maar dat ook tijdens het gebruik daarvan in de gaten wordt gehouden of zo'n algoritme inderdaad nog doet wat het moet doen en vooral of het niet gebiased raakt of op de een of andere manier tot verkeerde uitkomsten leidt.

De voorzitter:

Dank u wel. En voor de liefhebber: de motie op stuk nr. 21 is de motie-Marijnissen/Klaver. U wilt nog een tweede interruptie, meneer Van Baarle?

De heer Van Baarle (DENK):

Ja, want we hebben drie keer een interruptie in tweeën, toch?

De voorzitter:

Ja. Dit wordt dus uw tweede interruptie.

De heer Van Baarle (DENK):

Ik ga die hier wel aan besteden, voorzitter, want ik vind de beantwoording in alle oprechtheid niet bevredigend. Ik vraag tot drie keer toe naar een definitie van een hoogrisicoalgoritme, omdat die definitie is gehanteerd bij het controleren of een algoritme discrimineert. De Staatssecretaris komt niet verder dan algemeenheden. Als die de definitie vormen bij het controleren of een algoritme discrimineert, moeten we toch op z'n minst weten hoeveel we er daarvan hebben? Het antwoord daarop komt ook niet. Mijn impressie is dus op z'n minst dat de overheid in die hele doorlichting, bij de uitvoering van de motie-Marijnissen/Klaver om te kijken of algoritmen discrimineren, niet weet welke definitie er gehanteerd wordt. Als we na afronding van het traject niet eens weten hoeveel hoogrisicoalgoritmen we hebben, dan hebben we toch niet goed naar onze algoritmen gekeken? Dus kan de Staatssecretaris nogmaals antwoord geven op die twee vragen? Anders blijf ik erbij dat ik mij als vertegenwoordiger van de fractie van DENK ernstig zorgen maak over de vraag of we dit wel goed hebben aangepakt.

Staatssecretaris Van Huffelen:

Misschien is het goed om toch even een paar dingen uit elkaar te halen. Bij het uitvoeren van de motie op stuk nr. 21 – nogmaals, we komen daar in een volgend debat verder over te spreken – hebben we aangegeven dat het er vooral om gaat dat we willen onderzoeken of er door de overheid andere algoritmes worden gebruikt waarin sprake is van discriminatie of verkeerd gebruik van persoonsgegevens. Dat is geanalyseerd. Alle departementen hebben hun werk gedaan. Ze zijn daar voor het grootste deel mee klaar, maar moeten de laatste punten nog afronden. Op basis daarvan weet u inderdaad hoeveel van deze algoritmes zij hebben onderzocht. Dat beschrijven ze ook in hun aanpak. Er is ook aangegeven of er sprake is van algoritmes die niet voldoen aan de vereisten of aan de definitie zoals we die hebben gehanteerd. Met u heb ik gezegd dat ik het belangrijk vind dat we dat ook nog een keer onafhankelijk laten toetsen. Daarom heb ik in de brief die ik naar u heb gestuurd ook geschreven dat ik ermee aan het werk ben om dat te laten doen.

De definitie die de AI Act, dus de AI-verordening, gebruikt in Europa, kan ik er nog even voor u bij pakken. Ik wil die in de tweede termijn graag even aan u voordragen. Die geeft inderdaad aan dat het niet alleen over discriminatie gaat, maar definieert ook in bredere zin de verschillende niveaus van risico's van algoritmes. Er zijn algoritmes die je überhaupt niet mag gebruiken, hoogrisicoalgoritmes, laagrisicoalgoritmes enzovoort, enzovoort. Vervolgens wordt er aangegeven welke van deze algoritmes we in kaart moeten hebben, van tevoren een keurmerk moeten hebben en aan allerlei vereisten moeten voldoen. Dat is eigenlijk hetgeen waarmee we werken. Voor een deel overlapt dat uiteraard, want de AI Act gaat ook over racisme, discriminatie, het niet verkeerd gebruiken van persoonsgegevens. Maar ik ben het zeer met u eens dat we in de Nederlandse implementatie van deze verordening – we doen dat bij de overheid dus in het implementatiekader dat we dit jaar opstellen – in ieder geval heel helder moeten stellen welke algoritmes wij definiëren als hoogrisicoalgoritmes, hoe we voor honderd procent dat register kunnen vullen en hoe de toezichthouder vervolgens ook honderd procent kans heeft om daarmee zijn werk te doen, namelijk het toezicht houden op deze algoritmes.

De heer Van Baarle (DENK):

Ik blijf deze vraag herhalen omdat de Staatssecretaris in control, coördinerend, is op dit dossier. Het is een majeure operatie om te kijken of we binnen de hele overheid algoritmen hebben die wellicht discrimineren. We hebben die hele operatie met elkaar op touw gezet om alle algoritmen te controleren op een hoog risico en op de vraag of ze wellicht discrimineren. Ik vind het onbevredigend dat aan het einde van het traject een coördinerend bewindspersoon in dit debat geen antwoord kan geven op fundamentele vragen, namelijk hoe die definitie exact luidt, of die overal op een gelijkluidende manier toegepast is en hoeveel hoogrisicoalgoritmen we dan hebben. Als die antwoorden aan het einde van dit traject nog steeds niet komen, ben ik er niet zeker van of we wellicht discriminerende algoritmen op ministeries hebben gemist. Als we niet weten hoeveel het er überhaupt zijn, ben ik er niet zeker van of we met elkaar wellicht nog van die monsters onder de motorkap hebben die mensen duperen. Dat is de kern van de vraag. Ik ben dus op zoek naar meer control. Ik zou aan de Staatssecretaris willen vragen om eraan tegemoet te komen om die zorg weg te nemen.

De voorzitter:

Dank u wel. Ik kijk even naar de Staatssecretaris met de vraag of zij na dit betoog nog iets kan toevoegen.

Staatssecretaris Van Huffelen:

Die zorg wil ik natuurlijk graag wegnemen, want volgens mij hebben we precies hetzelfde voor ogen: we willen dat er bij de overheid geen algoritmes worden gebruikt die effecten hebben die we niet willen, zeker op het gebied van discriminatie. Dat is ook precies wat de motie op stuk nr. 21 doet. Nogmaals, we gaan nog uitgebreid met elkaar spreken over de resultaten van die exercitie, van het werk dat we gedaan hebben. Ik vind het wel goed om dit uit elkaar te trekken, want het gaat daar over racisme, discriminatie en een aantal andere effecten. Dat is iets anders dan wat we in de AI-verordening hebben opgenomen. De definities die we daar gebruiken, zijn breder en gaan ook over andere effecten die onwenselijk zijn bij het gebruik van algoritmes. Ik denk dus dat het goed is dat we beide naast elkaar zetten, maar dat we in ieder geval, ook ten aanzien van de motie op stuk nr. 21, op basis van de check die we hebben gedaan, inzichtelijk hebben welke algoritmes de overheid gebruikt en of zij wel of niet voldoen aan de vereisten. We moeten er zeker van zijn dat die lijst 100% dicht is. Nogmaals, alle departementen hebben daar zeer serieus aan gewerkt. Mijn voorstel is, ook naar aanleiding van het debat dat we daar eerder over hadden, om dat nog een keer te laten toetsen, zodat we zeker weten dat er niet iets vergeten is. Het tweede punt is dat we ook verder moeten. Nogmaals, dat doen we op basis van wat we zelf bij de overheid gaan afspreken, in lijn met wat we ook in Europa afspreken. Het oogmerk blijft dus precies hetzelfde, namelijk zorgen dat we echt weten welke algoritmes gebruikt worden en in zicht brengen welke daarvan potentieel niet voldoen, want dan moeten we zorgen dat ze daar echt mee aan het werk kunnen.

De voorzitter:

U heeft een interruptie van de heer Rahimi van de VVD en daarna van mevrouw Leijten.

De heer Rahimi (VVD):

In de eerste termijn had ik het al over die snelheidsboetes. Het enige wat ik de Staatssecretaris wil vragen, is of zij het daarmee eens is. «Algoritmes» is gewoon een wiskundig begrip. De simpele beslisregels – wel of niet een boete bij 110 kilometer – zijn simpel; die snapt iedereen. Maar als je vrouw zwanger is en als je racet naar het ziekenhuis, krijg je dan ook een boete? Soms wordt dat heel moeilijk. Ik wil dus wel benadrukken dat het soms heel makkelijk lijkt om over die beslisregels een mening te hebben. Ik wil de Staatssecretaris vragen of zij mee wil nemen dat die simpele beslisregels ook goed getoetst worden. Soms kunnen ze immers complex zijn. Is de Staatssecretaris het daarmee eens?

Staatssecretaris Van Huffelen:

Ja, daar ben ik het zeer mee eens. Het is ook om die reden dat we de Algemene wet bestuursrecht aan het uitbreiden zijn, want wij vinden het heel belangrijk dat iedere beslissing die de overheid neemt of iedere soort beslissing die de overheid neemt, heel goed inzichtelijk is. Sowieso is er op dit moment al een motivatieplicht. Als je die boete krijgt, moet er dus worden uitgelegd waarom je die boete hebt gekregen, hoe je daartegen in bezwaar kan gaan, enzovoort, enzovoort. Maar ik vind het belangrijk dat gewoon op de website en/of op andere manieren voor iedereen die bijvoorbeeld iets wil aanvragen, zoals een subsidie, inzichtelijk is hoe en met welke gegevens beoordeeld zal worden of je wel of niet in aanmerking komt, bijvoorbeeld voor zo'n subsidie, en waar die gegevens vandaan komen. Dat betekent gewoon helderheid en transparantie. Natuurlijk moet ook helder worden gemaakt of er dan sprake is van algoritmische onderdelen in die besluitvorming, waarbij we ook eerder in debatten over dit onderwerp hebben gezegd dat beslissingen die een direct impactvol effect op je kunnen hebben, bijvoorbeeld de beslissing of je wel of geen subsidie krijgt of dat je belasting wordt aangepast, nooit alleen op basis van een algoritmisch besluit kunnen worden genomen. Er is altijd een menselijke tussenkomst nodig voordat dat besluit daadwerkelijk kan worden genomen.

Mevrouw Leijten (SP):

Dat laatste is nog helemaal niet geregeld. De gemeenten vragen zelfs om de omgang met algoritmes op te nemen in de algemene beginselen van behoorlijk bestuur. Dat is nogal een principiële vraag. Het is dus gewoon niet geregeld. Maar de Staatssecretaris zei zojuist dat altijd de afweging wordt gemaakt of een algoritme wel of niet wordt ingezet. Mogen wij die afwegingen weten? Welke lijn wordt er dan gehanteerd en welk afwegingskader zit daarin? Want van het waardekader waarnaar ik heb gevraagd, zegt van de Staatssecretaris: dat ga ik lekker niet maken. Die motie voert zij niet uit.

Staatssecretaris Van Huffelen:

Gelukkig doen we dat wel. Sterker nog, het waardekader en het maken daarvan zijn onderdelen van ons werkprogramma en zijn daarin opgenomen. Ik noem bijvoorbeeld de mensenrechtentoets die we hebben ingevuld. Die begint eigenlijk met de vraag of er überhaupt wel een algoritme nodig is om dit deel van het beleid of deze regel uit te voeren. En eerlijk gezegd vind ik die zelf ongelofelijk belangrijk, want de vraag is dan inderdaad of dit de beste en meest gewenste tool is om in te zetten, nog voordat je vervolgens allerlei vraagstukken behandelt over de verschillende stappen die je dan zet en of er daarin dan ook weer sprake is van het in acht nemen van alle mensenrechten die van belang zijn. Ik denk dus dat het heel goed is dat we daar scherp op zijn en dat we dat als regel nummer één opschrijven in het implementatiekader dat we maken voor de overheid. Maar dat is net zo goed van belang voor verdere vragen. Als eerste stap in het waardekader is het wat mij betreft een belangrijke factor dat je eerst de vraag stelt of een algoritme nodig is.

Mevrouw Leijten (SP):

Of je nou een brief leest van de Staatssecretaris of haar hoort antwoorden: het is altijd een brij aan verwijzingen naar agenda's, werkprogramma's en noem allemaal maar op. Het is ook altijd managementspeak: we gaan doen, we gaan doen, we gaan doen. Maar wat gebeurt er nú? Er zijn nú algoritmen die bepalen of kinderen wel of niet crimineel worden, en zo worden zij ook behandeld op straat. Dat is geen besluit of je een subsidie krijgt of niet, of je toeslag wordt stopgezet of niet, of dat je een boete krijgt of niet. Maar dat bepaalt wel heel veel over je leefomgeving. Je zal het stempel maar krijgen. En we gaan daar gewoon mee door. Welke afweging is daar nou precies gemaakt? Welke afweging wordt er nou precies gemaakt bij justitie als ze dat allemaal doen onder de Wet politiegegevens? Die valt bijvoorbeeld níét onder het toezicht van de Autoriteit Persoonsgegevens. Daar geldt de AVG ook níét. Als je het daaronder wegschrijft, mag je dus van alles doen. En hoe gaan we daar nou achter komen?

Over de uitvoering van de motie-Marijnissen/Klaver gaan we nog een uitgebreid debat over voeren, want er komt ook een duidelijke rapportage. Bij die operatie valt het ons op dat ieder ministerie een andere definitie hanteert. En dan komen we er niet. Wat voor betekenisvolle stap gaat de Staatssecretaris nou zetten, anders dan op papier, met werkprogramma's en met hele goede voornemens, waardoor er echt iets gebeurt?

Staatssecretaris Van Huffelen:

Het begint er in ieder geval mee dat we het eens moeten zijn over wat we willen bereiken. Volgens mij zijn we dat. Dan misschien toch nog even over de vragen die u heeft over de kinderen die worden gevolgd. Dat algoritme wérd inderdaad gebruikt door de gemeente Amsterdam. De burgemeester van Amsterdam heeft aangegeven dat ze vindt dat dat niet meer moet worden ingezet. Het is in juli 2016 ingezet, maar daarna is het niet meer gebruikt. Ik denk dat dat heel terecht is, want dat is precies een algoritme waarvan je niet wilt dat het ook daadwerkelijk wordt ingezet.

Ik denk dat het helder is dat grip krijgen op algoritmes geen makkelijk, eenduidig onderwerp is, want er zijn ongelofelijk veel soorten algoritmes. We hebben het dan niet alleen maar over hoge en lage risico's, over stoplichten versus besluitvorming of over de vraag of je wel of niet in aanmerking komt voor een bepaalde subsidie. We hebben het al helemaal niet over de algoritmes die socialmediaplatforms gebruiken om bepaalde soorten informatie wel of niet naar u toe te sturen. We proberen er niet een beetje, maar met heel veel kracht voor te zorgen dat we helderheid krijgen over wat er nou precies wordt gebruikt, want ik ben het met u eens dat het, zeker ook voor de overheid, heel belangrijk is dat we duidelijk hebben welke soorten algoritmes we gebruiken. Dat geldt overigens ook voor de private sector. Dat is ook de reden waarom die algoritmeverordening in Europa niet alleen gaat over de overheid, maar ook over de private sector. Zo is er transparantie. Zo weten we wat ze doen. De heer Rahimi heeft daar ook iets over gezegd. Zo kunnen we ook aangeven wat we wel en niet goed vinden. Het is niet altijd eenvoudig om dat helemaal van tevoren dicht te regelen, omdat we nog niet al die algoritmes in al hun aspecten goed kennen. Dat is ook precies waar het over gaat: helderheid krijgen over wat er gebeurt, om vervolgens verder te gaan met de stappen die we willen zetten. Daarbij staat voorop dat er een paar hele heldere kaders zijn, namelijk onze Grondwet, mensenrechten en de fundamentele rechten van burgers die we in eerste en in laatste instantie moeten beschermen.

De voorzitter:

Dank u wel, vervolgt u uw betoog.

Staatssecretaris Van Huffelen:

Graag.

De voorzitter:

En ik heb trouwens een oproep aan zowel de leden als aan u. Ik weet dat we allemaal ons best doen, maar we hebben maar drie uur voor dit overleg. Ik hoop toch om uiterlijk 16.40 uur met de tweede termijn te starten. Ik hoop daar van alle kanten uw hulp bij te krijgen, door de vragen kort te formuleren en kort te zijn in de beantwoording.

Vervolgt u uw betoog.

Staatssecretaris Van Huffelen:

Ja, ik ga door met de vragen. Ik kom bij de vraag van de heer Van Baarle of de ADR de juiste instantie is als we een extra toets willen doen op de uitvoering van de motie op stuk nr. 21. Wij hebben voor de ADR gekozen omdat die deze analyse al bij één ministerie heeft gedaan, namelijk bij het Ministerie van Sociale Zaken. We hebben gezien dat die werkt en dat die goed is. De ADR voldoet aan alle aspecten. Ze hebben genoeg kennis en ervaring en kunnen dit onderzoek goed doen. Maar ik informeer u nog over hoe we de uitvoering van dit onderzoek willen doen. Ik heb dat ook toegezegd. Ik informeer u zodanig dat u kunt meekijken, want ik hecht er vooral ook aan dat, als we dit onderzoek extern laten doen, het dan op een manier gebeurt waarvan u ook zelf zegt dat die helpt om de inzichten te krijgen die het moet opleveren.

Mevrouw Leijten (SP):

Ik zou de Staatssecretaris graag willen vragen of zij de Kamer zou willen respecteren bij het doen van dit onafhankelijke onderzoek en met ons zou willen overleggen wie dat het beste kan doen. Wij hebben rapporteurs op dit onderwerp. Het gaat om de uitvoering van Kamermoties. Wij hebben serieuze zorgen over het feit dat de ADR het doet, omdat de ADR ook een rol heeft gespeeld in het toetsen van algoritmes en de uitvoering van ICT binnen de overheid. Ik zou de Staatssecretaris eigenlijk willen vragen of zij, voordat zij zegt wie ze zelf aanwijst als zogenaamde onafhankelijke uitvoerder van de toets, met de Kamer wil bespreken of we daar gezamenlijk een besluit over kunnen nemen. Anders blijven we tegenover elkaar staan, en dat is echt niet goed op dit onderwerp. Aanvankelijk wilde de Staatssecretaris niet onafhankelijk toetsen. Ze zei later toe dat wel te gaan doen. Het is de ADR geworden. Daar hebben we vanwege die dubbelrol echt serieuze, inhoudelijke problemen mee. Is de Staatssecretaris bereid om met de Kamer te overleggen wie dat het beste kan doen?

Staatssecretaris Van Huffelen:

Ik zie die dubbelrol van de ADR eerlijk gezegd niet zo. Zij zijn de accountant van het Rijk en daarmee toetsen ze zijn werk op meerdere vlakken. Overigens spelen bij de toetsing van algoritmes ook anderen nog een rol. Maar het gaat nu over dit onderzoek. We kunnen het ook omdraaien. U kunt ook aangeven dat u denkt dat een andere organisatie dat zou moeten doen. Ik kan dat dan samen met mijn collega's meewegen in dit voorstel.

Mevrouw Leijten (SP):

Als daar ruimte voor is, zou ik die graag willen gebruiken, want de ADR heeft wel degelijk ook een adviesfunctie bij het op een goede manier aanleggen van systemen. De ADR kijkt daar dus wel degelijk bij mee. Later moet die ze weer toetsen. Om iedere mogelijke schijn van van alles te voorkomen, juist omdat het hier gaat over zo'n belangrijk punt, en juist omdat we geen incidentenpolitiek willen, om maar even met de VVD te spreken, kunnen we het volgens mij beter vooraf goed afspreken, zodat er achteraf geen andere inzichten zijn. Ik zou het echt erg op prijs stellen als de Staatssecretaris dat samen met de vaste commissie voor Digitale Zaken zou willen oppakken.

Staatssecretaris Van Huffelen:

Om het heel praktisch te houden – volgens mij moeten we niet te lang wachten met deze toets – zou ik zeggen: laat u mij als commissie weten welke partij of welke soort partij u zou willen. Dan kan ik die in de overweging meenemen.

Mevrouw Leijten (SP):

Ik zeg het niet omdat ik mezelf werk wil geven, maar dan zou ik willen voorstellen dat de rapporteurs op dit onderwerp, mevrouw Dekker-Abdulaziz en ik, daarvoor met een voorstel komen. Wij kijken namelijk ook mee met de voortgangsrapportages. Wellicht kan meneer Van Baarle ook meehelpen. Ik zou aan de Staatssecretaris willen vragen om tot die tijd nog geen stappen te zetten; dan zullen wij proberen om zo snel mogelijk ons werk te doen.

Staatssecretaris Van Huffelen:

Heel graag. Perfect.

De voorzitter:

Dan noteren we dat. Vervolgt u uw betoog.

Staatssecretaris Van Huffelen:

Ik ga door naar de vraag van de heer Van Baarle over de antidiscriminatierichtlijnen van de algoritmeverordening. Worden die ook daadwerkelijk heel concreet? Ja, die zijn heel concreet. Ze zijn opgenomen in het akkoord zoals het er op dit moment is. U weet dat het nog niet definitief is. Er zijn nog trilogen. Er staat in dat data die tot vooroordelen en discriminatie leiden, geïdentificeerd moeten worden en voorkomen moeten worden enzovoort, enzovoort. Dat is dus ook een heel belangrijke kwestie aan onze kant. Bovendien staat erin dat die mensenrechtentoetsen voorafgaand aan de inzet van algoritmes moeten worden gedaan. In mijn perspectief en dat van het kabinet is dit goed geregeld. Maar goed, we moeten natuurlijk wel zien of dat in de definitieve versie blijft bestaan. Ik hoop dat dat zo is en ik heb overigens ook geen reden om aan te nemen dat dat niet zo is.

De heer Van Baarle vroeg ook hoe we voorsorteren op die algoritmeregelgeving vanuit Europa. We doen dat vooral door vast aan het werk te gaan met de overheid en met overheidsorganisaties. We doen dat op verschillende manieren. We hebben natuurlijk al een toezichthouder en we hebben dat register opgezet. Ik kom zo meteen op de detailvragen daarover. Wij vinden het heel erg belangrijk dat wij als overheid en als overheidsorganisaties al gaan voldoen aan de verplichtingen zoals die nu zijn opgenomen, zodat we daar alvast mee kunnen oefenen, zodat we ze kunnen inrichten, maar vooral ook zodat we die dingen die wellicht nog langer gaan duren wat betreft de verordening, al eerder bij de Nederlandse overheid kunnen inzetten. Natuurlijk gaan we daarbij ook samenwerken met de toezichthouders die op dit gebied actief zullen zijn.

De voorzitter:

De heer Van Baarle, DENK.

De heer Van Baarle (DENK):

Dit is mijn een-na-laatste vraag, toch?

De voorzitter:

U heeft nog één interruptie, inderdaad.

De heer Van Baarle (DENK):

Nog één interruptie?

De voorzitter:

En een vervolgvraag.

De heer Van Baarle (DENK):

Ja, en een vervolgvraag. Over de criteria en de AI Act. De Kamer heeft een motie aangenomen waarin de Staatssecretaris en de regering de opdracht kregen om concrete antidiscriminatiebepalingen uit te onderhandelen in Europa. Mijn vraag was: wat zijn de concrete antidiscriminatiebepalingen? Ik heb het antwoord van de Staatssecretaris opgeschreven: geen verboden onderscheid, risico's identificeren en een mensenrechtentoets. Wat is verboden onderscheid? Wat is identificeren? Hoe moet je dat doen? Waar bestaat die mensenrechtentoets uit? Hoe omvattend is die? We wachten allemaal op die AI Act, want die moet alles oplossen, maar deze beantwoording, deze zin, geeft mij nog niet de zekerheid dat die concreet genoeg wordt om aan de slag te kunnen.

Staatssecretaris Van Huffelen:

Dat het concreet moet worden is natuurlijk helder en wat niet mag, staat in de wet. In onze eigen wetgeving staat dat discriminatie niet mag. Dat geldt ook in die Europese verordening. U zegt dat we niet alleen maar moeten wachten tot de regelgeving van Europa komt. Daarom gaan we op basis van dat implementatiekader alvast aan de slag binnen de Nederlandse overheid. Ik kan niet vooruitlopend daarop al dingen regelen voor de private sector, maar wel voor de Nederlandse overheid. Dat is precies wat ik aan het doen ben. Daarbij zullen we heel concreet worden over wat wel en niet mag. In Nederland mag je niet discrimineren, punt. Dat mag er dus ook niet in zitten. We zijn de teksten van dat implementatiekader aan het maken. Dat komt in de komende maanden uw kant op. Ik hoor heel duidelijk uw wens om ervoor te zorgen dat dat zo concreet mogelijk is. Dat ben ik zeer met u eens, want dat maakt het leven altijd fijner en prettiger. Dat ga ik dus voor u doen.

De heer Van Baarle (DENK):

Dit is dan mijn laatste vraag. Mijn punt is dat ik dit nu al een aantal keer heb gevraagd aan de Staatssecretaris. We hebben een Handreiking non-discriminatie by design en andere nuttige producten waarin we heel concreet hebben omschreven wat je moet doen om ervoor te zorgen dat een algoritme niet discrimineert. Voer dat gewoon in Nederland in met een wet. Het antwoord was: nee, we gaan wachten op die AI Act, want die gaat alles oplossen. In het antwoord hoor ik de concrete dingen die in die AI Act staan: geen verboden onderscheid, je moet het identificeren, mensenrechtentoets vooraf. Maar wat moet je identificeren? Welke mensenrechtentoets? Hoe dan? Dat vind ik te min. Ik zou tegen deze Staatssecretaris willen zeggen: overweeg gewoon om bijvoorbeeld die Handreiking non-discriminatie by design te formaliseren. Wacht niet op iets uit Europa wat niet concreet is en uit drie losse criteria bestaat.

Staatssecretaris Van Huffelen:

Dat is ook precies wat we gaan doen. We gaan dat opnemen in het implementatiekader. We gaan ervoor zorgen dat de Handreiking non-discriminatie by design en het IAMA bijvoorbeeld als toets worden opgenomen. Bij de uitwerking van de AI Act mogen wij, als Nederland, gewoon kiezen welke vorm van toetsing wij gaan hanteren. Dat kunnen we dus gewoon invullen. Dan kunnen we die gebruiken. Misschien dat er in de loop van de tijd nog betere mensenrechtentoetsen of ethische toetsen komen, want die ontwikkelen zich natuurlijk ook. Dat gaat gewoon gebeuren. Het blijft dus niet bij deze algemene omschrijving. Nogmaals, het is wellicht goed om nog een keertje een tekstexegese te doen van de AI Act, maar er staat precies in wat u bedoelt. Er komt een toetsing vooraf. Er komt zelfs een keurmerk voor de hoogrisicoalgoritmes. Dat betekent meer dan dat je toetst. Het moet ook aantoonbaar zijn. Er is een instantie die daarop toeziet om ervoor te zorgen dat het helder is welke toetsing vooraf is gedaan en welke voorzorgsmaatregelen er zijn om ervoor te zorgen dat een dergelijk algoritme niet discrimineert en ook anderszins voldoet aan de vereisten.

De voorzitter:

Vervolgt u uw betoog.

Staatssecretaris Van Huffelen:

Dan ga ik naar het punt over de algoritmes. De heer Slootweg vroeg – welkom bij deze commissie, overigens – om een overzicht van de algoritmes waarvan de ontwikkeling is uitbesteed en hij vroeg of ik afspraken kan maken over discriminatie. Ik heb geen totaaloverzicht van welke algoritmes wel of niet zijn uitbesteed. De algoritmes die de Nederlandse overheid gebruikt, kunnen namelijk zelf ontwikkeld zijn, maar ze kunnen ook ingekocht zijn. Voor de regelgeving die wij gaan maken in Nederland, dus dat implementatiekader, maakt het niet uit of het algoritme wordt gemaakt door iemand anders of door een overheidsorganisatie zelf. Het moet voldoen aan de eisen die wij daaraan stellen. Juist met die AI-verordening hebben wij ervoor gezorgd dat keurmerken niet alleen maar worden afgegeven door de ontwikkelaars van algoritmes. De notificatieplicht ligt dus niet alleen bij de ontwikkelaar maar ook bij de gebruiker. Ik vind dat zelf ontzettend belangrijk, want dan is altijd duidelijk wanneer een algoritme wordt toegepast, ook al ben je zelf niet de ontwikkelaar ervan. Nogmaals, dat kader gaan we dus ook hier in Nederland invoeren.

De heer Slootweg vroeg naar de ontwikkeling ... Was die motie van de heer Slootweg? Ik ben even kwijt of die van u was.

De heer Slootweg (CDA):

Kleine correctie, voorzitter. Voordat ik het idee krijg dat ik loop te pronken met de veren van een ander: ik geloof dat beide vragen door de heer Van Baarle zijn gesteld. Het maakt verder niet uit, want we zijn nog steeds zeer geïnteresseerd naar de ...

Staatssecretaris Van Huffelen:

Dat dacht ik ook. Precies, het ging even mis. Maar het gaat dus over het ontwikkelen van protocollen over hoe te handelen bij de constatering van discriminatie. Een. We gaan dus zorgen dat algoritmes op dit terrein worden gereguleerd. Op het moment dat blijkt dat er algoritmes zijn die toch niet voldoen, vind ik het vooral van belang dat we zorgen dat er zo'n soort protocol wordt ontwikkeld. Dat hebben we op dit moment namelijk niet. Ik denk dat het goed is om dit ook verder te gaan uitwerken. Ik zal zorgen dat ik u snel laat weten hoe we dat zouden kunnen doen.

Dan waren er vragen van Volt over het algoritmeregister. Misschien loopt de volgorde van de partijen nu een beetje door elkaar, maar als ik een vraag daardoor niet beantwoord, dan hoor ik dat graag. Die vraag van Volt ging over de uitwerking van het algoritmeregister. Mevrouw Koekkoek vroeg namelijk: goed dat we nu een start hebben gemaakt, maar hoe gaan we ervoor zorgen dat het algoritmeregister verder wordt gevuld? Ik ben daar hard mee aan het werk. Ik organiseer niet alleen bijeenkomsten daarover, maar ook zorg ik ervoor dat het register zelf in communities en op platforms als Pleio en GitHub verder wordt ontwikkeld. Dat doen we dus open source. We gaan ook aan het werk om te zorgen dat we zo veel mogelijk mensen daarover informeren.

Maar ik zeg u ook toe dat ik mijn collega's in het Nederlandse kabinet nog een keer goed zal aangeven dat dit register er is. Ik zal hun op het hart drukken dat zij en de uitvoeringsorganisaties die onder de respectievelijke departementen vallen, aan het werk moeten om dit register te vullen. Ik ben blij dat we het hebben. Ik weet verder ook zeker dat we het nog verder gaan ontwikkelen en dat het verder gevuld zal worden. Maar hoe meer en hoe sneller we dat doen, hoe beter en hoe liever mij dat is.

De voorzitter:

Voor u verdergaat: u heeft een interruptie van mevrouw Dekker-Abdulaziz. Daarna komen de heer Rahimi en mevrouw Kathmann.

Mevrouw Dekker-Abdulaziz (D66):

Dank aan de Staatssecretaris dat zij haar best gaat doen en het haar collega's op het hart gaat drukken. Maar D66 ziet natuurlijk liever dat wij de overheid gewoon verplichten om dat register te gebruiken. Ik denk dat dat er ook van komt bij de AI Act, maar is de Staatssecretaris bereid om het algoritmeregister eerder een verplichtend karakter te geven? Of doet zij dat, nu we toch bezig zijn, parallel aan de AI Act?

Staatssecretaris Van Huffelen:

We zijn daarmee aan het werk en ik zal uw Kamer daar ook over informeren. Het is namelijk niet noodzakelijkerwijs precies hetzelfde als wat we beogen. Maar ik zal zorgen dat we u daar wat meer informatie over geven, want het is inderdaad van belang dat het niet een vrijblijvend instrument maar een verplicht instrument wordt. Maar u weet net zo goed als ik dat wetgeving een tijdje kan duren en daarom hecht ik eraan dat we ervoor zorgen dat, zolang die verplichting er nog niet is, organisaties zo hard mogelijk aan het werk gaan. Ik vind het overigens wel fijn dat de organisaties die al meedoen, hard aan het werk zijn. En dat zijn niet alleen maar partijen binnen de landelijke overheid maar ook gemeenten. Ik vind dat heel verheugend, want dat maakt dat het instrument steeds bekender wordt.

Mevrouw Dekker-Abdulaziz (D66):

Ik ben zeker heel trots dat sommige gemeente zelfs al voorlopen. Maar heeft de Staatssecretaris ook een deadline of iets dergelijks in gedachten? Ik bedoel dat ze zegt: beste collega-ministers, voor 1 mei moet dat gebeuren en voor 1 januari dat. Anders blijft ze wachten.

Staatssecretaris Van Huffelen:

In principe hebben we gezegd, volgens mij ook in de brief, dat we willen zorgen dat het register voor het eind van het jaar gevuld is.

De heer Rahimi (VVD):

Wij hadden dezelfde vragen als mevrouw Koekkoek. Volgens mij was er een deadline en ik dacht dat die eind 2024 was. Mijn vraag is om het naar eind 2023 te halen. Maar volgens mij hoor ik nu dat dat gaat gebeuren. Dat is al fantastisch, maar ...

Staatssecretaris Van Huffelen:

Maar dan gaat het over de rijksoverheid, hè. Je kan niet voor alle gemeentes bepalen dat zij daadwerkelijk alles al vullen. Maar ik vind dat de rijksoverheid moet zorgen dat we het dit jaar rond hebben.

De heer Rahimi (VVD):

De Staatssecretaris gaf aan dat ze haar collega's gaat benaderen. Uitstekend. Daar ben ik heel blij mee, maar is er ook een deadline voor de gemeentes en de waterschappen? Is er voor hen een deadline en wat gaat de Staatssecretaris doen om te zorgen dat zij het register gaan vullen?

Staatssecretaris Van Huffelen:

Jazeker. Ik gaf net ook al aan dat we dat actief aan het doen zijn door contact op te nemen, door mensen daarbij te ondersteunen en door hen actief te vragen om het in te vullen. Nogmaals, het helpt daarbij dat gemeenteraadsleden daar vragen over stellen. Ik roep alle gemeenten en alle politieke partijen dan ook op om daar vragen over te stellen aan hun eigen lokale besturen om zo te zorgen dat het wordt gevuld.

Mevrouw Kathmann (PvdA):

Eigenlijk zijn de vragen al gesteld. Ik wilde 'm eigenlijk stellen namens mevrouw Koekkoek die helaas plenair moet debatteren. Ze probeert zo snel mogelijk terug te komen, want haar vragen gingen inderdaad niet zozeer over het vullen als wel heel expliciet over die verplichting. Ze had daar volgens mij ook een oplossing voor, nog los van een langslepend wetgevingstraject. Ze herinnerde ons verder ook nog even aan de motie-Dassen c.s. die onder die vraag om dat te doen ligt. Volgens mij is de geest van haar vraag meer: hoe krijgen we dit versneld verplicht en hoe kunnen we zo snel mogelijk recht doen aan die motie-Dassen c.s.? Volt had daar ook zelf een oplossing voor.

Staatssecretaris Van Huffelen:

En die sluit aan op iets wat ik net ook al aangaf, namelijk dat we bezig zijn met dat wetsvoorstel voor de versterking van de waarborgfunctie van de Awb, de Algemene wet bestuursrecht. De bedoeling daarvan is dat al die algoritmes – ik zei het al eerder – in kaart worden gebracht als die onderdeel zijn van besluitvorming door overheden. Die wet is nu in preconsultatie, maar die komt er dus wel aan. En dat betekent dat er zo snel mogelijk daadwerkelijk een wet is om mee te gaan werken.

Ik ga door met een vraag gesteld door de VVD. Hoe zorgen we ervoor dat het register op een geautomatiseerde manier kan worden gevuld? En gaan we dat op korte termijn doen? Ik heb al iets gezegd over dat vullen, maar ik weet niet of dat allemaal geautomatiseerd kan. Ik hoop het wel, want dat helpt ervoor te zorgen dat het een zo makkelijk mogelijk proces is om het register daadwerkelijk gevuld te krijgen.

De VVD vroeg hoe we ervoor zorgen dat de inzet van algoritmes en data-analyse niet leidt tot beperking van de persoonlijk vrijheid en de privésfeer van burgers en ondernemers. Dat is natuurlijk zeker wat we doen, want ons beleid is erop gericht om te voldoen aan alle regels die we daarvoor hebben, want die zijn natuurlijk ongelofelijk belangrijk.

Ik ga verder met een aantal vragen van mevrouw Koekkoek. Zijn er voldoende wettelijke kaders om de totstandkoming van algoritmen te garanderen? Ik denk het wel, ook al zijn al die kaders er nog niet allemaal. We zijn die voor een deel nog aan het ontwikkelen. Ik had het bijvoorbeeld al over dat implementatiekader en de AI Act. We moeten er vooral voor zorgen dat we niet alleen een algemeen kader hebben, maar ook methodes om mee te werken, bijvoorbeeld het IAMA, de mensenrechtentoets, het uitvoeren van de Code Goed Digitaal Openbaar Bestuur enzovoorts enzovoorts. We werken daar dus op verschillende manieren aan, maar klaar zijn we zeker niet, ook omdat er steeds weer nieuwe ontwikkelingen zijn op dit gebied.

Mevrouw Koekkoek vroeg ook naar de motie van DENK die van de overheid vraagt om bij besluiten aan te geven of er sprake is van het gebruik van algoritmen. Dat is precies wat we in die nieuwe aangevulde versie van de Awb gaan doen. We gaan ervoor zorgen dat helder wordt hoe besluiten worden genomen en hoe die tot stand komen. Het gaat daarbij niet alleen om de vraag of er algoritmen worden gebruikt, maar ook om welke data er worden gebruikt voor het nemen van een besluit en waar die data vandaan komen. Als er bijvoorbeeld naar iemands inkomen wordt gekeken of als er wordt gekeken of je wel of niet een subsidie krijgt, dan wordt gekeken waar die gegevens over het inkomen vandaan komen. Die kunnen bijvoorbeeld van de Belastingdienst komen, maar adresgegevens kunnen dan weer uit de BRP komen.

Dan was er nog een vraag, van de PvdA: wat kunnen burgers doen als blijkt dat algoritmes niet tot een juiste uitkomst leiden? Daarvoor gelden natuurlijk altijd bezwaar- en beroepsprocedures, maar wij hebben ook nog een keer expliciet laten opnemen in de AI-verordening dat er een mogelijkheid is om bezwaar aan te tekenen en in beroep te gaan tegen uitkomsten die door algoritmes zijn gerealiseerd. In Nederland geldt daar natuurlijk de procedure voor die we kennen.

Dan was er ook een vraag van de PvdA naar aanleiding van de reflectie van de heer Krijger: is een algoritmeregister wel voldoende? Beter gezegd: ik begrijp dat de heer Krijger vooral aangeeft dat dit niet zo is en dat er meer mogelijkheden moeten zijn voor experts om zich daarin te verdiepen. Dat is inderdaad wat wij heel graag willen. Wij maken een algoritmeregister niet alleen voor bijvoorbeeld de toezichthouder of voor burgers die weten dat er een algoritme wordt gebruikt bij het nemen van besluiten door de overheid, of vanwege transparantie over algoritmes in het privédomein, bijvoorbeeld met betrekking tot algoritmes die worden ingezet door socialmediaplatforms. Wij maken zo'n register ook juist zodat het mogelijk wordt voor onderzoekers, ngo's en belangenorganisaties om inzicht te krijgen in hoe die algoritmes eruitzien en hoe ze werken, dus om ze te kunnen onderzoeken, enzovoort, enzovoort. Alleen maar weten dat het er is, is onvoldoende om te begrijpen wat zo'n algoritme daadwerkelijk doet.

Mevrouw Kathmann (PvdA):

Voorzitter, het was een goede ingreep om eerst even de tweede vraag te laten beantwoorden, want de eerste vraag was niet zozeer wat burgers kunnen doen als het algoritme het fout heeft; het ging meer om de bredere context: wat doet dat met besluitvorming? We praten hier vooral over algoritmes en de mensenrechtentoets, maar we kunnen het daar gewoon niet mee platslaan, hoe graag we dat ook zouden willen. Er is een veel bredere kijk nodig: hoe is het ontwikkeld, hoe is het vervolgens ingezet en hoe werkt het precies? Dat was eigenlijk mijn vraag. Daarom ben ik blij met de beantwoording van de tweede vraag. Ik zou daar alleen wel een iets concreter antwoord op willen krijgen: hoe gaan we dat dan vormgeven? Komen er dan meer commissies, zoals de heer Krijger voor ogen heeft? Of krijgt zo'n commissie als het UWV nu heeft bijvoorbeeld een ander mandaat om het werk te doen dat de heer Krijger voor ogen heeft? Hoe maken we dit concreet en hoe geeft de Staatssecretaris dat aan ons terug?

Staatssecretaris Van Huffelen:

Mijn ministerie is met hem in gesprek hierover, dus ik denk dat het goed is dat ik u over de uitkomsten daarvan iets meer laat weten. Wij zeggen met betrekking tot algoritmes natuurlijk dat helder moet zijn wanneer ze gebruikt worden en hoe ze werken, dat ze transparant en open source moeten zijn, dat de codes daarvan helder moeten zijn en dat ook duidelijk moet zijn hoe ze functioneren. We hebben niet voor niets dat register én een toezichthouder die daarnaar moet kijken. Maar ik denk dat het goed is dat ik op basis van het gesprek dat we daarover hebben gevoerd, en wellicht ook op basis van andere gesprekken in dat kader, daar nog iets meer over zeg. Ik ben niet zomaar geneigd om er nog een commissie bij te doen. Ja, ik begrijp dat u dat jammer vindt, mevrouw Kathmann. Ik vind het vooral belangrijk dat we echt structureel inzicht bieden. Daarbij is het ook niet alleen maar zo dat de overheid zelf dat moet doen. We hebben juist gezien dat heel veel controles in dit werkgebied voortkomen uit de communities rondom bepaalde onderwerpen en rondom bepaalde programmatuur. Ik vind het heel belangrijk dat onderzoekers, maar ook belangenorganisaties en anderen, in staat zijn om inzicht te krijgen in hoe die algoritmes werken, zodat er meer mensen aan het werk kunnen om te ontdekken wat hier nou precies gebeurt. Ik kom daar graag op terug.

De voorzitter:

U heeft een vervolgvraag van mevrouw Kathmann. Nogmaals – ik zeg dit niet specifiek richting mevrouw Kathmann, maar in algemene zin – als we nog een tweede termijn willen, moeten we het kort houden, dus daarvoor doe ik een beroep op iedereen.

Mevrouw Kathmann (PvdA):

Toch even om het even concreet te maken. Ik ben heel blij met de toezegging dat er een terugkoppeling komt over het gesprek. Maar de crux is nou juist dat wij ook gebruikmaken van algoritmes op een aantal terreinen waarop geen inzage gegeven kan worden, omdat het geheim moet blijven of problematisch is. De commissies moeten in die gevallen juist inzicht krijgen: mensen die wel het mandaat hebben om alles te doorgronden, moeten daarin aan het werk kunnen, ook al wordt het dan niet helemaal publiekelijk toegankelijk. Ik zou wel graag zien dat dat door de Staatssecretaris wordt meegenomen in de terugkoppeling.

Staatssecretaris Van Huffelen:

Ja, maar misschien kan ik toch al direct kort antwoord geven op de opmerking dat soms niet alle algoritmes helemaal publiekelijk kunnen zijn, omdat dat bijvoorbeeld te maken heeft met de aard van het algoritme; de toezichthouder heeft altijd toegang. Het is dus niet zo dat de AP of andere toezichthouders die daar in de toekomst wellicht aan worden toegevoegd geen toegang hebben. Die kunnen altijd in de algoritmes kijken, bijvoorbeeld van de politie of van instanties, terwijl dat in het publieke domein niet zomaar kan. Dat deel is dus afgedekt. Nogmaals, ik zal er zeker ook voor zorgen dat dit een onderwerp is dat we met de heer Krijger bespreken.

De voorzitter:

De toezichthouder. Als we eraan toekomen vandaag, dan komt dat nog. Allereerst nog een interruptie? Nee. We kunnen door.

Staatssecretaris Van Huffelen:

O, ik mag verder? Oké, fijn. Dan kunnen we het inderdaad even over die toezichthouder hebben. In tegenstelling tot het beeld dat er in de eerste termijn van de Kamer leek te bestaan, is het niet zo dat de AP geen bevoegdheden heeft. De AP heeft wel degelijk bevoegdheden om op basis van algoritmes aan het werk te gaan en is ook al in staat om – en dat mag zij ook, als dat nodig is – onderzoeken te doen, boetes uit te delen, enzovoort, enzovoort. De AP heeft twee rollen, namelijk de rol van toezichthouder, met de tanden, de bevoegdheden, waar u het allemaal eerder al over had, en – dat is de tweede rol – het verder uitwerken van het normenkader en het samenwerken met andere toezichthouders. Sommige algoritmes gaan over specifieke soorten werkvelden waarop het nodig en wenselijk is, vanuit de AP, maar ook vanuit ons, om samen te werken met anderen.

Wat natuurlijk nog wel moet worden ingevuld, is welke specifieke bevoegdheden de AI-verordening de AP ook nog zal geven. Maar dat is on top of. Met de huidige bevoegdheden die de AP heeft en die in het kader van algoritmes waarmee persoonsgegevens worden verwerkt, kan zij gewoon prima aan het werk om dat te doen. Sterker nog, we weten dat ze dat ook doet, want op basis van het algoritme heeft bijvoorbeeld de Belastingdienst van de AP een boete gekregen. Het is dus niet zo dat de AP geen tanden heeft. Zij kan wel degelijk aan de gang. Om die vraag nog verder te beantwoorden: zij heeft daarvoor ook middelen gekregen en heeft inmiddels een groep mensen ingehuurd om aan het werk te gaan. De lancering daarvan was begin januari. Het wordt en blijft ook altijd heel erg belangrijk om te bezien of dat voldoende zal zijn – daarover werden ook Kamervragen gesteld – om dat werk in de komende tijd te blijven doen. Dat wordt natuurlijk extra relevant wanneer we meer inzicht krijgen in de extra taken en bevoegdheden die mogelijkerwijs door de verordening uit Europa aan de AP gegeven zullen worden.

Ik heb een aantal vragen van mevrouw Bouchallikh eigenlijk al beantwoord. Die gingen over de deadlines en die thema's. Ik ben u dus niet vergeten, maar anders val ik in herhaling. Even kijken of ik dan het toezicht behandeld heb.

De voorzitter:

We zijn nog niet bij het kopje toezicht, volgens mij.

Staatssecretaris Van Huffelen:

Nee, we zijn nog niet bij het kopje toezicht, maar dit waren al vragen over toezicht. Ik ga nu dus snel naar het kopje toezicht.

De voorzitter:

Ik zag namelijk de leden wat verward kijken. We gaan dan nu door naar het kopje toezicht.

Staatssecretaris Van Huffelen:

Ja, inderdaad. De eerste vraag was van de heer Slootweg. Die vraag gaat over de doorzettingsmacht en de mogelijkheid om dingen te doen. De AP heeft dus tanden en kan aan het werk, maar we gaan dat verder uitwerken naar aanleiding van de eventuele extra bevoegdheden. Als het gaat over de gezamenlijke normuitleg: dat kan de AP natuurlijk sowieso doen. Zij heeft ook de doorzettingsmacht op het thema van de persoonsgegevens. Voor de andere sectoren gaat de AP samenwerken met andere toezichthouders om gezamenlijk te komen tot de normuitleg. Dat is dus een ontwikkeling die we in de komende tijd zullen zien. De AP heeft ook echt de mogelijkheid om boetes op te leggen of om op andere manieren aanwijzingen te geven; zij kan in ieder geval het instrumentarium daarvoor inzetten.

Ik probeer het een beetje snel te doen.

De voorzitter:

Ik zie dat mevrouw Kathmann een vraag heeft. Ik zie dat er nog altijd een hele hoop vragen zijn. U kunt allicht uw vraag nog stellen, mevrouw Kathmann, maar het zou uw laatste interruptie zijn. Dat is uiteraard aan u. Wilt u het afwachten of wilt u nu de interruptie plaatsen? Afwachten.

Mevrouw Kathmann (PvdA):

Nee, want ik had mij juist aangesloten bij een hoop vragen van anderen om ze niet dubbel te stellen. Ik had me onder andere voor dit kopje aangesloten bij de vragen van het CDA, maar ik zou wel concreet van de Staatssecretaris willen horen welke doorzettingsmacht de algoritmetoezichthouder dan heeft om de samenwerking met colleges, markttoezichthouders en rijksinspecties te optimaliseren. Wat is dan die doorzettingsmacht? Wat als zij nou niet willen meewerken? Want daar had het CDA het juist over. Er is een heel palet aan toezichthouders en dan heb je de AP zelf ook nog, en niet alleen als algoritmetoezichthouder. Dat zit allemaal in een samenwerkingsverband. Maar wat is de escalatieladder? Wat zijn nou echt het mandaat en de doorzettingsmacht in dat geheel? Hoe zien die eruit? Wordt dat nog concreet gemaakt? Komt die escalatieladder bijvoorbeeld snel? Daar ben ik heel benieuwd naar.

Staatssecretaris Van Huffelen:

De AP kan op basis van de huidige wettelijke bevoegdheden die ze heeft, toezicht houden op algoritmes waarbij sprake is van het gebruik van persoonsgegevens. Dat kan de AP doen. Dat doet ze ook en dat gaat ze verder ook doen.

Het tweede thema in de brief die ik u heb gestuurd, gaat over het verder ontwikkelen van het toezicht op algoritmes in bredere zin. Daar is nog geen wettelijke basis voor. De toezichthouders hebben wel met elkaar afgesproken om daar een normenkader voor te ontwikkelen. Daar ben ik ook bij betrokken. Dat is onderdeel van de agenda die ik heb gemaakt. We willen namelijk zorgen dat helder wordt aan welke vereisten algoritmes moeten voldoen en hoe het toezicht daarop wordt ingericht. Maar ik vind het prima – bij een vorig debat heb ik daar ook al iets over verteld – dat ik daarover een gesprek heb met die toezichthouders. Als ik kan helpen door nog iets meer op papier te zetten over hoe dat precies loopt, wil ik dat voor u uitwerken, maar de mogelijkheid om daadwerkelijk in te grijpen is er al.

De voorzitter:

Mevrouw Leijten, voor uw derde interruptie.

Mevrouw Leijten (SP):

Er wordt hier gezegd dat het kan, terwijl de wettelijke basis er niet is. Het gaat om algoritmes bij de verwerking van persoonsgegevens, maar er kan niet gekeken worden of een algoritme veilig is, of het een mensenrechtenkader heeft of dat het door te veel mensen wordt ingezien. Dat kan allemaal niet. Daar is nu geen wettelijk kader voor. De Staatssecretaris zegt wel dat de AP dat allemaal kan, maar de analyse die wij maken is dat het gewoon niet gereed is. Niet voor niets wordt het een expertisecentrum genoemd. Ik vond dat eigenlijk een hele goede term. Maar in de fase waarin we nu zitten, vragen we niet meer om een expertisecentrum. We zijn aan het opruimen bij de overheid. Iedereen doet dat op een andere manier. We willen het register aan het einde van het jaar gevuld hebben. Er is iemand die bij die algoritmes kan; dat is bijvoorbeeld de Algemene Rekenkamer. Die doet er zes per jaar. Dat is een ontzettend grote klus. Die checkt ze op allerlei punten en daar komen altijd allemaal rode vlaggen uit. Dat kan de AP straks niet en dat mag de AP straks ook niet. Waarom blijft de Staatssecretaris nou zeggen dat dat wel geregeld is?

Staatssecretaris Van Huffelen:

Volgens mij ben ik in mijn beantwoording heel precies: de AP heeft, op basis van de huidige wettelijke bevoegdheden, de mogelijkheid om algoritmes waarin persoonsgegevens worden verwerkt, daadwerkelijk te onderzoeken en te acteren op basis van eventuele fouten die ze opmerkt, met uiteindelijk de mogelijkheid om boetes in te zetten. Ik heb aangegeven dat we ook nog de algoritmeverordening hebben, die nu in Europa wordt afgerond. Die zal waarschijnlijk, bijna wel zeker, extra bevoegdheden geven aan nationale toezichthouders. Wij werken hard aan de uitwerking daarvan. Ik heb u eerder al toegezegd dat ik daar met de verschillende toezichthouders over ga spreken. Dat ga ik ook doen. Dat gesprek zal volgende maand, in maart, plaatsvinden met de ACM, het Agentschap Telecom enzovoorts, enzovoorts. We gaan samen met hen kijken hoe we het toezicht op een veel bredere set van verordeningen, maar zeker ook op de AI-verordening, kunnen inrichten en uitwerken, zodat er daadwerkelijk een stelsel van toezicht ontstaat dat doet wat wij met elkaar graag willen dat het doet: ervoor zorgen dat er noch in het private domein, noch in het publieke domein algoritmes kunnen worden ingezet waardoor de regels, wetten en grondrechten van Nederlanders met voeten worden getreden.

De voorzitter:

Ik zie dat u een vervolgvraag wilt stellen, mevrouw Leijten.

Mevrouw Leijten (SP):

De Staatssecretaris zegt dat ze heel precies is. Ze zegt: er kunnen geen algoritmes ingezet worden die de algemene belangen die we hebben geformuleerd, schenden. Maar waar staan die belangen dan precies geformuleerd? Wat is het waardekader? Want er wordt iedere keer naar verwezen dat dat nog wordt gemaakt bij de werkagenda. Hoe wordt dat dan uit de lucht gehaald? Want dat gebeurt op dit moment. De AP kan op dit moment geen algoritmes uit de lucht halen. Dus als de Staatssecretaris dan precies is, dan wil ik ook dat ze écht precies uitlegt hoe het zit.

Staatssecretaris Van Huffelen:

Het is goed om dat nog een keer te zeggen. Ik heb aangegeven op welke wettelijke basis de AP het werk nu kan doen. Dat betekent dat de AP op dit moment geen expertisecentrum is, maar een organisatie die daadwerkelijk kan handhaven als het gaat over algoritmes. Er zijn ook nog zaken in ontwikkeling. Ik ben het met mevrouw Leijten eens dat het heel fijn zou zijn als we alles al geregeld hadden op dit gebied, maar dat is niet zo. We hebben wel met elkaar afgesproken dat we heel hard aan het werk gaan om de regulering van algoritmes verder vorm te geven. En dat gaan we ook verder doen. Maar dat betekent niet dat er nu niks kan. Dat betekent wel dat we nog veel meer willen. En dat gaan we ook inrichten.

Voorzitter. Ik heb nog een stapeltje antwoorden voor me liggen. Alle vragen over de toezichthouder heb ik al beantwoord. Er liggen nog antwoorden op vragen over de escalatie, maar volgens mij heb ik alle vragen over de toezichthouder inmiddels beantwoord.

De voorzitter:

Voordat we doorgaan met het volgende blokje, is er een aantal interrupties. Mevrouw Leijten laat zich excuseren, want zij moet naar een volgend debat. Mensen moeten dus niet denken dat ze is opgestaan, omdat ze boos is.

Staatssecretaris Van Huffelen:

Nee, zo ken ik haar ook niet.

De voorzitter:

Nee, zeker niet, maar gezien de context wilde ik het in dit geval wel even expliciet benoemen.

U heeft interrupties van mevrouw Dekker-Abdulaziz namens D66 en daarna van de heer Slootweg namens het CDA.

Mevrouw Dekker-Abdulaziz (D66):

Ik vraag mij af of al mijn vragen beantwoord zijn. Ik hoorde de Staatssecretaris het hebben over een implementatiekader. Zij sprak ook over een normenkader. Ik kan me herinneren dat we het in het wetgevingsoverleg hebben gehad over de planning van de Staatssecretaris. Er zou medio dit jaar wetgeving komen naar aanleiding van de vraag waar de toezichthouder nu precies toezicht op gaat houden. We zouden niet per se wachten op de AI-verordening. Ik hoor daar graag nog een antwoord op.

Staatssecretaris Van Huffelen:

Het spijt mij dat we soms heel veel woorden door elkaar gebruiken. Dat maakt het misschien niet altijd even helder, ook niet voor de mensen die dit debat volgen. Er is inderdaad sprake van regelgeving vanuit de EU. Die moeten we als Nederland uiteraard implementeren. Wij vinden dat heel belangrijke regelgeving. We hebben er hard aan gewerkt om ervoor te zorgen dat die goed is en dat die ook doet wat wij ermee beogen, namelijk ervoor zorgen dat algoritmes alleen maar kunnen worden gebruikt als ze voldoen aan basisgrondrechten en mensenrechten.

Om niet alleen maar te hoeven wachten, hebben we al een aantal stappen gezet. Een van die stappen is het register, het ervoor zorgen dat we dat ook verder gaan vullen. Ik noem het alvast opzetten van de autoriteit, die alvast aan het werk kan. En ik noem voorts het ervoor zorgen dat we, vooruitlopend op die Europese verordening, voor overheidsalgoritmes al aan het werk gaan met het bepalen aan welke vereisten die moeten voldoen. Er moet bijvoorbeeld zo'n privacy-by-designtoets worden uitgevoerd, er moet een mensenrechtentoets plaatsvinden enzovoorts, enzovoorts. Er moet überhaupt worden bepaald of een algoritme wel wenselijk is in die situatie. Dat noemen we het implementatiekader. Daarvan heb ik gezegd dat dat dit jaar nog komt. Dat is één.

Het tweede is dat mevrouw Leijten vroeg naar een waardekader. Zij vroeg dus niet naar een normenkader. Bij dat waardekader gaat het om de vraag hoe je in het algemeen – dus niet alleen als het gaat om algoritmes – de afweging maakt ten aanzien van de wenselijkheid van bepaalde soorten van technologie en het gebruik daarvan. Dat is een onderdeel van de agenda die ik heb gemaakt. Die heeft betrekking op de komende periode, op de komende jaren. Onderdeel daarvan is dat ik die ook ga opstellen. Daar heb ik wel iets meer tijd voor nodig, maar ik hoop u wel in de komende tijd te kunnen informeren over hoe we dat doen, ook omdat verschillende organisaties binnen de overheid in Nederland, bijvoorbeeld gemeenten, al zo'n waardekader hebben opgesteld. Maar wij willen dat dus ook opstellen voor de rijksoverheid. Dus dat is wat ik ga doen.

De heer Slootweg (CDA):

Ik denk dat de Staatssecretaris het wettelijk kader voor de Autoriteit Persoonsgegevens voor het toezicht op de persoonsgegevens duidelijk heeft uitgelegd. Er zijn veel algoritmes die in ontwikkeling zijn. Is het nou zo dat de Autoriteit Persoonsgegevens een rol heeft bij het toestaan dat dat soort algoritmes elders worden gebruikt? Of is dat niet het geval? Dat willen we graag weten. Op het moment dat nu een algoritme wordt ontwikkeld en wordt toegepast, en dan niet direct op het terrein van de AP maar in samenwerking met andere toezichthouders, moeten ze dan eerst langs de AP?

Staatssecretaris Van Huffelen:

Nee, dat moet niet. Die rol gaat de toezichthouder waarschijnlijk ook niet krijgen, want dan zou de toezichthouder eerst een soort keurmerk moeten uitdelen. Op dit moment staat dat niet in de bevoegdheden van de AP, ook niet als het gaat over andere issues op het gebied van privacy waarin de AP een rol, taak en functie heeft. Maar nogmaals, in de Europese verordening is er wel degelijk sprake van een keurmerk voordat je een algoritme mag inzetten dat onder de hoogrisicocategorie valt. Laten we er helder over zijn: in de meeste gevallen gaat het dan over algoritmes waarin persoonsgegevens worden gebruikt. Daarom is de rol van de AP nu ook al best substantieel. Dan moet dat algoritme dus wel voldoen aan een keurmerk voordat je het mag inzetten. De toezichthouders die dat gaan doen, moeten nog worden aangewezen.

De heer Slootweg (CDA):

Dat begrijp ik, en ik deel met de Staatssecretaris dat de grootste risico's op het gebied van persoonsgegevens zitten. Ik heb een vervolgvraag over de rol die de AP speelt. Vindt de Staatssecretaris het verstandig om op termijn te werken aan een wettelijke grondslag voor het ontwikkelen van algoritmes met persoonsgegevens of voor dingen die buiten persoonsgegevens vallen maar waar die toch in verwerkt worden? Is dat op termijn ook de doelstelling van de Staatssecretaris?

Staatssecretaris Van Huffelen:

Ja, en niet eens op termijn, want dat is precies wat we met die AI-verordening aan het regelen zijn. Die wetgeving heeft directe doorwerking in Nederland en stelt dat er transparantie moet zijn over algoritmes, dat helder moet zijn hoe ze worden gebruikt en welke effecten ze hebben enzovoorts, zowel in het publieke als private domein, dus bijvoorbeeld ook voor socialmediaplatforms.

De voorzitter:

Mevrouw Dekker-Abdulaziz, uw derde interruptie.

Mevrouw Dekker-Abdulaziz (D66):

Ja, ik heb ook geteld, voorzitter: mijn derde. Ik hoorde nu voor de zoveelste keer de Staatssecretaris spreken over socialmediaplatforms. Maar uit de AI-verordening en gesprekken met experts heb ik begrepen dat de aanbevelingsalgoritmes van socialmediaplatforms niet onder de hoogrisicoalgoritmes vallen, en dat er dus helemaal geen toezicht op hoeft te zijn. Ik ben heel blij dat de Staatssecretaris wel vindt dat dit zo moet zijn. Ik hoor daarom graag of ze zich in Europa verder gaat inzetten op dit gebied, want ik maakte me daar best wel zorgen over.

Staatssecretaris Van Huffelen:

Misschien even om het helder te hebben: die zitten in de DSA, dus in een andere Europese verordening. Maar daar is toezicht op, ja.

De voorzitter:

Dank u wel. Ik kijk even rond. Iemand in dit blokje? Nee? Dan gaan we door naar het derde blok: mensenrechten. Daarna volgt nog het blokje met overige onderwerpen.

Staatssecretaris Van Huffelen:

Het gaat dan vooral over de vraag, door de VVD gesteld, hoe we gaan zorgen dat algoritmes ethisch verantwoord en in overeenstemming met juridische principes worden ingezet. Ik heb daar net al iets over gezegd. Volgens mij heb ik deze vraag dus net al beantwoord; misschien zit die dubbel in mijn stuk. Het is dan maar extra helder dat het algoritmebeleid er inderdaad voor zorgt dat non-discriminatie, transparantie en een gelijke behandeling aan de voorkant worden ingericht, op de verschillende manieren die ik net al heb genoemd, met een implementatiekader voor AI-regelgeving enzovoorts.

Dan de vraag van mevrouw Bouchallikh. Zij zei: waarom is er nog geen mensenrechtentoets uitgevoerd volgens het algoritmeregister? We hebben, overigens ook op mijn verzoek, het vakje in dat register daadwerkelijk ingevuld omdat ik het belangrijk vind om dat te doen. Inmiddels zijn al een heleboel van die assessments gedaan. Voorbeelden daarvan zijn de Belastingdienst, het CJIB, gemeenten en provincies. Ook de gemeente Rotterdam heeft het al ingepast. Maar het is nog niet voor 100% ingevuld in het register. Dat gaan we in de komende tijd actualiseren, want gelukkig wordt het IAMA wel degelijk al toegepast.

De heer Slootweg vroeg of het nodig is om de rechtsbescherming van burgers te versterken als er fouten ontstaan op basis van het gebruik van algoritmes door overheidsinstanties. Wat mij betreft is de rechtsbescherming op dit gebied voldoende ingericht, zowel als het gaat om niet-algoritmegebruik als om algoritmegebruik. Maar zoals ik al eerder aangaf, gaat de Wet versterking waarborgfunctie van de Algemene wet bestuursrecht ervoor zorgen dat helder wordt wanneer een besluit wordt of is genomen met behulp van een algoritme. Zo is ook duidelijk voor mensen hoe dat een effect gehad zou kunnen hebben op het genomen besluit. Daarmee kan de motiveringsplicht aan burgers worden verbeterd en is ook helderder waartegen je in bezwaar of beroep kunt als dat aan de orde is.

De voorzitter:

Voordat u naar het laatste blok gaat, heeft u een interruptie van de heer Rahimi van de VVD. Dat is zijn derde.

De voorzitter:

Voordat u naar het laatste blok gaat, heeft u nog een interruptie van de heer Rahimi, VVD. Dat is zijn derde interruptie.

De heer Rahimi (VVD):

Mijn vraag aan de Staatssecretaris gaat over het toetsen van de algoritmes. Er wordt hier best vaak over IT gesproken. Het punt is dat dat inzicht heel belangrijk is, maar ook de vraag hoe. Een derde gaat namelijk over cultuur, organisatie, structuur en ook een stukje qua IT. Wat heel belangrijk is als dat inzichtelijk wordt, is dat allerlei maatschappelijke actoren iets kunnen vinden. Ik verwacht niet dat burgers gaan inloggen op het algoritmeregister om te kijken of ze er wel of niet in vallen, maar heel veel maatschappelijke actoren wel. Die kunnen dat doen. Als ze dat doen, bereiken we iets. Dan maken we eigenlijk gewoon inzichtelijk wat wij doen. Dat is eigenlijk wat ik bedoelde. Dat is een antwoord dat u eerder gaf. Het duidelijk neerzetten wat ze doen en wat ermee gebeurt, is heel belangrijk. Het antwoord van de Staatssecretaris was vrij kort. Neemt ze deze onderdelen mee in de inzichtelijkheid?

Staatssecretaris Van Huffelen:

Het antwoord is ja. Dat doen we natuurlijk met de aanvulling op de Algemene wet bestuursrecht en met dat register, maar dat register is niet iets wat je als niet-opgeleid persoon alleen maar goed kunt gebruiken. Het is vooral bedoeld voor onderzoekers en voor belangenorganisaties. Los daarvan wil ik dat ook voor normale burgers helder is hoe de besluitvorming van de overheid werkt. Dat gaan we dus doen met die aanvulling op de Algemene wet bestuursrecht.

Dan was er nog een vraag van de SP over de uitspraak van de Hoge Raad over etnisch profileren. Die uitspraak kwam ook gisteren aan bod in het debat met de Staatssecretaris van JenV. Hij heeft aangegeven dat die uitspraak wordt bestudeerd, dat op basis daarvan een beslissing wordt genomen en dat uw Kamer daarover wordt geïnformeerd. Ik kan daar nu verder niet op vooruitlopen.

Dan was er ook nog de vraag van D66 over het feit dat de Verenigde Staten TikTok verbieden voor ambtenaren en of dat ook van toepassing is op onze ambtenaren. Niet zomaar natuurlijk, want de VS bepalen niet wat onze ambtenaren doen, maar ik begrijp wel de zorg die er is. U heeft daar ook al eerder vragen over gesteld. Niet voor niks zijn we dat ook aan het bestuderen. De Nederlandse overheid heeft in ieder geval gezegd dat wij TikTok niet willen gebruiken voor het delen van overheidsinformatie. Daarvoor gebruiken we wel vaak andere socialmediaplatforms om mensen te informeren over nieuwe regelingen, subsidies of andere soorten informatie. Dat doen we met TikTok op dit moment niet, omdat ons te weinig duidelijk is hoe het platform precies werkt en hoe het omgaat met de data die verzameld worden. Om die reden vind ik het ook belangrijk om te onderzoeken of we dit daadwerkelijk willen gaan invoeren voor alle overheidsmedewerkers. Ik snap uw punt. Ik begrijp ook dat het niet alleen uw vraag is. Ik heb via de media begrepen dat dat gesteund wordt door een viertal partijen in totaal, dus in ieder geval alle partijen van de coalitie. Ik denk dat het inderdaad heel goed is dat we daar zo snel mogelijk een antwoord op krijgen, maar ik wil dat wel goed bestuderen voordat ik daar definitief ja of nee op zeg. Nogmaals, ik begrijp uw zorg. Ik heb dezelfde zorgen over dit medium.

De voorzitter:

Aangezien de heer Slootweg net zo galant was om te zeggen dat de vragen over een bepaald onderwerp van de heer Van Baarle waren: volgens mij had ook de heer Slootweg vragen over TikTok. Hij heeft ook nog een interruptie.

De heer Slootweg (CDA):

Daarbij gaf ik overigens aan dat mevrouw Hind, mevrouw Dekker-Abdulaziz, deze vraag ook eerder heeft gesteld. TikTok is natuurlijk één medium. Daarvan hebben we wat meer inzicht dat we geen inzicht hebben. Doet u dat onderzoek ook naar andere van dit soort applicaties, die misschien toch echt een probleem kunnen wezen door smartphonegebruik van ambtenaren? Dus is dit onderzoek beperkt tot TikTok of kijkt u in wat bredere zin of er ook andere applicaties zijn die dit gevaar met zich mee kunnen brengen?

De voorzitter:

Dit is een brede vraag. We hebben daar net een ander debat over gehad en we zijn al bijna aan het einde van dit debat. Volgens mij kunnen we hier een hele beschouwing over houden. Daarom zou ik de Staatssecretaris willen vragen het zo kort mogelijk te houden, zodat we nog door kunnen naar de tweede termijn. Ik snap de vraag heel goed en het is natuurlijk wel aanpalend, maar nogmaals, we hebben hier onlangs het bredere debat over gehad.

Staatssecretaris Van Huffelen:

Even heel kort dan. Een voorbeeld van dat we dat onderzoek hebben gedaan, is dat we een zogenaamde DPIA hebben uitgevoerd op Facebook Pages. Dat zijn de bedrijfspagina's op Facebook die door de overheid worden ingezet. We hebben de conclusie getrokken dat die volgens ons niet voldoet aan de AVG, aan de privacyvereisten. Daar heb ik u ook verder over geïnformeerd. Daarover zijn wij in onderhandeling met Facebook, met name omdat ik het van belang vind dat uiteraard alle platformen voldoen aan de vereisten voordat we er gebruik van maken. Als ze dat niet doen, is mijn algemene lijn, die ik ook graag wil volhouden, dat ik eerst met hen in overleg ga om te zorgen dat ze wel gaan voldoen aan de vereisten. Als ze dat uiteindelijk niet doen, nemen we als overheid afscheid van hun diensten.

De voorzitter:

Dank u wel. Dan zijn we daarmee aan het einde gekomen van de beantwoording in eerste termijn. Ik kijk even rond of er behoefte is aan een tweede termijn. Ik zie al een aantal leden knikken. Dan geef ik als eerste het woord aan de heer Van Baarle namens DENK.

De heer Van Baarle (DENK):

Voorzitter. Laat ik allereerst beginnen met de Staatssecretaris hartelijk te danken voor de beantwoording. Ook bedankt dat de Staatssecretaris aan de slag wil gaan met het opstellen van de protocollen voor als er discriminatie geconstateerd wordt. Mijn vraag is op welke termijn we die kunnen verwachten. Het is ook fijn om te horen dat er aan de slag wordt gegaan met onze motie om in de Algemene wet bestuursrecht de uitlegbaarheid van algoritmische besluiten mee te nemen.

Voorzitter, dat gezegd hebbende. De Staatssecretaris heeft de fractie van DENK in het verleden toegezegd onderzoek te doen naar een discriminerend risicoprofiel in de Basisregistratie Personen. Eerder heeft de Staatssecretaris aangegeven dat de resultaten van dat onderzoek in oktober van het vorige jaar zouden komen. Daarna heeft ze gezegd dat die aan het einde van het vorige jaar zouden komen. Ik heb ze nog niet. Mijn vraag is waarom. Ik maak me daar zorgen over.

Voorzitter. Mijn laatste vraag gaat over het implementatiekader van de AI Act. Wanneer kunnen we dat verwachten? Is er ook de mogelijkheid om als Kamer nog in de zwaarte van hoe wij de AI Act kunnen interpreteren mee te kijken en mee te sturen hoe we dat gaan inrichten?

Daar zou ik het graag bij willen laten, voorzitter.

De voorzitter:

Dank u wel. Dan is de volgende spreker de heer Slootweg, CDA.

De heer Slootweg (CDA):

Dank u wel, voorzitter. Allereerst bedankt voor uw geduld en dat van de collega's. Ik heb misschien een aantal dingen dubbel gedaan. Dank ook aan de Staatssecretaris voor haar antwoorden. Eigenlijk vond ik er één heel aardig. We kijken nu bij de algoritmes vooral naar het zwarte punt, de dingen die niet goed gaan. In de brief gaf ze echter ook aan dat er punten zijn waardoor algoritmes de dienstverlening zouden kunnen verbeteren. Ik vond het best moeilijk om daar vanuit de rijksoverheid voorbeelden van te vinden, maar wellicht heeft ze die wel. Ik weet wel dat die bij gemeentelijke regelingen soms worden toegepast als het gaat over niet-gebruik. Is daar ook niet een rol in om te kijken hoe die betere dienstverlening meer gedeeld kan worden? Ziet de Staatssecretaris daar ook een rol in dat algoritmes ook ten goede van mensen kunnen komen?

De voorzitter:

Dank u wel, meneer Slootweg. Dan is het woord aan mevrouw Bouchallikh, GroenLinks.

Mevrouw Bouchallikh (GroenLinks):

Dank, voorzitter. Dank ook aan de Staatssecretaris en haar team voor de beantwoording van de vragen. Het feit dat een deel van de vragen van onze commissie veel met elkaar overlappen, laat volgens mij zien dat we met z'n allen een beetje dezelfde kant op aan het duwen zijn. Het is fijn dat de Staatssecretaris volgens mij ook aan het meebewegen is.

Ik sluit me wel graag aan bij het sentiment dat we niet moeten wachten tot er vanuit de EU regels komen, maar dat we het zo veel mogelijk hier moeten inbedden. Dat was onder andere de oproep van Volt. Ik hoop dat we in die zin stappen blijven zetten. Ik heb ook vanuit hier de oproep aan onze eigen overheden: maak alsjeblieft haast. Het is namelijk een beetje gênant dat op het moment dat we eindelijk iets hebben geregeld, we moeten wachten op juridische verankering, terwijl we gewoon een gemeenschappelijke plicht hebben naar de burgers. Ik hoop dat de Staatssecretaris die boodschap ook wil overdragen.

De voorzitter:

Dank u wel. Dan is het woord aan mevrouw Dekker-Abdulaziz, D66.

Mevrouw Dekker-Abdulaziz (D66):

Dank, voorzitter. Dank inderdaad aan de Staatssecretaris voor het toezeggen dat ze gaat kijken naar het TikTok-gebruik bij ambtenaren. Ik zou graag van haar willen horen wanneer ze denkt hiermee klaar te zijn. Voor een beetje haast zouden we dit wellicht nog in een tweeminutendebat kunnen doen.

Dan mijn andere vraag. Ik had een gemiste vraag over welke acties verder in gang worden gezet om orde te brengen in de dataverzameldrift van de overheid. Daar heb ik geen antwoord op gekregen.

Ten slotte ben ik heel blij om te horen dat de Algemene wet bestuursrecht versterkt wordt om algoritmes transparanter te maken. Daarbij is mijn vraag: wanneer denkt de Staatssecretaris deze naar de Kamer te sturen?

De voorzitter:

Dank u wel. Dan is het woord aan de heer Rahimi, VVD.

De heer Rahimi (VVD):

Dank u wel, voorzitter. Wij danken de Staatssecretaris uiteraard ook voor de antwoorden. Het is goed om te horen dat zij een aantal zaken gaat oppakken, waaronder het aanjagen van zbo's, waterschappen en gemeentes om het in te vullen.

Ik ben ook blij dat ze gaat kijken naar een certificering of een keurmerk. Ik wil even meegeven dat die certificeringen er in het buitenland al zijn. Het is misschien handig om daarnaar te kijken.

Ik gaf net al aan dat het heel belangrijk is dat mensen kunnen meekijken en kunnen acteren, zeker bij de instrumenten die wij als overheid hebben, dus ons instrumentarium. Het gaat vaak over technische dingen en ik denk dat het van belang is dat de mening van filosofen, IT'ers, technici en economen is meegenomen. Dit raakt namelijk echt alles. Ik wil vooropstellen dat we op de goede weg zijn. Dat wil ik echt meegeven en daarvoor wil ik de Staatssecretaris complimenteren. Het is belangrijk dat we als overheid op een serieuze en consistente manier verslag uitbrengen over wat we doen, dus de data die erin gaan en die eruit komen en de conclusies. Laten we daar goed mee omgaan.

Ik heb nog één laatste vraag; sorry, voorzitter. In het debat werd over de normen en de kaders aangegeven dat de AP gaat praten met andere toezichthouders. Naar mijn mening is het zo dat wij de kaders stellen en dat elke toezichthouder daar gehoor aan geeft, in plaats van dat de AP dat doet.

De voorzitter:

Dank u wel. Mevrouw Kathmann, PvdA.

Mevrouw Kathmann (PvdA):

Ik wil de Staatssecretaris van harte danken voor de beantwoording. Ik ben wel blij dat het tweeminutendebat is aangevraagd, want dan kunnen we de goede stappen die zijn gezet nog een beetje verder in de goede richting brengen met moties.

Terwijl wij het hier over ethiek en data hebben, krijg ik ineens het volgende bericht binnen: «Alle iPhonegebruikers opgelet: er is een wereldwijde datahack gaande op Apple-devices.» Ik zie ze hier allemaal staan. «Advies: installeer z.s.m. de laatste software-update.»

Ik wil nog wel even doorpakken op de vragen van de VVD over transparantie en bruikbaarheid voor de burger, want dat is gewoon ongelofelijk belangrijk. Transparantie begint met: begrijpt iedereen het? Daarom stel ik de concrete vraag of het algoritmeregister voldoet aan de digitaletoegankelijkheidsvereisten die voor overheidswebsites gelden. Kan de Staatssecretaris ervoor zorgdragen dat informatie in het register die door andere overheden wordt verschaft, gecontroleerd wordt op begrijpelijkheid en laagdrempeligheid? En is de Staatssecretaris bereid om burgers actief te betrekken bij de nadere uitwerking van het algoritmeregister, bijvoorbeeld door een praktijktoets op effectiviteit?

De voorzitter:

Dank u wel. En misschien toch nog even in alle scherpte: ik had zelf gehoord dat een aantal mensen nog in afwachting waren van toezeggingen, en dat er niet per definitie een tweeminutendebat zou worden aangevraagd als er voldoende toezeggingen waren. Als u wel een tweeminutendebat wenst, is het misschien goed om even concreet te maken waarover dan.

Mevrouw Kathmann (PvdA):

Ik zou graag nog wat aansporende moties willen indienen op het stukje over het toezicht. Maar ik hoef niet per se het recht om de eerste spreker te zijn als anderen dat tweeminutendebat al eerder wilden aanvragen. Mochten anderen het niet willen aanvragen, dan zal ik het doen, maar ik wil anderen niet het gras voor de voeten wegmaaien.

De voorzitter:

Het is inderdaad goed om dat even scherp te hebben. Ik kijk eerst hoe lang de Staatssecretaris nodig heeft voor het voorbereiden van de beantwoording. Vijf minuten, hoor ik. Dan schorsen we voor vijf minuten.

De vergadering wordt van 16.56 uur tot 17.02 uur geschorst.

De voorzitter:

Aan de orde is de tweede termijn van de Staatssecretaris. Er is een aantal vragen gesteld. Wij kijken vol verwachting naar de Staatssecretaris.

Staatssecretaris Van Huffelen:

Dank u wel. Ik heb altijd de hoop dat ik aan de verwachtingen kan voldoen. Ik ga proberen het heel snel te doen.

Er was een vraag gesteld door de fractie van DENK over de motie rondom de Awb-besluiten. De vraag was of we die zouden meenemen. Wij gaan inderdaad onderzoeken hoe we dat kunnen doen.

Dan de vraag wanneer het onderzoek naar de BRP-algoritmes komt. Dat komt in april. Het implementatiekader is niet een implementatiekader van de AI Act, want die is nog niet vastgesteld. Dat zal waarschijnlijk pas aan het eind van het jaar zijn. Ons eigen implementatiekader willen we in juni aan uw Kamer toesturen.

De heer Slootweg vroeg nog terecht naar voorbeelden over hoe we ...

De voorzitter:

Voordat u verdergaat, heeft u een korte vraag van de heer Van Baarle van DENK.

De heer Van Baarle (DENK):

Om het wel even serieus te nemen: ik heb twee keer schriftelijke vragen gesteld over het onderzoek naar het discriminerende risicoprofiel in de BRP. In het antwoord op de schriftelijke vragen stond: u krijgt het in oktober. Daarna werd gezegd: u krijgt het eind dit jaar. Ik vind het voor de zuiverheid wel belangrijk dat ik u even ter verantwoording roep met de vraag waarom ik, als er staat dat ik het in oktober krijg, nu moet horen: het komt in april. Ik vind het heel serieus. Ik vind het spijtig dat ik het niet wist en dat ik erop moest wachten.

Staatssecretaris Van Huffelen:

Dat is een fair point. Wij laten dit onderzoeken door een externe onderzoeker, die meer tijd nodig blijkt te hebben om het goed te doen. Dat had ik u ook even kunnen laten weten, dus dat doe ik de volgende keer proactief. Maar wij nemen het ook ontzettend serieus, want ik wil net zo goed als u weten wat er nou precies aan de hand is geweest. Mocht het niet in april komen, wat ik niet hoop, dan zal ik ervoor zorgen dat u dat vooraf te horen krijgt.

De vraag van de heer Slootweg ging over voorbeelden van hoe je algoritmes positief kunt laten werken. Denk bijvoorbeeld aan algoritmes die gaan over het niet gebruiken van voorzieningen. Een mooie toepassing is er bijvoorbeeld in het kader van schulden. Dat doen wij vanuit de rijksoverheid via de ELSA Labs. We weten ook dat de gemeente Amsterdam dat doet. Ik ben samen met de Minister voor Armoede aan het werk om daarnaar te kijken, omdat het een belangrijk onderwerp is.

Dan was er een oproep van mevrouw Bouchallikh om haast te maken. Dat doe ik graag. Die oproep neem ik mee.

Dan was er een vraag van mevrouw Dekker over wanneer we klaar zijn met het TikTok-onderwerp. Wij proberen dat natuurlijk te doen binnen de beantwoordingstermijn van de Kamervragen. Ik hoop niet dat we daar langer voor nodig hebben, maar ergens in de komende weken zullen we u daar antwoord op geven.

U had ook nog de terechte openstaande vraag over de verzameldrift. Wij hebben als overheid beschikking over allerlei soorten data. Sterker nog, die hebben wij heel erg hard nodig. «Verzameldrift» lijkt een beetje alsof wij data aan het verzamelen zijn voor ons plezier, alsof we dat zomaar doen of doen zonder dat daar nut en noodzaak voor is. Dat beeld zou ik graag willen bestrijden. Dat laat onverlet dat wij er heel goed voor moeten zorgen dat, als wij data tot onze beschikking hebben, wij daar heel zorgvuldig mee omgaan. Daarom hebben we toegezegd dat er data officers zijn. Die zijn we aan het aannemen. We hebben de Interbestuurlijke Datastrategie, samen met lagere overheden. En we willen er juist voor zorgen dat we niet data verzamelen om het verzamelen, maar dat we heel zorgvuldig omgaan met de data waarover we beschikking hebben. Bovendien, en dat is ook op basis van Europese regelgeving, willen we data zo veel mogelijk ter beschikking stellen, zodat mensen ermee aan het werk kunnen.

De voorzitter:

Een korte vraag van mevrouw Dekker-Abdulaziz.

Mevrouw Dekker-Abdulaziz (D66):

Ja, heel kort. Het is niet zo dat ik voor de lol de overheid aan het shamen ben. Het is de Algemene Rekenkamer die constateert dat bijvoorbeeld de politie meer gegevens verzamelt dan nodig is. Er is dus wel degelijk ergens een verzameldrift bij de overheid. De vraag is of de Staatssecretaris of medebewindslieden zich hard willen maken voor het verzamelen van niet te veel gegevens.

Staatssecretaris Van Huffelen:

Dat doe ik natuurlijk graag. Daarom hebben we ook de implementatie van de data officers en de mensen die werken aan dit soort thema's. Daarom zorgen we ervoor dat het goed gaat waar data verzameld worden. We hebben er ook toezichthouders voor. Ik maak mij er dus hard voor. Ik kan niet zeggen dat het er altijd honderd procent toe leidt dat er niet ergens bij de overheid iemand is die meer data aan het verzamelen is dan nodig. Maar we doen wel ons uiterste best om de randvoorwaarden daarvoor en het toezicht daarop goed in te richten.

De heer Rahimi had het nog over de certificering en de EU. Terecht, want dat is onderdeel van de AI Act, de algoritmeverordening. Dat gaat over het certificeren van algoritmes en het ervoor zorgen dat je de hoogrisicoalgoritmes pas mag gebruiken wanneer de certificering aan de orde is.

U vroeg nog of het zo is dat ik, of wij gezamenlijk, de normen doen en de toezichthouders de uitvoering daarvan. Dat is precies wat het is. Wij zijn een beetje aan het vooruitkijken. We zien dat er heel veel Europese verordeningen op ons afkomen, heel veel Europese regulering. Daarbij spelen de toezichthouders in verschillende vormen en maten een rol. Daarom hebben de toezichthouders zich op dit onderwerp verzameld. Ik heb daar – dat vertelde ik al – met hen overleg over. Het gaat over toezicht op de uitvoering van digitale wet- en regelgeving. Dan vind ik het belangrijk dat we niet alleen kijken hoe we dat toezicht gaan invullen, maar ook hoe we ervoor gaan zorgen dat we het makkelijker maken voor organisaties, overheden of bedrijfsleven om compliant te zijn. De les die we hebben geleerd vanuit de AVG is dat het helemaal niet zo makkelijk bleek om te bedenken: hoe kan ik compliant zijn, hoe kan ik voldoen aan de vereisten en hoe kan ik het goed inrichten? Daar ga ik samen met de toezichthouders aan werken.

Dan nog even over de toegankelijkheid – dat is een vraag van mevrouw Kathmann – van het register. Binnenkort gaat ons register voldoen aan de zogenaamde A-status. Dat is de norm die we onszelf hebben opgelegd. Dat is nu nog niet honderd procent zo, maar dat doen we wel. Dan zorgen we ervoor dat we binnen een maand, zo is de bedoeling, aan die vereisten voldoen. Daar hebben we dus nog twee weken voor. We betrekken burgers er ook bij. We maken nu een ronde langs bibliotheken om aan burgers te vragen of zij input kunnen leveren voor het verbeteren van het register, voor zover zij vinden dat het onvoldoende toegankelijk is. Dat doen we dus allebei.

Dat was het, voorzitter.

De voorzitter:

Dank u wel. Ik kijk heel even rond om te zien of dit inderdaad alle vragen waren. Dan ga ik, voor ik de gewetensvraag stel aan de collega's of er nog een tweeminutendebat nodig is, even kijken naar de toezeggingenlijst. Dat is een hele lijst, dus we hebben in ieder geval ons best gedaan. De toezeggingen zijn als volgt. Ik verzoek u om even goed mee te luisteren of dit goed is. De eerste toezegging is:

  • De Staatssecretaris zal bij de vormgeving van het nieuwe onderzoek naar de motie op stuk nr. 21, ook wel bekend als de motie-Marijnissen/Klaver, geen onomkeerbare stappen maken en eerst wachten op het voorstel van de rapporteurs op dit onderwerp ten aanzien van welke organisatie een onderzoek zou moeten uitvoeren. Dat is naar aanleiding van een interruptiedebat met mevrouw Leijten.

Ik kijk even rond. Klopt dat? Ja.

Dan de tweede toezegging:

  • De Staatssecretaris zal de Kamer informeren over het mogelijk verplichtende karakter van het algoritmeregister, vooruitlopend op de AI Act.

Ik kijk heel even naar de Staatssecretaris. Kan daar nog een datummoment aan toegevoegd worden?

Staatssecretaris Van Huffelen:

Ergens voor de zomer. We hebben nog even tijd nodig.

De voorzitter:

Voor de zomer? Dan voegen we dat toe.

Dan de derde toezegging:

  • De Kamer ontvangt spoedig het wetsvoorstel Versterking waarborgfunctie Awb.

Staatssecretaris Van Huffelen:

Dat is niet mijn wetsvoorstel, dus daar kan ik niks over zeggen.

De voorzitter:

Dan schrappen we deze toezegging. Daar zijn afspraken over gemaakt in een ander debat, dus dat doen we dan niet hier. Anders wordt het verwarrend. Dan zouden we deze Staatssecretaris houden aan iets wat zij niet kan waarmaken.

Dan de nieuwe nummer drie:

  • De Staatssecretaris zal de Kamer informeren over de uitkomst van het gesprek met de heer Krijger. Dat is een toezegging aan mevrouw Kathmann.

Dan de volgende:

  • De Staatssecretaris zal de Kamer informeren over de uitkomst van de gesprekken met de toezichthouders met betrekking tot de samenwerking van toezichthouders op het toezicht houden op algoritmes in de doorzettingsmacht van de AP.

Staatssecretaris Van Huffelen:

In brede zin over digitalisering, dus het wordt wel iets breder dan dat.

De voorzitter:

In brede zin op het gebied van digitalisering. Dat was een toezegging aan mevrouw Leijten en mevrouw Kathmann.

Dan de volgende toezegging:

  • De Staatssecretaris zal voor juni het implementatiekader van het gebruik van algoritmes naar de Kamer sturen.

Staatssecretaris Van Huffelen:

Die toezegging is al eerder gedaan.

De voorzitter:

Vandaar dat we er nu ook niet een nieuwe naam aan toegevoegd hebben. Dit is namelijk een hernieuwde toezegging.

Dan:

  • De Staatssecretaris zal de Kamer spoedig informeren over het gebruik van TikTok door ambtenaren bij de overheid. Dat is naar aanleiding van een verzoek van mevrouw Dekker-Abdulaziz.

Dat gaat via de beantwoording van de Kamervragen, als ik net goed geluisterd heb.

Staatssecretaris Van Huffelen:

Dat lijkt mij het meest logisch, als iemand daar Kamervragen over stelt.

De voorzitter:

Ja.

Dan de volgende toezegging:

  • De Staatssecretaris zal de Kamer informeren over de protocollen voor het handelen bij mogelijke discriminatie bij algoritmes. Dat is een toezegging aan de heer Van Baarle.

Staatssecretaris Van Huffelen:

Eigenlijk gaat het niet om het informeren. We hebben gezegd dat we zo'n protocol willen gaan maken. Ik denk dat dat een zuiverdere ...

De voorzitter:

Oké, dus er komt een protocol. Dan is de vraag wel of er een verwachting is qua termijn.

Staatssecretaris Van Huffelen:

Ergens in het voorjaar.

De voorzitter:

Dit voorjaar. Oké. Dan gaan we die toezegging iets herformuleren en voegen we de tijdsindicatie toe.

Dan:

  • De Staatssecretaris zal de Kamer in april informeren over het onderzoek naar discriminerende risicoprofielen in de BRP. Dat is ook naar aanleiding van een verzoek van de heer Van Baarle.

Daarbij was de aanvulling volgens mij: mocht het later worden, dan worden we daar in ieder geval over geïnformeerd.

Staatssecretaris Van Huffelen:

Dan krijgt u keurig een brief van mij.

De voorzitter:

Misschien moeten we dat, gelet op het verleden, toch nog even specifiek markeren.

Dan kijk ik even rond: is er, gelet op al deze toezeggingen, nog behoefte aan een tweeminutendebat? Ik zie een aantal leden knikken. Mevrouw Dekker-Abdulaziz zit als eerste in de rij. Het is gebruikelijk om dat lid dan als eerste aanvrager te noteren.

Staatssecretaris Van Huffelen:

Waarover?

De voorzitter:

De vraag is inderdaad: waarover?

Mevrouw Dekker-Abdulaziz (D66):

Op zich is TikTok redelijk gecoverd, maar just in case. Maar eigenlijk gaat het niet daarover. We hebben nog een stukje datahonger dat we willen tackelen.

De voorzitter:

Mevrouw Kathmann heeft misschien een ander onderwerp. Ik denk dat het goed is om dat te weten, zodat de Staatssecretaris en de ambtenaren zich daarop kunnen voorbereiden. Misschien is het ook voor de collega's goed om dat te weten.

Mevrouw Kathmann (PvdA):

Dat zit vooral op dat stuk van het toezicht. Het is voor mij nog steeds een beetje vaag hoe we dat gaan inrichten: wat is het mandaat en wat zijn de escalatieladders? Daar is wel een soort toezegging over gedaan, maar ik zou daar toch graag nog wat concreets over meegeven via een motie.

De voorzitter:

De reden waarom we hierop doorvragen – misschien is het ook voor de leden goed om dat te weten – is dat we met elkaar een beetje aan het kijken zijn hoe we in het debat qua toezeggingen recht doen aan elkaars overwegingen. Ik denk dat de Staatssecretaris geprobeerd heeft om dat zo ruimhartig mogelijk te doen. Dan is het ook altijd goed om met elkaar te wisselen wat er nog ontbreekt en om dat ook aan de voorkant scherp te hebben. Dat hebben we bij dezen gedaan. We geven dit door aan de Griffie plenair. Dan wordt het te zijner tijd ingepland, met als eerste spreker mevrouw Dekker-Abdulaziz.

Dank u wel. We zijn bij dezen aan het einde gekomen, met dank voor eenieders geduld, want we zijn een kwartiertje uitgelopen. Ik dank de leden. Ik dank de Staatssecretaris en haar ambtenaren en uiteraard de mensen die op de publieke tribune zijn blijven zitten en de kijkers thuis.

Sluiting 17.14 uur.

Naar boven