30 Inzet algoritmes en data-ethiek binnen de rijksoverheid

Inzet algoritmes en data-ethiek binnen de rijksoverheid

Aan de orde is het tweeminutendebat Inzet algoritmes en data-ethiek binnen de rijksoverheid (CD d.d. 15/02).

De voorzitter:

Aan de orde is het tweeminutendebat Inzet algoritmes en data-ethiek binnen de rijksoverheid, naar aanleiding van het commissiedebat dat is gehouden op 15 februari. Ik heet de leden, de staatssecretaris en iedereen die dit thuis of op de publieke tribune volgt uiteraard van harte welkom. We hebben een langere sprekerslijst dan we aan het begin van de dag hadden verwacht. Ik wil dus voorstellen om voortvarend te beginnen met de eerste spreker van de Kamer; dat is mevrouw Dekker-Abdulaziz namens D66.

Mevrouw Dekker-Abdulaziz (D66):

Dank, voorzitter. Ook dank aan de staatssecretaris voor haar aanwezigheid. Ik heb dit tweeminutendebat aangevraagd omdat wij ons als Kamer en ook als partij zorgen maakten over TikTok. Ik wil de staatssecretaris via deze weg ook bedanken voor haar aanpak, met het voorlopige verbod op TikTok bij ambtenaren van de overheid, want die app geeft best wel veel zorgen. We kijken met interesse naar de bredere uitwerking en we vragen ook welke applicaties in den brede straks wel of niet geschikt worden bevonden voor werktelefoons. Dat zien we dus graag tegemoet. Misschien kunnen we daar een voorschot op nemen.

Ik heb verder nog twee moties. We maken ons ook zorgen over toegangsbeheer van data bij de overheid. Daarom dien ik deze motie in.

Motie

De Kamer,

gehoord de beraadslaging,

na overleg van de Kamerleden;

overwegende dat de dataverzameling van de overheid gebonden is aan relevante wet- en regelgeving en dat er goede reden moet zijn voor het verzamelen en verwerken van persoonsgegevens;

overwegende dat het toegangsbeheer (welke personen toegang hebben tot de verzamelde data) bij zes van de negen door de Algemene Rekenkamer onderzochte algoritmes onvoldoende was geregeld;

concluderende dat sturingsinstrumenten om toegangsbeheer vooraf te toetsen bij het verzamelen van persoonsgegevens nog onvoldoende benut worden;

concluderende dat er een onderscheid dient te worden gemaakt tussen geannoteerde data en data verkregen bij het reguliere toegangsproces en dat dit implicaties heeft voor het toegangsbeheer;

verzoekt de regering om bij de verzameling en verwerking van persoonsgegevens door de overheid een verplichte afweging vooraf in te voeren die zich richt op het verbeteren van het toegangsbeheer, zodat alleen de noodzakelijke personen toegang hebben tot die data,

en gaat over tot de orde van de dag.

De voorzitter:

Deze motie is voorgesteld door het lid Dekker-Abdulaziz.

Zij krijgt nr. 985 (26643).

Mevrouw Dekker-Abdulaziz (D66):

Nu heb ik nog zeventien seconden voor mijn tweede motie.

Motie

De Kamer,

gehoord de beraadslaging,

overwegende dat ontwikkelingen op het gebied van AI-toepassingen in een stroomversnelling zijn beland;

overwegende dat toepassingen van AI zowel veel kansen als uitdagingen bieden;

overwegende dat de WRR reeds eerder waarschuwde om AI-toepassingen in overeenstemming te brengen (AI alignment) met onze normen en waarden binnen de samenleving;

concluderende dat deze toepassingen zich het beste kunnen ontwikkelen volgens het principe van AI alignment, dus in overeenstemming met onze normen en waarden als mens;

concluderende dat nieuw onderzoek op dit vlak (ook wel AI-safetyonderzoek) nodig is;

verzoekt de regering te bezien hoe zij nieuw wetenschappelijk onderzoek op het gebied van AI safety kan aanmoedigen, bijvoorbeeld bij een organisatie als NWO,

en gaat over tot de orde van de dag.

De voorzitter:

Deze motie is voorgesteld door het lid Dekker-Abdulaziz.

Zij krijgt nr. 986 (26643).

Voor u vertrekt, heeft u een korte interruptie van mevrouw Leijten van de SP.

Mevrouw Leijten (SP):

Ik heb een vraag over de eerste motie. Die heb ik natuurlijk net horen voorlezen. Die motie bepleit om inzage in persoonsgegevens strikter te regelen. Dat is een beetje hoe ik de motie kort samenvat. Geldt dat dan ook voor de Basisregistratie Personen, wat D66 betreft?

Mevrouw Dekker-Abdulaziz (D66):

Wat ons betreft wel.

De voorzitter:

Dank u wel. Dan dank ik u voor uw inbreng namens D66. De volgende spreker van de zijde van de Kamer is mevrouw Leijten, SP.

Mevrouw Leijten (SP):

Voorzitter. Een zogenaamd slim algoritme zoekt in de gemeente Rotterdam naar fraude. Want fraude is verkeerd; dat willen we niet. Ben je alleenstaand? Ben je een vrouw? Zit je in de bijstand? En heb je ook nog een andere nationaliteit? Nou, dan ben je wel fraudeur. Dan scoor je hoog op de scorekaart. De overheid doet dit daar, maar op heel veel andere plekken ook. We weten dat algoritmes mensen discrimineren en uitsluiten. Daarom voeren we regelmatig een goed debat over algoritmes en over wanneer we die inzetten. We krijgen dit helaas ook regelmatig weer via media in ons blikveld. Ik zou aan de staatssecretaris willen vragen hoe zij dat voelt, dat we iedere keer weer geconfronteerd worden met dit soort systemen bij gemeenten of wellicht bij eigen instituties, die onder de rijksoverheid vallen, terwijl we eigenlijk willen dat dit niet gebeurt. Want we kunnen nog zo veel werkagenda's, beleidsnotities of voornemens hebben, als we iedere keer hierop gewezen worden zonder dat er iets lijkt te veranderen, dan gaan we niet de goede kant op.

Als het gaat over de goede kant opgaan, hebben we in mei 2022 — dat is bijna een jaar geleden — een motie aangenomen in deze Kamer die zegt dat we alle initiatieven, pilots en wetten willen kennen die zijn ontstaan naar aanleiding van de Ministeriële Commissie Aanpak Fraude en ook welke algoritmes daaruit voort zijn gekomen. Ik heb nog altijd geen uitwerking van die motie gezien. Wanneer komt die?

Twee moties, voorzitter.

Motie

De Kamer,

gehoord de beraadslaging,

constaterende dat het algoritmeregister niet bindend is, er nog vele algoritmes ontbreken, er geen informatie bekend is over de inhoud van de gebruikte algoritmes en de algoritmes die gebruikt worden op het gebied van rechtshandhaving uitgezonderd zijn;

overwegende dat algoritmes op het gebied van rechtshandhaving grote ingrijpende gevolgen kunnen hebben en niet mogen leiden tot discriminatie en uitsluiting;

van mening dat het algoritmeregister een nuttig middel kan zijn, maar daarbij meerdere maatregelen noodzakelijk zijn om het goed te laten functioneren;

verzoekt de regering de uitzondering in het algoritmeregister voor algoritmes die zien op rechtshandhaving te laten vervallen,

en gaat over tot de orde van de dag.

De voorzitter:

Deze motie is voorgesteld door het lid Leijten.

Zij krijgt nr. 987 (26643).

Mevrouw Leijten (SP):

De volgende motie.

Motie

De Kamer,

gehoord de beraadslaging,

constaterende dat de Autoriteit Persoonsgegevens geen algoritmetoezichthouder is maar zal moeten functioneren als "expertisecentrum" over de inzet van algoritmes;

constaterende dat de staatssecretaris zelf aangeeft de verwachtingen over de toezichthoudende rol van de autoriteit te managen gezien de beperkte middelen;

overwegende dat de inzet van algoritmes meerdere ernstige nadelige gevolgen kan hebben, zoals discriminatie en uitsluiting, en een toezichthoudende rol op de werking, inzet en inhoud van algoritmes binnen de overheid daarom wenselijk is;

verzoekt de regering de Autoriteit Persoonsgegevens zo in te richten en toe te rusten dat zij in staat gesteld wordt toezicht te houden op de werking, inzet en inhoud van algoritmes,

en gaat over tot de orde van de dag.

De voorzitter:

Deze motie is voorgesteld door het lid Leijten.

Zij krijgt nr. 988 (26643).

Mevrouw Leijten (SP):

Dank u wel, voorzitter.

De voorzitter:

Dank u wel, mevrouw Leijten namens de SP. Dan is de volgende spreker van de zijde van de Kamer de heer Van Baarle namens DENK.

De heer Van Baarle (DENK):

Dank u wel, mevrouw de voorzitter. Een viertal moties.

Motie

De Kamer,

gehoord de beraadslaging,

constaterende dat de regering op dit moment het implementatiekader van de AI Act ontwikkelt en dat hierin normen ontwikkeld worden voor hoogrisicoalgoritmen;

constaterende dat er nog geen concrete definitie is voor hoogrisicoalgoritmen en dat de regering nog geen compleet overzicht heeft van de hoogrisicoalgoritmen die binnen de overheid worden gebruikt;

verzoekt de regering om een concrete definitie vast te stellen voor hoogrisicoalgoritmen, een overzicht te maken van alle hoogrisicoalgoritmen die binnen de overheid worden gebruikt en deze op te nemen in het algoritmeregister,

en gaat over tot de orde van de dag.

De voorzitter:

Deze motie is voorgesteld door de leden Van Baarle en Kathmann.

Zij krijgt nr. 989 (26643).

Motie

De Kamer,

gehoord de beraadslaging,

constaterende dat dit kabinet geen zicht heeft op de algoritmen die overheidsinstanties hebben uitbesteed en dat we daardoor niet weten hoe ze ontwikkeld zijn;

overwegende dat dit veel risico's met zich meebrengt en dat algoritmen transparant moeten zijn, zeker wanneer ze rechtsgevolgen hebben voor burgers;

verzoekt de regering om modelcontracten op te stellen met antidiscriminatiewaarborgen voor de uitbesteding van algoritmen,

en gaat over tot de orde van de dag.

De voorzitter:

Deze motie is voorgesteld door de leden Van Baarle en Kathmann.

Zij krijgt nr. 990 (26643).

Motie

De Kamer,

gehoord de beraadslaging,

constaterende dat de regering op dit moment het implementatiekader van de AI Act ontwikkelt;

overwegende dat de Nederlandse regering hierin de vrijheid heeft om te kiezen welke vorm van toetsing van algoritmen te gaan hanteren;

verzoekt de regering om in dit implementatiekader verplichte en concrete waarborgen tegen discriminatie door algoritmen op te nemen, die gelden voor zowel publieke als private instellingen, en betrekking hebben op de ontwikkel-, implementatie- en evaluatiefase,

en gaat over tot de orde van de dag.

De voorzitter:

Deze motie is voorgesteld door de leden Van Baarle en Kathmann.

Zij krijgt nr. 991 (26643).

Motie

De Kamer,

gehoord de beraadslaging,

constaterende dat de ministeries bij het onderzoek van de Algemene Rekenkamer 86 algoritmes hebben aangeleverd en dat er maar 28 algoritmen geregistreerd staan in het algoritmeregister;

constaterende dat het algoritmeregister nog niet verplicht is voor overheden en dat het kabinet nog wacht op de AI Act om dit mogelijk verplicht te stellen;

verzoekt de regering om, ongeacht de uitkomst van de AI Act, overheidsinstanties uiterlijk dit jaar nog te verplichten om alle hoogrisicoalgoritmen te registreren in het algoritmeregister,

en gaat over tot de orde van de dag.

De voorzitter:

Deze motie is voorgesteld door de leden Van Baarle en Kathmann.

Zij krijgt nr. 992 (26643).

Dank u wel. Dank ook dat u met deze vier moties keurig binnen de tijd bent gebleven.

De heer Van Baarle (DENK):

Ik heb mijn best gedaan, voorzitter.

De voorzitter:

U heeft nog wel een interruptie van mevrouw Dekker-Abdulaziz, D66.

Mevrouw Dekker-Abdulaziz (D66):

Het is inderdaad indrukwekkend. Een vraag aan DENK. Ik hoorde het woord "hoogrisicoalgoritmes". Ik ben het wel eens dat daar een goede definitie van zou moeten komen. Maar in de AI-verordening werkt men nog aan een definitie. Is DENK het dan met D66 eens dat die definitie in ieder geval hetzelfde zou moeten zijn en dat wij niet andere dingen moeten gaan verzinnen?

De heer Van Baarle (DENK):

Dat ligt eraan welke definitie er in Europa gehanteerd gaat worden. Ik heb mezelf er eventjes in verdiept; niet heel erg lang, want ik heb het ook druk. Ik zag dat men aan een definitie werkt die gebaseerd is op sectoren. Ik vraag mij af of een definitie gebaseerd op sectoren dekkend genoeg is om het probleem van discriminatie goed bij de hoorns te vatten. Wellicht hebben wij de mogelijkheid — dat zou dan ook een vraag zijn in een later stadium bij het implementatiekader — om in zo'n definitie van een hoogrisicoalgoritme iets verder te gaan dan alleen een lijst van sectoren. Ik heb het antwoord dus niet panklaar. Alleen is het voor mij wel belangrijk om te kijken of zo'n uiteindelijke definitie in de AI-verordening genoeg is om dit probleem bij de hoorns te vatten. Dat kan ik nu nog niet zeggen. Vandaar mijn vraag.

De voorzitter:

U heeft ook nog een interruptie van de heer Rahimi, VVD.

De heer Rahimi (VVD):

Ik heb een vraag over het algoritmeregister. Ik vraag mij af of we naar hetzelfde kijken, want ik zie er 109 en ik hoorde net 28. Klopt dat? Want dan kijken we naar twee verschillende registers. Is er een tweede register?

De heer Van Baarle (DENK):

Volgens mij baseerde ik mij op de eerste inventarisatie van de Rekenkamer, waarin werd geconcludeerd dat ministeries er een aantal hadden aangeleverd, maar dat slechts een heel klein gedeelte daarvan in het register stond. Wellicht is er ook nog een andere inventarisatie. Het algemene punt is dat we zien dat er enorm veel algoritmen gebruikt worden door de overheid, hoogrisicoalgoritmen en niet-hoogrisicoalgoritmen — het hangt er ook nog van af welke definitie je hanteert — en dat er nog onvoldoende in dat register staan. Vandaar de oproep om in ieder geval dit jaar nog tot verplichting over te gaan, ongeacht wat er in die AI Act komt.

De voorzitter:

Tot slot, de heer Rahimi. Kort graag.

De heer Rahimi (VVD):

Ja, heel kort. Is de heer Van Baarle het ermee eens dat al die verschillende algoritmes dan eigenlijk in één register moeten staan, zodat we ook dit tellingverschil niet hebben?

De heer Van Baarle (DENK):

Jazeker. Als we het hebben over hét algoritmeregister, dan hebben we het over het project dat we met elkaar opzetten om de algoritmen van alle overheidslagen in één centraal register transparant te maken voor de mensen in het land. Dat deel ik dus. We moeten er niet vier, vijf, zeven, negen of twintig hebben; dat maakt het nog moeilijker zichtbaar dan het algoritme zelf.

De voorzitter:

Dank u wel, meneer Van Baarle, voor uw inbreng namens DENK. De volgende spreker van de zijde van de Kamer is de heer Slootweg, CDA.

De heer Slootweg (CDA):

Dank u wel, voorzitter. We hebben een goed debat gehad over de inzet van algoritmes en data-ethiek. Ik vind het belangrijk om te zeggen dat algoritmes inderdaad zodanig kunnen werken dat mensen uitgesloten worden, maar wat ik ook belangrijk vind, is de vraag hoe we algoritmes in de toekomst kunnen gaan gebruiken om mensen juist mee te laten doen, te laten deelnemen, zodat ze krijgen waar ze recht op hebben. Maar helaas, dat zal misschien niet altijd zo zijn. Dan vind ik, vindt mijn partij, het van belang dat mensen weten of er gebruikgemaakt is van een algoritme. Vandaar de eerste motie.

Motie

De Kamer,

gehoord de beraadslaging,

constaterende dat de bestuursorganen bij het nemen van besluiten gebruikmaken van algoritmes of iemand in aanmerking komt voor een regeling;

overwegende dat veel inwoners hiervan niet op de hoogte zijn, maar hier wél de gevolgen van ondervinden;

verzoekt de regering ervoor te zorgen dat binnen twee jaar alle overheidsorganisaties kenbaar maken aan onze inwoners van welke persoonsgegevens en welke algoritmes ze hebben gebruikgemaakt bij het nemen van het besluit,

en gaat over tot de orde van de dag.

De voorzitter:

Deze motie is voorgesteld door het lid Slootweg.

Zij krijgt nr. 993 (26643).

De heer Slootweg (CDA):

Naast het punt dat je echt wil weten of er van een algoritme gebruikgemaakt is, moet de rechtspositie van onze inwoners op een gegeven moment ook worden versterkt. Daarom de volgende motie.

Motie

De Kamer,

gehoord de beraadslaging,

constaterende dat de positie van onze inwoners in een dispuut met de overheid ongelijkwaardig is;

overwegende dat de overheid voor het nemen van besluiten steeds vaker gebruikmaakt van algoritmes;

overwegende dat ook met het gebruik van algoritmes de overheid soms foutieve besluiten neemt;

verzoekt de regering binnen het bestuursrecht de positie van burgers te versterken wanneer zij overheidsorganisaties willen aanspreken omdat fouten in besluiten van overheidsorganisaties gebaseerd zijn op het algoritmegebruik;

verzoekt de regering te bezien of uitbreiding of explicitering van de Algemene wet bestuursrecht op dit punt tot de gewenste verbetering kan leiden,

en gaat over tot de orde van de dag.

De voorzitter:

Deze motie is voorgesteld door het lid Slootweg.

Zij krijgt nr. 994 (26643).

Dank u wel, meneer Slootweg, voor uw inbreng namens het CDA. De volgende spreker van de zijde van de Kamer is de heer Rahimi, VVD.

De heer Rahimi (VVD):

Dank u wel, voorzitter. Toen ik mijn IT-bedrijf had, stelde ik altijd een cruciale vraag: moet ik een IT-systeem bouwen of niet en helpt het iemand of niet? Anders kun je beter lekker niks doen. Dat zouden we ons hier in de Kamer en bij de ministeries ook vaak moeten afvragen, want dat is geen slechte vraag. Wat algoritmes betreft is dit nog veel fundamenteler, want waartoe dient een algoritme, op welke data gebruiken we het en wat zijn de resultaten die effect hebben op de vrijheden van verschillende individuen en die hun vrijheid kunnen beperken?

Voorzitter. Er zijn 109 algoritmes geregistreerd. Ik zie wekelijks met veel plezier dat dat vermeerdert. Wij vinden dat algoritmes gewoon goed en verantwoord moeten worden ingezet, want je kan er ook heel veel goede dingen mee doen. Mensen moeten alleen wel weten wat de uitkomst en het effect op hen zijn. Daarom is het heel goed dat wij met de Autoriteit Persoonsgegevens een toezichthouder hebben, maar er zijn verschillende toezichthouders die ook zeer cruciaal zijn voor het toetsen van algoritmes. Ik wil de staatssecretaris vragen hoe de andere toezichthouders zich verhouden tot de Autoriteit Persoonsgegevens. Welke wetgeving is er in Nederland nog nodig? Wat is het mandaat van de AP? En heeft de AP genoeg kennis in huis om alles te toetsen? Gaat de AP helpen bij het maken van onderscheid tussen het verwerken van data en de algoritmes? De werking van algoritmes is complex. Hoe kunnen we zorgen dat burgers in normale taal weten wat zij voor hen betekenen?

Tijdens het commissiedebat hebben we aangedragen dat problemen met algoritmes structureel zijn. Die zijn er gewoon continu; elk jaar moet er gecontroleerd worden. Daarom willen wij graag ook een structurele, jaarlijkse oplossing hiervoor. Is de staatssecretaris het er met de VVD over eens dat dit structureel moet worden opgelost en wil de staatssecretaris onderzoeken hoe we dit kunnen waarmaken?

Voorzitter, ik ben motieloos maar heb wel veel vragen.

De voorzitter:

Dank u wel, we hebben ze genoteerd. Ik zag ook de staatssecretaris meeschrijven. Dank, meneer Rahimi, voor uw inbreng namens de VVD. Dan zijn we gekomen bij de laatste spreker van de zijde van de Kamer. Dat is mevrouw Kathmann, Partij van de Arbeid.

Mevrouw Kathmann (PvdA):

We hebben nog een hele hoop te doen met elkaar als het gaat over het gebruik van algoritmen, de ethiek die erbij komt kijken, maar vooral ook het doorgronden ervan. We hadden het ook over de vraag: wat nou als het algoritme het bij het verkeerde eind heeft? Toen zei ik ook: a fool with a tool is still a fool. Die vragen hebben we nog steeds niet beantwoord. Met alle moties die we vandaag indienen, gaan we dat ook niet doen. Maar we hebben wel weer stappen gezet.

Ik ben wat betreft het zetten van die stappen ook wel blij met het ongeduld van een aantal collega's, want dat ongeduld voel ik ook. We moeten niet steeds wachten op normen, kaders, acts of weet ik het wat. Soms moeten we het ook gewoon echt gaan doen, zeker als we het hebben over discriminatoire algoritmen. Want mind you, dan hebben we het gewoon over een discriminatoire overheid, bewust of onbewust. Daar moet je nu gewoon elke dag korte metten mee willen maken. Daarom zal ik moties die gaan over ongeduld en het zetten van stappen daarin, allemaal ondertekenen of heb ik die meegetekend.

Ook de moties over een toezichthouder met meer tanden zal ik steunen. Daarom ben ik ook benieuwd naar de beantwoording van de vragen van de VVD.

We hebben het ook gehad over dat algoritmeregister. Het is ongelofelijk fijn en een mooie stap dat dat er gaat komen. Maar het is niet genoeg. Willen we maximale transparantie, dan moet er meer gebeuren. Vandaar deze motie.

Motie

De Kamer,

gehoord de beraadslaging,

overwegende dat alles op alles gezet moet worden om discriminerende algoritmes te bestrijden;

overwegende dat transparantie over inzet van algoritmes door de overheid daaraan bijdraagt en een openbaar algoritmeregister dus een mooie stap is;

overwegende dat voor maximale transparantie een algoritmeregister alleen niet genoeg is, omdat een register geen volledig inzicht in het algoritme zelf geeft;

verzoekt de regering daarom te onderzoeken in hoeverre de inzet van expertteams die op vertrouwelijke basis volledige inzage krijgen in een algoritme succesvol kan zijn in het bestrijden van discriminerende algoritmes,

en gaat over tot de orde van de dag.

De voorzitter:

Deze motie is voorgesteld door de leden Kathmann, Van Baarle en Bouchallikh.

Zij krijgt nr. 995 (26643).

Dank u wel, mevrouw Kathmann, voor uw inbreng namens de Partij van de Arbeid. Daarmee zijn we gekomen aan het einde van deze termijn van de Kamer. De staatssecretaris heeft aangegeven dat zij behoefte heeft aan een schorsing van vijf minuten, dus ik schors vijf minuten.

De vergadering wordt enkele ogenblikken geschorst.

De voorzitter:

Aan de orde is het tweeminutendebat Inzet algoritmes en data-ethiek binnen de rijksoverheid, commissiedebat gehouden op 15 februari. We hebben net de termijn van de Kamer gehad. We zijn nu bij de appreciatie van de moties door de staatssecretaris en bij de beantwoording van de resterende vragen. Ik geef daartoe de staatssecretaris het woord.

Staatssecretaris Van Huffelen:

Dank u wel, voorzitter. Dan ga ik over naar de eerste vragen en moties, van mevrouw Dekker-Abdulaziz van D66. Zij vroeg welke applicaties wel en niet op de telefoons van medewerkers van de overheid kunnen komen. We hebben sowieso al aangegeven dat we op dit moment ontraden om applicaties op hun telefoon te zetten die zijn van bedrijven uit landen met een offensief cyberprogramma. Met het inrichten van de zogenaamde managed devices, dus om aan te geven welke apps wel op de telefoons kunnen blijven staan, zijn we nu aan het werk. Ik informeer u daar graag over als we daarover wat meer informatie hebben.

Dan heeft u twee moties ingediend. De motie op stuk nr. 985 zou ik willen overnemen, want dit is eigenlijk ondersteuning van het beleid. Zowel in de Baseline Informatiebeveiliging Overheid, de BIO, als in de AVG hebben wij opgenomen dat het toegangsbeheer, dus welke personen welke informatie mogen krijgen, geregeld moet worden, en ook zeer strikt geregeld moet worden, namelijk op basis van de normen van de AVG. Dat gaat dus onder andere over dataminimalisatie.

De voorzitter:

Ik zie dat de indienster knikt. Daarmee noteren we: overgenomen.

De motie-Dekker-Abdulaziz (26643, nr. 985) is overgenomen.

Staatssecretaris Van Huffelen:

Dan de tweede motie.

De voorzitter:

Die is ook van mevrouw Dekker-Abdulaziz.

Staatssecretaris Van Huffelen:

Deze motie, op stuk nr. 986, stelt voor dat we een onderzoek op het gebied van AI safety doen. Ik zou deze motie graag oordeel Kamer willen geven.

De voorzitter:

De motie op stuk nr. 986: oordeel Kamer.

Staatssecretaris Van Huffelen:

Dan ga ik naar de vragen die gesteld zijn door mevrouw Leijten van de SP en naar haar moties. Zij begon met de vraag wanneer zij een brief ontvangt over een eerder aangenomen motie. Ik wilde proberen deze brief deze week nog naar uw Kamer te sturen.

De motie-Leijten op stuk nr. 987 gaat over een uitzondering voor algoritmes die vallen onder de rechtshandhaving. Die motie zal ik ontraden. In sommige algoritmes kan misbruik gemaakt worden van transparantie. Wij zien daarom niet de mogelijkheid om dat voor rechtshandhaving te doen. Dat laat onverlet dat wij wel zo veel mogelijk transparant willen zijn, dus het is niet zo dat er dan helemaal niets gepubliceerd kan worden, maar niet alle details kunnen gepubliceerd worden.

De voorzitter:

De motie op stuk nr. 987: ontraden.

Staatssecretaris Van Huffelen:

Ook de motie op stuk nr. 988 moet worden ontraden. Deze gaat over het verzoek de AP zo in te richten dat ze toezicht kan houden op de werking van algoritmes. Dat gaan we ook doen. Sterker nog, de AVG heeft daarvoor ook middelen ter beschikking gekregen. Naast het toezicht van de AVG is het idee dat de AP ook een coördinerende functie heeft rond het ontwikkelen van de algoritmes. Dat heeft ze al gedaan, maar dat zal ze verder uitbreiden. De directie Coördinatie Algoritmes gaat aan het werk, samen met andere toezichthouders, om te zorgen dat we toezicht kunnen houden. In het debat heb ik ook toegezegd dat we dat als regering natuurlijk ook blijven volgen, om te zorgen dat de AP voldoende geëquipeerd blijft om dit werk te doen, want ik ben het met mevrouw Leijten eens dat dit zeer belangrijk werk is.

De voorzitter:

De motie op stuk nr. 988 is ontraden. Ik zie de heer Van Baarle. Graag kort en bij voorkeur over de motie, want het debat hebben we al gehad.

De heer Van Baarle (DENK):

Heel kort, over die algoritmes die zien op rechtshandhaving. Op grond waarvan wordt dan het besluit genomen om details uit zo'n algoritme dat ziet op rechtshandhaving wel te publiceren en welke niet? Als daar geen leidraad voor is, is het dan niet zinvol om die wel op te stellen? Want anders wordt het arbitrair.

Staatssecretaris Van Huffelen:

Ik denk dat het goed is dat we daarover nog wat in ons implementatiekader zetten. Het gaat natuurlijk vooral om die onderdelen van algoritmes die hinderlijk zouden kunnen zijn bij de opsporing. Dat willen we niet. Ik denk dat het goed is om in het implementatiekader iets meer op te schrijven over hoe we dat vorm zouden kunnen geven.

De voorzitter:

Dan de motie op stuk nr. 989.

Staatssecretaris Van Huffelen:

Dat is een motie van de heer Van Baarle en mevrouw Kathmann. In de motie wordt verzocht om nu een definitie van hoogrisicoalgoritmes vast te stellen. In de AI-verordening worden algoritmes die een hoog risico met zich meebrengen al gedefinieerd. Het idee is dat we die definitie gebruiken, omdat die niet alleen voor Nederland geldt, maar voor heel Europa. Veel algoritmes worden niet in Nederland maar internationaal ontwikkeld, en dan in Nederland toegepast. Daarom vind ik een eigen definitie onwenselijk. Ik moet deze motie dan ook ontraden.

De voorzitter:

De motie op stuk nr. 989: ontraden. Ik zie de heer Van Baarle al naar voren komen.

De heer Van Baarle (DENK):

Ik vind het opvallend dat de staatssecretaris concludeert dat het onwenselijk is om zelf een definitie vast te stellen, zonder dat ze weet hoe die definitie definitief komt te luiden in Europa. Op grond waarvan concludeert de staatssecretaris dat?

Staatssecretaris Van Huffelen:

Er is al een lijst van hoogrisicoalgoritmes gedefinieerd in het kader van die AI-verordening en bovendien ook in het verdrag van de Raad van Europa. Daar spreekt u donderdag verder over. Ik vind het belangrijk dat veel algoritmes die worden gebruikt door Nederlandse partijen, of die nou privaat of publiek zijn, niet in Nederland worden ontwikkeld. Een deel wordt dat wel, maar een groot deel niet. Ik hecht dus aan een goede definitie van hoogrisicoalgoritmes in Europa, zodat we diezelfde definitie kunnen gebruiken. Wij hebben natuurlijk meegedacht over wat die definitie zou moeten zijn. Die zien we ook terug in de AI-verordening. Daarom vind ik het niet wenselijk om in Nederland apart nog iets te maken. Het blijft natuurlijk wel van belang om steeds te blijven kijken of alle hoogrisicoalgoritmes in die lijst staan. Die bijlage bij de AI Act moeten we goed blijven controleren om te zien of die daadwerkelijk zijn werk doet.

De voorzitter:

Dank u wel. Daarmee is de motie op stuk nr. 989 ontraden.

Staatssecretaris Van Huffelen:

Dan ga ik naar de motie op stuk nr. 990.

De voorzitter:

Meneer Van Baarle, u kunt een slotvraag stellen, maar u kunt niet het debat opnieuw doen bij iedere motie-appreciatie waar u het niet mee eens bent.

Staatssecretaris Van Huffelen:

De motie op stuk nr. 990 gaat over het opzetten van modelcontracten in het kader van de transparantie van algoritmes. Ik wil deze motie ook ontraden. We willen precies dit regelen in ons implementatiekader, maar het staat ook al in een aantal andere handreikingen die we gebruiken, zoals de handreiking non-discriminatie by design, die straks ook onderdeel is van het implementatiekader. Bovendien, los van de vraag over wel of geen modelcontracten, mag discriminatie natuurlijk sowieso niet. Alle algoritmes die vandaag de dag niet voldoen aan dat antidiscriminatiekarakter, zijn al verboden.

Dan ga ik naar de motie ...

De voorzitter:

De motie op stuk nr. 990: ontraden. Dan de motie op stuk nr. 991.

Staatssecretaris Van Huffelen:

De motie op stuk nr. 991 is ook van de heer Van Baarle en mevrouw Kathmann. Die gaat ook over de AI Act en verzoekt de regering om in het implementatiekader concrete waarborgen tegen discriminatie door algoritmes op te nemen, die gelden voor zowel publieke als private instellingen, en betrekking hebben op de ontwikkel-, implementatie- en evaluatiefase. Ik denk dat het goed is om twee dingen uit elkaar te trekken. De AI-verordening zegt in feite al dat er geen discriminatie door middel van algoritmes mag plaatsvinden. Die hoogrisicoalgoritmes moeten vooraf een keurmerk hebben. Ook moet er in de implementatie- en evaluatiefase gecontroleerd blijven worden of ze geen bias hebben en niet discrimineren. Het implementatiekader dat wij zelf gebruiken, is niet hetzelfde als de AI Act, maar het is hopelijk wel zo veel mogelijk in lijn met elkaar. Wij vinden het belangrijk dat de Nederlandse overheid er, vooruitlopend op de invoering van de AI Act, zelf voor zorgt dat wij voldoen aan de vereisten. Daar zit non-discriminatie natuurlijk ook in als een belangrijk thema. Hetzelfde geldt voor een aantal andere dingen, zoals wat ik eerder al noemde over kinderrechten enzovoorts. De motie op stuk nr. 991 moet ik dan ook ontraden.

De voorzitter:

De motie op stuk nr. 991: ontraden.

Staatssecretaris Van Huffelen:

Hetzelfde geldt voor de motie op stuk nr. 992. Die verzoekt de regering uiterlijk dit jaar nog te verplichten om hoogrisicoalgoritmes te registreren in het algoritmeregister. Ik vind het natuurlijk ontzettend belangrijk dat dit register zo snel mogelijk wordt gevuld. Wij werken er hard aan om iedereen achter de broek te zitten, of het nou gaat over de rijksoverheid of over lokale overheden, om het register ook te vullen op de manier die we bedacht hebben, namelijk door aan te geven of bijvoorbeeld mensenrechtentoetsen zijn gedaan, of er een DPIA is uitgevoerd en hoe het algoritme eruitziet. Wij willen zorgen dat partijen daar zo snel mogelijk mee aan het werk gaan. Gelukkig wordt het algoritmeregister steeds verder gevuld. Voor de wettelijke verplichting is het wel van belang dat we nog een aantal keuzes gaan maken over wat er precies in het register komt. Daar gaan we mee aan de slag, maar ik probeer in eerste instantie vooral te werken op basis van de vrijwilligheid van alle partijen.

De voorzitter:

De heer Van Baarle van DENK over de motie op stuk nr. 992.

De heer Van Baarle (DENK):

Ik vraag me af waarom deze staatssecretaris zo veel op haar handen zit en zo veel afschuift op de AI Act, maar zo weinig bereid is om zelf initiatief te nemen. Ik ben die manier van werken van niet verplichten, handleidinkjes rondschuiven en doorverwijzen inmiddels wel een beetje spuugzat aan het worden, moet ik in de richting van de staatssecretaris zeggen. Als ik vraag om iets te doen aan het zeker stellen van non-discriminatie bij algoritmen die aanbesteed worden, zegt de staatssecretaris: dat gaan we in het implementatiekader doen. Als ik in een andere motie vraag om dat implementatiekader concreet te maken, zegt de staatssecretaris: ja, maar daar gaat het niet over, want dan moet het in die AI-verordening gedaan worden. We blijven dus maar naar de open deuren in de AI-verordening verwijzen. Het is een spel van verwijzen, niet verplichtend, handreikingen, waarbij ik zie dat we gewoon een staatssecretaris nodig hebben die dit een keer bij de hoorns pakt en dingen doet. Mijn oproep aan de staatssecretaris is: doe dat nou gewoon!

Staatssecretaris Van Huffelen:

Die oproep is altijd welkom, want ik doe het ook heel graag en we doen het ook. Er zijn dus twee dingen. Nummer één is dat we in de afgelopen tijd heel hard gewerkt hebben — dat heb ik niet alleen gedaan; dat hebben ook de minister van Economische Zaken en haar team gedaan — om ervoor te zorgen dat die AI-verordening en het verdrag van de Raad van Europa waarmee we nu nog aan het werk zijn, van zodanige kwaliteit zijn dat bijvoorbeeld de verschrikkelijke situaties zoals bij de Belastingdienst, niet meer kunnen voorkomen. Dat doen we namelijk door ervoor te zorgen dat hoogrisicoalgoritmes van tevoren een keurmerk moeten hebben, getoetst worden en niet discriminatoir kunnen zijn en dat dit niet alleen maar aan het begin is, maar dat we dat ook tijdens het gebruik blijven toetsen. Dat doen we juist om ervoor te zorgen dat zolang die AI-verordening nog niet van kracht is, we bij de overheid aan het werk gaan om dat te versnellen. Daarvoor geldt dat implementatiekader waarin we uitwerken dat alle overheidspartijen ervoor moeten zorgen dat zij als zij algoritmes gebruiken, of zij die nu vandaag de dag al in gebruik hebben of nieuwe ontwikkelen, in feite aan hetzelfde soort vereisten en toetsen moeten voldoen. Ik vind het juist heel erg belangrijk dat we dat doen. We zijn los daarvan al begonnen met een algoritmeregister dat nu langzaam, en liefst zo snel mogelijk, verder wordt gevuld. Dus hierbij doe ik met u een oproep aan alle partijen om dat ook zo snel mogelijk te doen. En we hebben een toezichthouder ingericht, die vervolgens ook weer op basis van de AI-verordening samen met een heleboel toezichthouders die nu eenmaal in dit domein actief zullen zijn - dat zijn dus ook Autoriteit Consument & Markt, de telecomtoezichthouder, enzovoort, enzovoort — aan het werk zijn. We zijn dus superhard aan het werk. Betekent dit dat het dan zinvol is om dingen al eerder wettelijk te regelen in Nederlands verband? Wij vinden van niet. We vinden het zinvol om vooral aan te haken op de internationale regelgeving, die een veel bredere werking heeft dan de Nederlandse wetten en regels.

De voorzitter:

Dank u wel. Daarmee blijft de motie op stuk nr. 992 ontraden. Ik kijk ook even naar de klok. U heeft aangegeven dat u om 19.00 uur weg moet en we hebben ook nog een ander tweeminutendebat waar we u ook voor nodig hebben.

Staatssecretaris Van Huffelen:

Ik ga nu echt rennen, maar de heer Van Baarle daagde me uit. Dat was het. Ik hoor hem zeggen "daar zijn we voor" en dat is ook zo.

De voorzitter:

De motie op stuk nr. 993.

Staatssecretaris Van Huffelen:

De motie op stuk nr. 993 van meneer Slootweg wil ik graag oordeel Kamer geven. Die gaat erover dat we ervoor willen zorgen dat we inzichtelijk maken hoe overheidsorganisaties persoonsgegevens en algoritmes gebruiken. Er staat wel in dat dit binnen twee jaar moet gebeuren. Het lijkt me ingewikkeld om dat allemaal te regelen, maar we gaan wel heel erg ons best doen om dat zo veel mogelijk voor elkaar te krijgen.

De voorzitter:

Ik zie de heer Slootweg knikken, dus met die toelichting krijgt de motie op stuk nr. 993 oordeel Kamer.

Staatssecretaris Van Huffelen:

De motie op stuk nr. 994 is ook van de heer Slootweg en gaat over de uitbreiding van de explicitering van de Algemene wet bestuursrecht op het gebied van de mogelijkheid voor mensen om hun positie ten opzichte van de overheid te versterken. Er wordt op dit moment door de minister van BZK en de minister voor Rechtsbescherming gewerkt aan het aanpassen van die Algemene wet bestuursrecht. Ik ga hun zeker vragen om dit mee te nemen. Ik vind het ook belangrijk dat zij daar goed naar kijken. Het wetsvoorstel is in preconsultatie, dus ik kan niet beloven dat het daar definitief in komt te staan, maar dat is wel wat we willen en om die reden zou ik die motie dan ook oordeel Kamer willen geven.

De voorzitter:

Dan noteren we bij de motie op stuk nr. 994 met die toelichting oordeel Kamer.

Staatssecretaris Van Huffelen:

Dan is er nog de motie van mevrouw Kathmann. Die verzoekt de regering om expertteams op vertrouwelijke basis inzicht te laten krijgen in een algoritme. Die motie zou ik graag oordeel Kamer willen geven. Het lijkt mij een heel goed idee om te kijken of dit mogelijk is om daarmee ook die transparantie voor algoritmes zo veel mogelijk te organiseren.

De voorzitter:

De motie op stuk nr. 995 krijgt dus oordeel Kamer. En dan waren er nog wat vragen van de VVD.

Staatssecretaris Van Huffelen:

Ja. Dat waren de vragen van de heer Rahimi. Het zijn er zo veel dat ik u een brief daarover stuur. Helaas hebben we dit in het debat allemaal niet kunnen wisselen. Ik ga sowieso ook in gesprek met de verschillende toezichthouders in het digitale domein. Sterker nog, dat had ik toegezegd en dat heb ik inmiddels gedaan, deze week zelfs. De uitkomsten daarvan worden met uw Kamer gedeeld. Ik zal daarbij ook stilstaan bij de rol van de algoritmetoezichthouder, dus de directie Coördinatie Algoritmes bij de AP.

Wat betreft de structurele inzet van auditors ten aanzien van algoritmes nog het volgende. Morgen heb ik een gesprek met NOREA, de beroepsvereniging van IT-auditors en dan zal ik dat onderwerp ook meenemen. Ik zal dat overigens ook nog aan u bevestigen in een brief.

De voorzitter:

Ik kijk heel even naar de heer Rahimi of er nog een vraag bij zat die hij echt vanavond beantwoord moet krijgen en niet in de brief.

De heer Rahimi (VVD):

Ik begrijp dat er heel veel vragen zijn. Dat is een beetje het nadeel als IT'er. Helemaal goed. Alleen, ik vraag mij af op welke termijn dit gaat gebeuren. Ik vind dat wel belangrijk om te weten.

Staatssecretaris Van Huffelen:

Zullen we proberen binnen drie weken dat te doen? Ja?

De voorzitter:

Ik zie een duim omhoog van de heer Rahimi. Dank u wel daarvoor. Dan zijn we daarmee aan het einde gekomen van dit tweeminutendebat.

De beraadslaging wordt gesloten.

De voorzitter:

Ik wil dan eigenlijk meteen door naar het volgende tweeminutendebat, want ik zie dat de sprekers van de zijde van de Kamer er al zijn en ik zie ook dat de minister van Economische Zaken al is aangeschoven

Naar boven