CXLVII Grip op algoritmische besluitvorming bij de overheid: de rol van de Eerste Kamer

Q BRIEF VAN DE STAATSSECRETARIS VAN BINNENLANDSE ZAKEN EN KONINKRIJKSRELATIES

Aan de Voorzitter van de Eerste Kamer der Staten-Generaal

Den Haag, 6 juni 2024

Graag informeer ik uw Kamer, mede namens de Minister van Economische Zaken en Klimaat, de Minister van Justitie en Veiligheid en de Minister voor Rechtsbescherming, over de voortgang en afdoening van moties en toezeggingen die raken aan het onderwerp AI en algoritmes. Omdat de moties en toezeggingen in veel gevallen met elkaar samenhangen, leek het mij overzichtelijk om dit in een verzamelbrief te doen. In de bijlage treft u een overzicht aan van alle moties en toezeggingen die ik behandel in deze brief en in hoeverre die hiermee zijn afgedaan.

AI-verordening en de Raad van Europa

Binnen de Europese Unie is er in de Raad een definitief akkoord bereikt over de AI-verordening. De verordening is na plenaire stemming in het Europees Parlement op 13 maart jl. goedgekeurd en is na definitief akkoord op 21 mei in de Telecomraad aangenomen, De AI-verordening zal belangrijke eisen stellen aan de ontwikkeling van risicovolle AI-systemen, nog voordat ze op de markt worden gebracht of in gebruik worden genomen met als doel om ervoor te zorgen dat ze veilig zijn en mensenrechten respecteren. Daarnaast zijn in maart de onderhandelingen over het AI-verdrag van de Raad van Europa afgerond. Dit verdrag verplicht verdragspartijen regels te stellen om bij de ontwikkeling en het gebruik van AI de fundamentele rechten, democratie en rechtsstaat te beschermen. In de Europese Unie wordt er invulling gegeven aan deze verdragsverplichtingen door middel van de AI-verordening. Over de voortgang op beide trajecten informeerde ik u uitgebreid in de beantwoording van schriftelijke vragen naar aanleiding van het rapport van de Autoriteit Persoonsgegevens over algoritmerisico’s.1

In het verlengde hiervan wil ik u naar aanleiding van een toezegging aan het lid Veldhoen (GroenLinks-PvdA) nader informeren over de uitvoering en publicatie van mensenrechtentoetsen bij de inzet van AI.2 In de Tweede Kamer is eveneens een motie aangenomen van de leden Bouchallikht (GroenLinks) en Dekker-Abdulaziz (D66) die het kabinet verzocht heeft om een impactassessment te verplichten voorafgaand aan het gebruik van algoritmes wanneer deze worden ingezet om evaluaties van of beslissingen over mensen te maken.3 Deze motie vraagt ook om waar mogelijk deze assessments openbaar te maken. Ik wil dit in samenhang zien met de nieuwe verplichtingen die volgen uit de AI-verordening.

Het uitvoeren van een risicoanalyse op mensenrechten en het treffen van mitigerende maatregelen bij de ontwikkeling van AI is in de AI-verordening verplicht voor aanbieders, zowel privaat als overheid. Overheidsorganisaties zullen in een rol als gebruiker een mensenrechtentoets moeten doen wanneer sprake is van een hoog risico AI-systeem.

Zoals eerder toegezegd in de verzamelbrief «algoritmes reguleren» is afgesproken om, vooruitlopend op de AI-verordening, voor alle nieuwe hoog-risico AI-systemen in de zin van de AI-verordening die binnen de Rijksoverheid worden gebruikt een mensenrechtentoets laten doen.4 Ik had, zoals gezegd naar aanleiding van de vraag van het lid Veldhoen (GroenLinks-PvdA), aangegeven om degelijke mensenrechtentoetsen te publiceren.5 Een mogelijkheid voor publicatie is al opgenomen in het algoritmeregister voor de overheid.6 Ik kom in het vervolg van deze brief nog terug op het algoritmeregister.

Tot slot is het van belang om te vermelden dat een mensenrechtentoets op dit moment ook al in het algoritmekader (voorheen: het implementatiekader) van de Nederlandse overheid opgenomen is als een maatregel die bijdraagt aan het tijdig vaststellen of wet- en regelgeving is nageleefd en of systemen in lijn zijn met publieke waarden. Een voorbeeld van een mensenrechtentoets is het Impact Assessment Mensenrechten Algoritme (IAMA). Ik moedig overheden aan om dergelijke toetsen te doen en vervolgens te publiceren in het algoritmeregister, waarin een speciaal veld is opgenomen voor dergelijke toetsen.

Ik ga nu wat verder in op dit algoritmekader, mede in relatie tot een tweetal toezeggingen van leden van Uw Kamer.

Algoritmekader

Het algoritmekader voor de overheid biedt een praktisch overzicht van de belangrijkste bestaande normen waaraan voldaan moet worden en maatregelen die daarbij kunnen helpen, bij de inzet van algoritmes en AI. Ook bevat het algoritmekader richtsnoeren en maatregelen die niet verplicht zijn, maar als handreiking dienen voor het borgen van publieke waarden. De eisen uit de AI-verordening zullen hierin nog worden opgenomen. Het algoritmekader biedt daarnaast ook een overzicht van instrumenten en hulpmiddelen die naleving van normen stimuleren.

Het is van belang om naar de bredere context te kijken waarin AI en algoritmische systemen worden ingezet en gebruikt. Dat wil zeggen dat we niet alleen moeten kijken of de techniek deugt en of AI-toepassingen en algoritmes voldoen aan wet- en regelgeving, maar dat we bij bredere overwegingen moeten stilstaan. Het IAMA is een van de instrumenten die hieraan invulling geeft, maar ook de Code Goed Digitaal Bestuur (CODIO) die in het algoritmekader wordt opgenomen.7 De CODIO identificeert de waarden waar overheidsorganisaties zich aan committeren om goed digitaal openbaar bestuur te borgen. Hiermee kom ik de toezegging aan het lid Verkerk (ChristenUnie)8 na die vraagt om cultuur en ethiek bespreekbaar te maken in de ontwikkeling van AI en/of algoritmische toepassingen.

Het algoritmekader moet het voor overheden eenvoudiger maken om aan bestaande verplichtingen te voldoen. Conform de toezegging naar aanleiding van de vraag van het lid Prins (CDA) van Uw Kamer9 is een eerste versie van dit kader in de zomer van 2023 naar beide Kamers gestuurd.10 In de volgende fase van het algoritmekader zullen de normen uit de AI-verordening worden toegevoegd. Vervolgens zal deze nieuwe versie met experts binnen en buiten de overheid worden afgestemd. Daarnaast wordt in een aantal werkgroepen gewerkt aan een voorstel voor een AI-governancemodel voor de overheid en aan voorwaarden voor de inkoop van AI en algoritmes door de overheid. Een volgende, door de overheid gedragen eindversie van het algoritmekader verwacht ik aan het einde van dit jaar gereed te hebben.

Aanvullende transparantieoplossingen en wetgeving

Het kabinet vindt het van belang dat er zoveel mogelijk transparantie is in het proces van ingebruikname en toepassing van AI en/of algoritmes. Belangrijk daarbij is dat algoritmes goed onderzocht kunnen worden. Daarvoor is transparantie over gemaakte keuzes en effecten noodzakelijk.

In aanvulling op bestaande wettelijke kaders die o.a. gaan over transparantie zoals de Algemene Wet Bestuursrecht (Awb) en de Algemene Verordening Gegevensbescherming (AVG), onderzoekt het kabinet meerdere opties. Dit mede naar aanleiding van de motie van het lid Verkerk (ChristenUnie)11 van Uw Kamer die het Kabinet vraagt te onderzoeken wat voor soort wetgeving nodig is om de democratische controle op algoritmische besluitvorming te vergroten. Ik merk daarbij op dat ook de Tweede Kamer zich met dit onderwerp bezighoudt. De toezegging aan het Lid Verkerk (ChristenUnie) wil ik in samenhang afdoen met de motie van het lid Slootweg (CDA), waarin het kabinet wordt verzocht om ervoor te zorgen dat binnen twee jaar alle overheidsorganisaties kenbaar maken welke persoonsgegevens en welke algoritmes ze hebben gebruikt bij het nemen van het besluit.12 En met de motie van het lid Van Baarle (DENK) die de regering verzoekt om de motiveringsplicht bij overheidsbesluiten zodanig aan te passen dat er bij een besluit altijd wordt aangegeven of dat is gebaseerd op een algoritme of op risicoprofilering.13

Deels wordt in de behoefte van uw Kamer en de Tweede Kamer voorzien met aanvullende wetgeving vanuit Europa, de AI-verordening. In de AI-verordening zullen publieke en private gebruikers van hoog-risico AI-systemen verplicht zijn om natuurlijke personen te informeren als het AI-systeem is gebruikt in relatie tot het nemen van een besluit over die persoon. Dat betekent dat overheden in de rol van gebruikers van AI-systemen duidelijk moeten maken of de zij AI-systemen gebruiken bij het nemen of ondersteunen van besluiten. Deels door transparantie te bieden ten aanzien van de inzet van algoritmes en AI door de overheid, via vermelding in het algoritmeregister. Hiervan is met de Tweede Kamer afgesproken dat voor zover het de Rijksoverheid betreft, ten minste alle hoog-risico algoritmes eind 2025 in het register zijn gepubliceerd.14 Dit register draagt bij aan transparantie. Aanvullend onderzoekt het kabinet de mogelijkheid om het algoritmeregister een verplicht karakter te geven. Het is van belang om dit in samenhang te doen met de AI-verordening die voorziet in een verplichting om hoog-risico AI-toepassingen te registreren in een EU-databank.

Het kabinet wil dit jaar bekijken of een verwijzing naar het algoritmeregister bij een aantal overheidsbesluiten kan worden opgenomen. Ook dit wil het kabinet bezien in samenhang met de verplichtingen die volgen uit de AI-verordening, waarin onder andere een notificatieplicht is opgenomen.

En tot slot onderzoeken de Ministeries van Justitie en Veiligheid en Binnenlandse Zaken en Koninkrijksrelaties op dit moment de mogelijkheden om de individuele transparantie van algoritmegebruik bij besluitvorming in de zin van de Algemene wet bestuursrecht (Awb) te bevorderen. Op 1 februari jl. is een internetconsultatie van start gegaan waar burgers, bedrijven, bestuursorganen, rechtspraak en wetenschap konden reflecteren op het thema algoritmen en de Awb en werden uitgenodigd een aantal specifieke vragen te beantwoorden.15 Deze internetconsultatie liep tot 30 april 2024. Op dit moment wordt verkend wat mogelijk vervolgstappen zijn.

IT vroegtijdig meenemen in wetgeving

Ik had het lid Prins (CDA) van uw Kamer in het debat over algoritmische besluitvorming toegezegd om met de Minister voor Rechtsbescherming in gesprek te gaan over de vraag hoe we ervoor kunnen zorgen dat IT vroegtijdig wordt meegenomen bij de ontwikkeling van nieuwe wet- en regelgeving.16 De toezegging aan het lid Prins kom ik na door uitvoering te geven aan de motie van het lid Veldhoen die een verzoek van vergelijkbare strekking indiende. Lid Veldhoen verzoekt de regering een nieuwe werkwijze van het wetgevingsproces te onderzoeken waarbij in geval van wetgeving die door of met behulp van algoritmen wordt uitgevoerd, de kaders voor de daaraan ten grondslag liggende codes door de wetgever zelf worden uitgeschreven en zo onderdeel zijn van de parlementaire behandeling. Ik had uw Kamer beloofd hier begin dit jaar op terug te komen.17

Het kabinet vindt het belangrijk om ervoor te zorgen dat bij nieuwe wet- en regelgeving die we maken, al in een heel vroegtijdig stadium de vertaling in de uitvoering wordt meegenomen, in dit geval de uitvoering in IT en in algoritmes. Dat we ervoor zorgen dat de mensen die de wetten maken, voldoende technologiekennis hebben om te zien wat de consequenties zijn van bepaalde keuzes die erin zitten.

Ter uitvoering van de motie Veldhoen (GroenLinks-PvdA) is voor dit nieuwe wetgevingsbeleid een handreiking opgesteld die vindbaar is via het Beleidskompas; in de onderdelen 4 en 5 van het Beleidskompas wordt ernaar verwezen.18 Uw Kamer is hierover bij brief geïnformeerd.19 De handreiking is bedoeld om een multidisciplinaire samenwerking van beleidsmakers, wetgevingsjuristen en uitvoerders te faciliteren bij het ontwikkelen van wetgeving die kan worden gecontroleerd en verantwoord kan worden uitgevoerd. Het werken met het Beleidskompas is interdepartementaal. Een hulpmiddel dat in de handreiking wordt genoemd is de werkmethode ICT-Uitvoeringsgericht wetgeven.

De ontwikkelingen rond generatieve AI

Tot slot wil ik ingaan op de recente ontwikkelingen van generatieve AI die raken aan enkele moties van uw Kamer en door mij gedane toezeggingen.

De motie Recourt (GroenLinks-PvdA) vraagt het kabinet om helder te formuleren hoe het ervoor kan zorgen dat menselijk handelen en menselijke interactie in beleid en wetgeving gewaarborgd blijven. Dit gelet op de nieuwste AI die op fundamentele wijze onze manier van samenleven en de borging daarvan door onze democratische rechtsstaat verandert. De motie vraagt het kabinet ook om hierover het maatschappelijk debat te stimuleren.20

Het kabinet constateert dat generatieve AI tot fundamentele verandering kan leiden en dat dit vraagt om proactieve stappen. In de onlangs door het kabinet gelanceerde overheidsbrede visie op generatieve AI wordt nadrukkelijk stilgestaan bij de effecten en (mogelijke) toepassing van generatieve AI binnen verschillende domeinen en sectoren van onze samenleving.21 De visie benadrukt het belang van het ondernemen van actie met het oog op de mogelijkheden en uitdagingen van deze disruptieve en kansrijke technologie. Het gaat erom generatieve AI-systemen te benutten die in lijn zijn met onze waarden. Het kabinet heeft als voorlopig standpunt ingenomen dat het gebruik van generatieve AI wordt toegestaan, zolang deze voldoet aan geldende wet- en regelgeving.22

Het kabinet gaat de maatschappelijke dialoog hierover verder stimuleren, waarbij de vraag centraal staat in hoeverre de mens controle heeft over AI. Dit doen wij samen met het Platform voor de Informatiesamenleving (ECP). Het ECP heeft eerder al een aantal maatschappelijke dialogen gevoerd over specifieke AI en/of algoritmische toepassingen en de rol van menselijke interactie daarin en zal nog vier van deze bijeenkomsten organiseren. Het ECP sluit deze vier dialogen af met een kwartaalevenement waarbij de uitkomsten van de vier sessies breder worden gedeeld. Ook met deze actie komt het kabinet de toezegging na aan het lid Verkerk (ChristenUnie) om cultuur en ethiek bespreekbaar te maken binnen de overheid. Hiermee beschouw ik de motie Recourt (GroenLinks-PvdA) als afgedaan.

AI is een systeemtechnologie met mogelijk een grote impact op alle domeinen en sectoren van onze samenleving. Op dit moment verken ik de mogelijkheden van een jaarlijkse AI-monitor, waarvan de uitkomsten aan uw Kamer kunnen worden verzonden. Hiermee kom ik tegemoet aan mijn toezegging aan het lid De Blécourt-Wouterse (VVD), om jaarlijks aan de hand van de werkagenda met de Kamer te spreken over de laatste AI-ontwikkelingen.23

De Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties, Digitalisering en Koninkrijksrelaties, A.C. van Huffelen


X Noot
1

Kamerstukken I 2023–24, 26 643, E

X Noot
2

Handelingen I 2022–2023, nr. 23, item 9 – blz. 27, T03667

X Noot
3

Kamerstukken II 2021–22, 26 643 nr. 835

X Noot
4

Tweede Kamer, vergaderjaar 2023–2024, 26 643, nr. 1110 en Kamerstuk 36 360 VI, nr. 14.

X Noot
5

Handelingen I 2022–2023, nr. 23, item 9 – blz. 27, T03667

X Noot
6

Als het gaat om het openbaar maken van een mensenrechtentoets (zoals een IAMA – Impact Assessment Mensenrechten Algoritmes) kan deze mogelijkheid begrensd worden door wettelijke of gerechtvaardigde uitzonderingen bij bijvoorbeeld opsporing, (rechts)handhaving, defensie of inlichtingenverzameling. Dit kan betekenen dat de uitkomsten van deze mensenrechtentoets niet of slechts gedeeltelijk gepubliceerd kunnen worden.

X Noot
8

Handelingen I 2022–2023, nr. 23, item 9 – blz. 45, T03661

X Noot
9

Handelingen I 2022–2023, nr. 23, item 9 – blz. 10, T03664

X Noot
10

Zie voetnoot 3 en 4.

X Noot
11

Kamerstukken I, 2022–23, CXLVII, H 2

X Noot
12

Kamerstukken II 2022/23, 26 643, nr. 993

X Noot
13

Kamerstukken II 2022/23, 29 279, nr. 760

X Noot
14

Kamerstukken II 2022/23, 26 643, nr. 1056.

X Noot
16

Plenair debat Grip op algoritmische besluitvorming bij de overheid (CXLVII) – Eerste Kamer der Staten-Generaal d.d. 21 maart 2023 (Handeling I 2022/23, nr. 23, item 9)

X Noot
19

Kamerstukken I, 2023–24, CXLVII, P

X Noot
20

Kamerstukken I, 2022–2023, CXLVII, D

X Noot
22

Kamerstukken II, 2023–24, 26 643, nr. 1125

X Noot
23

Handelingen I 2022–2023, nr. 23, item 9 – blz. 12, T03666

Naar boven