Vragen van het lid Ergin (DENK) aan de Staatssecretaris van Binnenlandse Zaken en
Koninkrijksrelaties over het gebruik van AI-systemen door de overheid en de risico’s
daarvan waar niet naar wordt gekeken (ingezonden 30 oktober 2024).
Vraag 1
Bent u bekend met het bericht van de NOS getiteld «Overheid maakt volop gebruik van
AI, maar kijkt vaak niet naar risico’s»?1
Vraag 2
Hoe beoordeelt u het feit dat bij meer dan de helft van de systemen die gebruikmaken
van kunstmatige intelligentie (AI) binnen de overheid geen gedegen risicoanalyse wordt
uitgevoerd, zoals blijkt uit het onderzoek van de Algemene Rekenkamer (ARK)?
Vraag 3
Welke stappen neemt u om ervoor te zorgen dat alle overheidsinstanties de risico's
van AI-gebruik adequaat in kaart brengen volgens de geldende wet- en regelgeving,
met bijzondere aandacht voor mensenrechten en privacy?
Vraag 4
Kunt u uitleggen waarom slechts vijf procent van de AI-systemen is opgenomen in het
openbare algoritmeregister, terwijl dit register juist werd opgezet naar aanleiding
van de Toeslagenmisdaad? Zo nee, waarom niet?
Vraag 5
Hoe gaat u ervoor zorgen dat alle hoogrisico-AI-systemen voor de deadline van 2026
in het register zijn opgenomen, zoals vereist door Europese regelgeving?
Vraag 6
Welke maatregelen neemt u, gezien de Toeslagenmisdaad en de waarschuwing van de ARK
over mogelijke discriminatie door AI-systemen, om te garanderen dat AI-systemen van
bijvoorbeeld de Belastingdienst en het Uitvoeringsinstituut Werknemersverzekeringen
(UWV) voldoen aan de vereisten van nauwkeurigheid en non-discriminatie?
Vraag 7
Deelt u de zorg van de ARK dat er een prikkel bestaat om AI-systemen niet als hoogrisico
in te schatten, zodat men niet hoeft te voldoen de strengere Europese regelgeving?
Vraag 8
Hoe wordt bij de inzet van AI-toepassingen, zoals de inzet van robothonden voor celinspecties
bij de Dienst Justitiële Inrichtingen (DJI), gewaarborgd dat de privacy en rechten
van gedetineerden worden beschermd en worden er risicoanalyses uitgevoerd?
Vraag 9
Hoe wordt ervoor gezorgd dat er een duidelijke standaard is voor het testen en monitoren
van AI-systemen, met betrekking tot nauwkeurigheid en non-discriminatie, gezien het
groeiende gebruik van AI in overheidsdiensten?
Vraag 10
Bent u bereid om extra toezicht of huidige controlemechanismen in te stellen om ervoor
te zorgen dat AI-systemen niet alleen efficiënt werken, maar ook rechtvaardig en veilig
zijn voor burgers?
Vraag 11
Welke stappen gaat u ondernemen om in de toekomst getroffen burgers snel en rechtvaardig
te compenseren wanneer de overheid discriminerende beslissingen heeft genomen door
het gebruik van AI-systemen?
Vraag 12
Is er op dit moment een procedure ontwikkeld om burgers die zijn benadeeld door discriminerende
AI-beslissingen actief te helpen bij het herstellen van hun rechten?
Vraag 13
Bent u bereid meer transparantie te bieden over welke AI-systemen in het algoritmeregister
als hoogrisico worden ingeschat, specifiek met betrekking tot het risico op discriminatie?
Vraag 14
Op welke manieren kunnen burgers worden geïnformeerd over de specifieke risico's van
deze AI-systemen en hoe zij zich hiertegen kunnen beschermen?
Vraag 15
Welke maatregelen gaat u nemen om ervoor te zorgen dat burgers, en met name kwetsbare
groepen, worden beschermd tegen discriminerende algoritmes die door de overheid worden
ingezet, zoals aangegeven door de ARK?
Vraag 16
Hoe zorgt u ervoor dat AI-systemen, zoals die van het UWV en de Belastingdienst, die
direct van invloed zijn op burgers, niet leiden tot discriminerende keuzes of ongelijke
behandeling op grond van etniciteit of nationaliteit?
Vraag 17
Hoe wordt voorkomen dat AI-systemen, zoals die in het algoritmeregister, onrechtmatige
beslissingen nemen die burgers onterecht benadelen en schade toebrengen?
X Noot
1NOS, 16 oktober 2024, «Overheid maakt volop gebruik van AI, maar kijkt vaak niet naar
risico's» (nos.nl/artikel/2540979-overheid-maakt-volop-gebruik-van-ai-maar-kijkt-vaak-niet-naar-risico-s).