Kamerstuk
Datum publicatie | Organisatie | Vergaderjaar | Dossier- en ondernummer |
---|---|---|---|
Tweede Kamer der Staten-Generaal | 2021-2022 | 26643 nr. 800 |
Zoals vergunningen, bouwplannen en lokale regelgeving.
Adressen en contactpersonen van overheidsorganisaties.
U bent hier:
Datum publicatie | Organisatie | Vergaderjaar | Dossier- en ondernummer |
---|---|---|---|
Tweede Kamer der Staten-Generaal | 2021-2022 | 26643 nr. 800 |
Aan de Voorzitter van de Tweede Kamer der Staten-Generaal
Den Haag, 26 november 2021
In het Commissiedebat Telecomraad van 24 november jl. vroeg het lid Van Ginneken (D66) of er in de concept-verordening AI vanuit de Europese Commissie geen verplichte mensenrechtentoets moet komen voor AI-systemen of algoritmische systemen. Tevens werd gevraagd of de overheid niet nu al een verplichte mensenrechtentoets moet uitvoeren voordat een AI-systeem of algoritme wordt ingezet. De Minister van Economische Zaken en Klimaat gaf aan hier schriftelijk op terug te komen en bovendien te bezien in hoeverre de mensenrechtentoets bij hoog risico AI-systemen al geborgd zou zijn in de huidige concept-verordening AI. Vanwege mijn verantwoordelijkheid voor het borgen van mensenrechten bied ik u dit antwoord aan.
Met mevrouw Van Ginneken deel ik het belang om de grondrechten te beschermen bij de inzet van AI en algoritmen. In de eerste plaats betekent het dat wetgeving de gebruikers van AI-systemen, bijvoorbeeld de overheid, reguleert en dat hun handelen binnen de kaders van de Grondwet gebeurt. Overheidshandelen heeft een basis nodig in wetgeving. Er gelden verder nationaal al veel regels die bijdragen aan het beschermen van grondrechten, ook bij het gebruik van AI, zoals de Algemene Wet Gelijke Behandeling en het gegevensbeschermingsrecht. Als een verwerking van persoonsgegevens een hoog risico voor de fundamentele vrijheden kan hebben, moet een verplichte Data Protection impact Assessment (DPIA) worden uitgevoerd. De DPIA beperkt zich niet alleen tot privacy als belangrijk grondrecht, maar ziet ook op non-discriminatie.
In de tweede plaats moet de technologie zelf op een behoorlijke manier werken, zodat mensenrechtenschendingen niet door die technologie mogelijk worden gemaakt. In elke fase van de levenscyclus (ontwerpen, bouwen, testen, gebruiken en monitoren) van AI-systemen moet daarom aandacht zijn voor de grondrechten. De conceptverordening AI biedt daartoe mogelijkheden: het bevat eisen die aan hoog risicosystemen worden gesteld die bijdragen aan de bescherming van grondrechten. Zo moet de data op orde zijn om schendingen van privacy en discriminatie te voorkomen, moet de technologie te begrijpen zijn om transparantie te stimuleren, en is er een verplichting om met een ex ante conformiteitsbeoordeling van tevoren te kijken of aan deze eisen is voldaan.
Ook de tijdelijke AI-commissie van de Raad van Europa (CAHAI), die werkt aan een juridisch raamwerk voor AI, onderzoekt of een impact assessment bij AI-systemen kan bijdragen aan de bescherming van grondrechten. Nederland draagt hier actief aan bij.
Naast deze waarborgen heeft het kabinet – ter ondersteuning van de bescherming van mensenrechten bij de inzet van algoritmen – een aantal instrumenten ontwikkeld, die gebaseerd is op bestaande wettelijke verplichtingen en ontwerpers moet helpen. Zo heeft het Ministerie van BZK het Impact Assessment Mensenrechten Algoritmen ontwikkeld. Ook de Handreiking non-discriminatie by design van het Ministerie van BZK en de Richtlijnen voor het gebruik van algoritmen door overheden van het Ministerie van JenV dragen hieraan bij. Het gebruik hiervan is vooralsnog op vrijwillige basis, maar de opgedane ervaringen worden gebruikt bij het vormgeven van het (internationale) wettelijke kader. Ook is er actieve inzet om de toepassing van deze instrumenten te bevorderen.1 Het kabinet wil er voor waken dat er nieuwe instrumenten worden ontwikkeld terwijl van verschillende bestaande instrumenten nog gekeken wordt hoe deze – in samenhang met elkaar – zo effectief en proportioneel mogelijk (kunnen) bijdragen aan de bescherming van mensenrechten.
Tot slot wil ik noemen dat het kabinet binnenkort een reactie stuurt op de aanbevelingen die Amnesty International doet in haar rapport «Xenofobe machines – Discriminatie door ongereguleerd gebruik van algoritmen in het Nederlandse toeslagenschandaal». Een van de aanbevelingen is het invoeren van een verplichte mensenrechtentoets.
Het voorstel van mevrouw Van Ginneken kan op mijn sympathie rekenen. Ik vind het belangrijk dat de mensenrechten ook bij de inzet van AI en algoritmen goed worden beschermd. Door de risico’s van AI en algoritmen te beperken, kunnen de maatschappelijke en economische kansen van AI en algoritmen worden benut.
Alle genoemde ontwikkelingen – nationaal en internationaal – beschouw ik graag in samenhang om te beoordelen of dit pakket mogelijk al in voldoende bescherming voorziet alvorens te beslissen over nut en noodzaak van aanvullende verplichtingen. Ik zal u hierover nader informeren.
De Minister van Binnenlandse Zaken en Koninkrijksrelaties, K.H. Ollongren
Ter uitvoering van de motie van het lid Van Baarle c.s. (Kamerstuk 35 925 VII, nr. 39) wordt de bekendheid van deze handreiking bij en de implementatie ervan door overheden onderzocht.
Kopieer de link naar uw clipboard
https://zoek.officielebekendmakingen.nl/kst-26643-800.html
De hier aangeboden pdf-bestanden van het Staatsblad, Staatscourant, Tractatenblad, provinciaal blad, gemeenteblad, waterschapsblad en blad gemeenschappelijke regeling vormen de formele bekendmakingen in de zin van de Bekendmakingswet en de Rijkswet goedkeuring en bekendmaking verdragen voor zover ze na 1 juli 2009 zijn uitgegeven. Voor pdf-publicaties van vóór deze datum geldt dat alleen de in papieren vorm uitgegeven bladen formele status hebben; de hier aangeboden elektronische versies daarvan worden bij wijze van service aangeboden.