CXLVII Grip op algoritmische besluitvorming bij de overheid: de rol van de Eerste Kamer

B GRIP OP ALGORITMISCHE BESLUITVORMING BIJ DE OVERHEID: DE ROL VAN DE EERSTE KAMER

Vastgesteld 17 februari 2023

In september 2020 richtte de vaste commissie voor Justitie en Veiligheid1 de Eerste Kamerwerkgroep «Toepassing en toezicht artificiële intelligentie door de Nederlandse overheden, overheidsdiensten en bedrijven» op. De werkgroep zag de toenemende rol die algoritmes spelen bij de besluiten die de overheid neemt en wilde grip krijgen op de rol die de Eerste Kamer kan vervullen om deze technologische en bestuurlijke ontwikkeling in goede banen te leiden. Daarom startte de werkgroep een verdiepingstraject over artificiële intelligentie (AI) en algoritmische besluitvorming.

De werkgroep is in dit traject mede ondersteund door het Rathenau Instituut, dat de notitie «Grip op algoritmische besluitvorming bij de overheid; De rol van de Eerste Kamer» heeft opgesteld. Na afloop van verdiepingsbijeenkomsten met deskundigen heeft het Rathenau Instituut de resultaten van de bijeenkomsten in een afsluitende notitie verzameld en daaraan een eigen reflectie toegevoegd.

Naar aanleiding hiervan is op 5 oktober 2022 een brief gestuurd aan de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties.

De Staatssecretaris heeft op 16 februari 2023 gereageerd.

De commissie brengt bijgaand verslag uit van het gevoerde schriftelijk overleg.

De griffier van de vaste commissie voor Justitie en Veiligheid, Van Dooren

BRIEF VAN DE VOORZITTER VAN DE VASTE COMMISSIE VOOR JUSTITIE EN VEILIGHEID

Aan de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties

Den Haag, 5 oktober 2022

In september 2020 richtte de vaste commissie voor Justitie en Veiligheid (J&V) de Eerste Kamerwerkgroep «Toepassing en toezicht artificiële intelligentie door de Nederlandse overheden, overheidsdiensten en bedrijven» op. De werkgroep zag de toenemende rol die algoritmes spelen bij de besluiten die de overheid neemt en wilde grip krijgen op de rol die de Eerste Kamer kan vervullen om deze technologische en bestuurlijke ontwikkeling in goede banen te leiden. Daarom startte de werkgroep een verdiepingstraject over artificiële intelligentie (AI) en algoritmische besluitvorming.

De werkgroep is in dit traject mede ondersteund door het Rathenau Instituut. Ter ondersteuning van de verkenning van de werkgroep heeft het Rathenau Instituut bijgevoegde notitie «Grip op algoritmische besluitvorming bij de overheid; De rol van de Eerste Kamer» opgesteld.2 De notitie geeft een beknopt overzicht van de zorgen over algoritmische besluitvorming bij de overheid, lopende beleidsinitiatieven in de periode 2018–2020 en mogelijke onderwerpen voor de verdiepingsbijeenkomsten met deskundigen. De leidende vraag voor deze bijeenkomsten was: waar liggen mogelijkheden voor de Eerste Kamer, gezien haar controlerende en wetgevende taak?

Inmiddels hebben de bijeenkomsten plaatsgevonden en beraadt de werkgroep zich op vervolgstappen. Ter ondersteuning van deze fase heeft het Rathenau Instituut de resultaten van de bijeenkomsten in bijgevoegde afsluitende notitie verzameld en daaraan een eigen reflectie toegevoegd.3 Deze notitie en de eerder genoemde notitie «Grip op algoritmische besluitvorming bij de overheid» zijn als afronding van de gehouden verdiepingsbijeenkomsten voorgelegd aan de commissie J&V, die de werkgroep heeft opgericht.

De leden van de commissie J&V hebben in haar commissievergadering van 4 oktober 2022 over de notities en het vervolgproces beraadslaagd en wensen, op voorstel van de werkgroep, met u in overleg te treden over de vraag hoe de Eerste Kamer meer grip kan krijgen op AI en algoritmische besluitvorming bij de overheid, in het bijzonder wanneer de grondrechten en mensenrechten van burgers in het geding zijn. Naar aanleiding daarvan hebben zij de volgende vragen voor u:

Hoe verhouden de twee notities van het Rathenau Instituut zich tot bestaand kabinetsbeleid en voorgenomen beleid, zowel in nationaal als in internationaal verband (Europese Unie en Raad van Europa)? In hoeverre draagt het beleid bij aan het borgen van de mogelijkheid van de Eerste Kamer om haar wetgevende en controlerende taak wezenlijk invulling te kunnen geven wanneer sprake is van algoritmische besluitvorming? Hoe draagt het beleid bij aan de borging van grond- en mensenrechten van burgers en in hoeverre onderkent u «witte vlekken» of mogelijkheden om het beleid aan te passen?

Ter voorbereiding op een plenair debat over artificiële intelligentie en algoritmische besluitvorming bij de overheid, dat de commissie de Kamer voorstelt te houden in januari 2023, zien de leden van de vaste commissie voor Justitie en Veiligheid uw reactie bij voorkeur uiterlijk 15 december 2022 met belangstelling tegemoet.

Voorzitter van de vaste commissie voor Justitie en Veiligheid, M.M. de Boer

BRIEF VAN DE STAATSSECRETARIS VAN BINNENLANDSE ZAKEN EN KONINKRIJKSRELATIES

Aan de Voorzitter van de Eerste Kamer der Staten-Generaal

Den Haag, 16 februari 2023

Met belangstelling nam ik kennis van de uitkomsten uit het verdiepingstraject over artificiële intelligentie en algoritmische besluitvorming bij de overheid van de werkgroep AI van de vaste Commissie voor Justitie en Veiligheid van uw Kamer. Mijn waardering gaat ook uit naar de ondersteunende rol die het Rathenau Instituut hierin heeft gespeeld. Het verheugt mij dat de Eerste Kamer aandacht heeft voor dit belangrijke onderwerp en handelingsopties voor haarzelf heeft onderzocht om haar controlerende en wetgevende taak ook in relatie tot algoritmische overheidsbesluitvorming goed te kunnen vervullen.

Eén van de opgaven uit mijn Werkagenda Waardengedreven Digitaliseren (hierna: werkagenda) is het reguleren van algoritmen.4 Ik richt me daar vooral op impactvolle AI en overheidsalgoritmen waarbij sprake is van een verhoogd risico op schending van mensenrechten. Het is belangrijk AI en overheidsalgoritmen in te zetten op basis van heldere wettelijke kaders en principiële waarden (zoals het respecteren AVG, non-discriminatie, regie van burger). Langs deze weg worden ook kansen gecreëerd; denk bijvoorbeeld aan het gebruik van algoritmen om mensen de helpende hand te bieden. Daarbij merk ik wel op dat we niet voor elk probleem direct naar AI of algoritmische oplossingen moeten kijken, maar dat het belangrijk is om hier een politieke en ethische discussie over te voeren.

De Commissie heeft me gevraagd om te reflecteren op de volgende vragen:

  • Hoe verhouden de twee notities van het Rathenau Instituut zich tot bestaand kabinetsbeleid en voorgenomen beleid, zowel in nationaal als in internationaal verband (Europese Unie en Raad van Europa)?

  • In hoeverre draagt het beleid bij aan het borgen van de mogelijkheid van de Eerste Kamer om haar wetgevende en controlerende taak wezenlijk invulling te kunnen geven wanneer sprake is van algoritmische besluitvorming?

  • Hoe draagt het beleid bij aan de borging van grond- en mensenrechten van burgers en in hoeverre onderkent u «witte vlekken» of mogelijkheden om het beleid aan te passen?

Om op uw eerste vraag in te gaan: de twee notities van het Rathenau Instituut bevatten handelingsopties die goed passen bij de richting van het kabinetsbeleid. In de werkagenda ligt de nadruk op de voorgenomen acties en maatregelen voor een groot deel in het verlengde van de door de Commissie gesignaleerde knelpunten en aangedragen handelingsopties.

In antwoord op uw tweede vraag, verwacht ik dat veel van acties uit de werkagenda een bijdrage leveren aan een goede uitvoering van uw controlerende en wetgevende taken. Denk bijvoorbeeld aan (gedeeltelijke) publicaties van assessments, vindbaarheid en kenbaarheid van algoritmen in een register, of een periodiek evaluatiedocument waarmee het in de wetgeving voorgestelde besluitvormingsproces en de AI-toepassingen van overheden bevraagd kunnen worden. De agenda bevat ook acties die erop gericht zijn om bij het opstellen van wet- en regelgeving al vroegtijdig aandacht te hebben voor de digitale uitvoering daarvan.

Of er nog «witte vlekken» zijn, in antwoord op uw derde vraag, vind ik nog te vroeg om te zeggen. Wat ik wel weet is dat er al heel veel gebeurt om AI en algoritmen in goede banen te leiden en om te voorkomen dat we er te laat achter komen dat het ergens mis is gegaan. Met Europese wetgeving, verduidelijking van kaders, het vergroten van transparantie en het uitbreiden van toezicht willen we de grip meer aan de voorkant – bij de ontwikkeling en nog voor het gebruik van AI en algoritmen- versterken. Ik houd de vinger aan de pols of de verschillende oplossingen afdoende zijn.

Ik ga nu in op de verschillende handelingsopties die de Commissie heeft opgesteld, en waar mogelijk leg ik daarbij de relatie met bestaand en voorgenomen beleid.

Handelingsoptie: Wettelijke verankering – Verplicht de uitvoering van, en rapportage over, een Algoritme Impact assessment

De Tweede Kamer heeft het kabinet verzocht om een mensenrechten impactassessment voor algoritmen te verplichten voorafgaand aan het gebruik van algoritmen wanneer algoritmen worden ingezet om evaluaties van of beslissingen over mensen te maken. De Tweede Kamer verzocht ook waar mogelijk deze impactassessments openbaar te maken.5 Ik onderschrijf de wenselijkheid van deze verplichting en ik ga na op welke manier een rapportage over de uitkomsten van een impactassessment vorm kan krijgen. Ik licht dit hieronder toe.

Het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties heeft het impact assessment voor mensenrechten bij de inzet van algoritmen (IAMA) laten ontwikkelen om, voor ingebruikname van een algoritme, in kaart te brengen welke risico’s voor mensenrechten dat eventueel oplevert, en deze risico’s ook te mitigeren.6 Het Ministerie van Infrastructuur en Milieu heeft een AI impact assessment laten ontwikkelen die naast de mensenrechten ook veel nadruk legt op de technische robuustheid van AI.7 Het verplichten van het uitvoeren van een impactassessment (zoals bijv. het IAMA, of andere vergelijkbare assessments) en het openbaar maken van de uitkomsten daarvan moet in samenhang worden gezien met al bestaande verplichtingen (zoals de gegevensbeschermingseffectbeoordeling (GEB) van de Algemene Verordening Gegevensbescherming, Wet Politiegegegevens (Wpg) en met de verplichtingen die zullen voortvloeien uit de Europese wetgeving, zoals de aanstaande AI-verordening.

Specifiek voor AI-systemen met een hoog risico voor fundamentele rechten, de gezondheid en veiligheid is een Europese AI-verordening in voorbereiding die met name de ontwikkeling van deze systemen reguleert. De AI-verordening verplicht onder andere een risicoanalyse bij hoog-risico AI-systemen en een technische beoordeling waarmee fundamentele rechten moeten worden beschermd. In de Raadstekst van de AI-verordening is de bescherming van fundamentele rechten verstevigd door de verplichting om mogelijke risico’s ten aanzien van fundamentele rechten (naast veiligheid en gezondheid) in de verplichte risicoanalyse voor elk hoog-risico AI-systeem expliciet mee te nemen. Bovendien moet voor hoog-risico AI-systemen een beoordeling worden gedaan van onder andere de kwaliteit van de data om bijvoorbeeld discriminatie te voorkomen. Het kabinet vindt het belangrijk dat de risico’s voor mensenrechten bij de inzet van AI vooraf wordt beoordeeld, en zal zich hier dan ook voor blijven inzetten in Europa.8 Dat een dergelijke risicoanalyse heeft plaatsgehad moet openbaar worden gemaakt in een EU-databank. De uitkomsten van een risicoanalyse zijn inzichtelijk voor toezichthouders.

Totdat de definitieve tekst van de AI-verordening is vastgesteld, zet ik in op het stimuleren en zoveel mogelijk inbedden van mensenrechtentoetsen in werkprocessen en cultuur. Er worden mensenrechtentoetsen gedaan, maar ik heb geen exact beeld van het gebruik. Daarom werk ik aan het implementatiekader «inzet van algoritmen» dat kan helpen bij het borgen van een verantwoorde inzet van algoritmen door overheden. Een eerste door overheidsorganisaties gedragen voorstel is halverwege dit jaar gereed. Het is belangrijk dat voor overheden duidelijk is aan welke eisen ze moeten voldoen, wat van ze verwacht wordt en hoe ze aan eisen kunnen voldoen. Een mensenrechtentoets wordt onderdeel van dit implementatiekader. In het algoritmeregister kan de samenleving minimaal zien dat een mensenrechtentoets heeft plaatsgehad. Ik wil nog bezien of alle uitkomsten van zo’n toets gepubliceerd moeten worden, of alleen toezichthouders de beschikking daarover krijgen; vergelijkbaar met de opzet van de EU-databank.

Handelingsoptie: Wettelijke verankering – Stel wettelijke eisen aan uitlegbaarheid

Er bestaan al kaders die de algoritmische besluitvorming bij de overheid reguleren die onder meer zijn neergelegd in verschillende rechtsgebieden, in het bijzonder noem ik hier het gegevensbeschermingsrecht (bijv. de AVG) en de Algemene Wet Bestuursrecht (Awb) die regels bevatten waar bestuursorganen aan moeten voldoen bij het nemen van besluiten. Deze regels stellen al eisen aan de motivering van besluiten (artikel 3:46 Awb). Het motiveringsbeginsel houdt kortgezegd in dat moet worden uitgelegd waarom de feiten en omstandigheden hebben geleid tot een bepaald besluit (uitlegbaarheid). Daarvoor moet uiteraard ook duidelijk zijn op welke feiten en regels een bestuursorgaan zich baseert. Dat is niet anders als er een algoritme is ingezet bij de totstandkoming van een besluit. Het uitgangspunt is dat overheidsorganisaties in beginsel geen algoritmen hanteren die te complex of te ondoorzichtig zijn om redelijkerwijs te kunnen worden uitgelegd (zogenoemde black box algoritmen). in elk geval niet indien het gebruik van algoritmen rechtsgevolgen of een aanmerkelijke impact heeft op burgers, bedrijven of (groepen in) de samenleving. Dit uitgangspunt is neergelegd in de richtlijnen voor het gebruik van algoritmen door overheden.9 Naast de mensenrechten en de algemene beginselen van behoorlijk bestuur kan in het bijzonder ook worden gewezen op de AVG, die de verwerking van persoonsgegevens normeert.

Ik omarm daarnaast de aanbeveling van de Raad van State om zo transparant, consistent en controleerbaar mogelijk te zijn bij de geautomatiseerde uitvoering van wet- en regelgeving.10 In de werkagenda is daarom een aantal acties genoemd om te komen tot meer uitlegbaarheid en transparantie rondom de inzet van algoritmen.11 In december vorig jaar is een algoritmeregister gelanceerd, waarin begrijpelijke informatie wordt opgenomen over ten minste hoog risico algoritmes. Dit register wordt in samenhang bezien met de Europese database, waarin leveranciers van hoog risico AI-systemen en overheden die deze gebruiken op grond van de Europese AI-verordening informatie moeten opnemen. Een brief over het algoritmeregister is voor het reces naar de Tweede Kamer gestuurd.12 Ook wil het kabinet zo veel mogelijk transparant maken welke algoritmen en onderliggende «regels» gebruikt worden binnen de overheid.13 Met regels wordt hier niet de wetgeving bedoeld, maar de stappen die worden gezet en de keuzes die worden gemaakt om van wet- en regelgeving naar uitvoering te komen. Als het gaat om transparantie van algoritmen en deze regels kunnen veiligheid, «gaming the system» of opsporingsbelangen redenen zijn om niet (volledig) openbaar te zijn.

Daarnaast is een wijziging van de Awb in voorbereiding. Het doel van de wijziging is om het waarborgkarakter van de Awb te versterken. Burgers en bedrijven krijgen een aanspraak op het herstel van kennelijke schrijffouten, rekenfouten of andere kennelijke fouten die zich voor eenvoudig herstel lenen. Verder wordt persoonlijk contact met de overheid bevorderd. Ook wordt de motiveringsplicht aangepast en wordt de positie van burgers in procedures voor de bestuursrechter versterkt. Ten slotte wordt een nieuw beginsel in de Awb gezet waarin tot uitdrukking komt dat de overheid zich dienstbaar moet opstellen en goed moet communiceren met burgers en bedrijven. Inmiddels is een zogenoemde pre-consultatie gestart over het wetsvoorstel.14 Het kabinet heeft in de pre-consultatie ook een vraag gesteld over algoritmische besluitvorming en hoe daarover wordt gecommuniceerd, teneinde meer zicht te krijgen op de huidige praktijk. De informatie die zo wordt opgehaald, kan worden gebruikt bij verdere gedachtenvorming over een eventuele aanvullende wettelijke uitlegverplichting.

Tot slot is het relevant om op te merken dat er ook vanuit andere rechtsgebieden verplichtingen zijn ten aanzien van uitlegbaarheid. Denk bijvoorbeeld aan het strafrecht.

Handelingsoptie: Wettelijke verankering – Stel een verbod in om bepaalde AI-besluiten te nemen zonder menselijke tussenkomst

Het uitgangspunt van het kabinet is dat de inzet van algoritmische systemen met mogelijke rechtsgevolgen uitlegbaar moeten zijn. Maar er zijn situaties waarbij menselijke tussenkomst niet noodzakelijk is, of iets toevoegt.

De Algemene verordening gegevensbescherming (AVG) en de bijbehorende Uitvoeringswet AVG (UAVG) bieden het kader voor keuzes over de inzet van geautomatiseerde besluitvorming waarbij (bijzondere) persoonsgegevens worden verwerkt. Op grond van artikel 22 AVG is uitsluitend geautomatiseerde besluitvorming verboden als het besluit rechtsgevolgen heeft voor de betrokkene of het de betrokkene anderszins in aanmerkelijke mate treft. Op dit verbod bestaat een aantal uitzonderingen. Artikel 40 UAVG bepaalt dat geautomatiseerde individuele besluitvorming wel is toegestaan als dit niet gebeurt op basis van profilering en dit noodzakelijk is vanwege een wettelijke verplichting, of noodzakelijk is voor de vervulling van een taak van algemeen belang. Het gaat bijvoorbeeld om geautomatiseerde afhandeling van massale, simpele gebonden beschikkingen, waarbij menselijke tussenkomst van weinig meerwaarde zou zijn, of anders tot onnodige vertraging kan leiden.

Voor geheel of gedeeltelijke geautomatiseerde besluitvorming zijn ook de Algemene wet bestuursrecht (Awb) en de algemene beginselen van behoorlijk bestuur van belang. Hier kan het motiveringsbeginsel worden genoemd. Dat dwingt bestuursorganen om uit te leggen waarom de feiten en omstandigheden hebben geleid tot een bepaald besluit. Het bestuursorgaan kan daarbij niet zomaar verwijzen naar het algoritme en het daarbij laten. Als deze uitleg niet mogelijk is, dan is de inzet van geautomatiseerde besluitvorming niet gepast. Een ander in dit kader relevant beginsel is het evenredigheidsbeginsel (artikel 3:4, tweede lid, Awb). Dat dwingt bestuursorganen om geen besluiten te nemen die onevenredige gevolgen hebben voor de betrokkenen. Als het bestuursorgaan hiervoor niet kan instaan, dan moet worden afgewogen of menselijke betrokkenheid gepast is.

Er is in feite al een regulerend kader voor de inzet van algoritmische besluitvorming.15 De Grondwet en de fundamentele mensenrechten vereisen dat een inbreuk op een recht alleen is toegelaten indien dit wettelijk is geregeld en noodzakelijk en proportioneel is. Daarnaast stelt het bestuursrecht regels aan besluitvorming, zoals de motivering ervan en hoor en wederhoor. Privacy- en gegevensbeschermingswetgeving (waaronder de Algemene Verordening Gegevensbescherming (AVG)/Wet politiegegevens (Wpg)) stelt regels aan het gebruik van persoonsgegevens en geautomatiseerde besluitvorming met behulp van persoonsgegevens. Het non-discriminatierecht verbiedt het maken van een (ongerechtvaardigd) onderscheid tussen mensen.

Het moet vanzelfsprekend zijn dat de overheid volgens deze juridische kaders werkt, ook bij het gebruik van algoritmen. In elke fase van de levenscyclus van algoritmische besluitvormingssystemen (ontwerpen, bouwen, testen, gebruiken en monitoren) moet aandacht zijn voor de risico’s voor mensenrechten.

Om deze wettelijke verplichtingen handvatten te geven en overheidsorganisaties te ondersteunen bij de naleving hiervan wordt er gewerkt aan het eerdergenoemde implementatiekader en het algoritmeregister waar in ieder geval hoog risico algoritmen16 in worden opgenomen.17

Het implementatiekader en het algoritmeregister kunnen mogelijkerwijs bijdragen bij het beoordelen of in specifieke situaties daadwerkelijk sprake is van betekenisvolle menselijke tussenkomst en hoe weging van de kansen en risico’s heeft plaatsgevonden.

De aanstaande AI-verordening is in belangrijke mate van toepassing op algoritmische besluitvormingssystemen bij de overheid: het verbiedt een aantal AI-toepassingen die onaanvaardbare risico’s voor onder meer fundamentele rechten met zich meebrengen en voor AI-systemen met een hoog risico is voorzien in een set eisen aan de ontwikkeling en ingebruikname van deze systemen waaraan aantoonbaar moet worden voldaan (waarin fundamentele rechten worden meegenomen). De AI-verordening introduceert geen verbod om bepaalde AI-besluiten te nemen zonder menselijke tussenkomst, maar stelt voor hoog-risico AI-systemen wel de eis dat er menselijk toezicht moet zijn op het gebruik hiervan.

Hoewel er in nationaal en Europees verband het nodige loopt op wetgevend terrein, blijft het kabinet alert op de toekomstbestendigheid én naleving van de juridische kaders in relatie tot algoritmen. Dat doet het kabinet door vinger aan de pols te houden of voorgestelde maatregelen in het implementatiekader voldoende effectief en uitvoerbaar zijn. Daarnaast is de algoritmetoezichthouder van start gegaan. Die gaat zich onder andere bezighouden met het signaleren en analyseren van sectoroverstijgende en overkoepelende risico’s en effecten van algoritmen en het delen van kennis daarover.

Handelingsoptie: Proportionaliteitstoetsing – Stel een evaluatiedocument op dat periodiek wordt geactualiseerd

Ik vind het vanzelfsprekend van belang dat uw Kamer haar rol goed kan vervullen. Een periodiek evaluatiedocument waarmee het in de wetgeving voorgestelde besluitvormingsproces en de AI-toepassingen van overheden bevraagd kunnen worden, kan een goed hulpmiddel zijn.

In de werkagenda heeft het kabinet opgenomen dat het de verschillende instrumenten die er op dit moment zijn om doelen en risico’s te bepalen, wil stroomlijnen, prioriteren en aan te geven bij wie de verantwoordelijkheid ligt om specifieke instrumenten toe te passen (governance). Dit moet samen komen in het implementatiekader «inzet van algoritmen»; dat bevat naar verwachting deels ook al verplichte assessments of risicobeoordelingen met documentatievereisten, deels niet-verplichte onderdelen. Daarnaast zal gebruik worden gemaakt van alle kennis en ervaringen van overheden met kaders en zal goed naar de uitvoeringsconsequenties worden gekeken. De verwachting is dat het gebruik van dit implementatiekader door overheidsorganisaties het werk van uw Kamer kan vergemakkelijken. Een eerste breed door departement afgestemd concept implementatiekader verwacht ik halverwege 2023.

Handelingsoptie: Proportionaliteitstoetsing – Versterk de samenwerking tussen parlement, kabinet, ministeries en uitvoeringsorganisaties

Ik steun van harte het voorstel van uw Kamer om deze samenwerking te versterken met als doel om wet- en regelgeving beter te doorgronden op consequenties voor de uitvoeringspraktijk en, want daar gaat het uiteindelijk om, voor burgers en bedrijven. Zoals ook aangeven in de werkagenda is het belangrijk om wetvoorstellen te toetsen op uitvoerbaarheid. Daarom zet het kabinet in op uitvoeringstoetsen en er wordt gebruik gemaakt, waar mogelijk, van het beleidskompas (opvolger van het Integraal Afwegingskader).

Als het gaat om het organiseren van technische briefings door uw Kamer stel ik mede namens het kabinet kennis, mensen en faciliteiten graag ter beschikking.

In de werkagenda worden initiatieven genoemd om een goede vertaling van wetgeving naar specificaties voor digitale technologie te ondersteunen. Dit zijn de zogenoemde Calculemus Flint initiatieven die ook in de Rathenaunotitie worden vermeld. Hiervoor schetste ik dat het kabinet zo veel mogelijk transparant wil maken welke algoritmen en onderliggende «regels» gebruikt worden binnen de overheid. Met regels wordt hier niet de wetgeving bedoeld, maar de stappen die worden gezet en de keuzes die worden gemaakt om van wet- en regelgeving naar uitvoering te komen. Ook werkt het kabinet aan een centrale vindplaats voor deze regels, regels.overheid.nl. Om de beslissingen van de overheid te kunnen uitleggen en controleren is het nodig om deze regels te kennen. Een aantal overheden werkt al aan het publiceren van de regels die zij nu intern gebruiken om systemen te ontwikkelen en beheren.

Handelingsoptie: Proportionaliteitstoetsing – Zet een Vaste Commissie Digitale Zaken op

Over het opzetten van een Vaste Commissie Digitale Zaken kan ik kort zijn. Dat vind ik een goed idee.

Handelingsoptie: proportionaliteitstoetsing – Investeer in meer ondersteuning voor het parlement

Binnen onze democratische rechtsstaat is het van belang dat alle actoren hun rol goed kunnen vervullen. Dat geldt net zo zeer voor de uitvoerende en rechtsprekende macht als voor de wetgevende macht, waar Uw Kamer deel van uitmaakt. De notitie van het Rathenau Instituut schetst een aantal handelingsopties die kunnen helpen bij een goede uitvoering van uw rol. Een aantal opties raakt meer aan de inhoud van de wetgeving: hoe kan deze zo vorm krijgen dat de toets op proportionaliteit en uitvoerbaarheid goed kan worden gedaan. Het kabinet werkt aan verbeteringen op dit gebied. De inschatting over de benodigde ondersteuning in personele of technologische zin van Uw Kamer ligt uiteraard bij uzelf.

Handelingsoptie: maatwerk en toezicht – Vraag om een databegroting

Naar analogie van een begroting wordt door Rathenau als handelingsoptie voorgesteld om alle datastromen binnen de overheid inzichtelijk te maken, waarbij inzichtelijk wordt gemaakt welke veranderingen er plaatsvinden. Dit met als doel om de digitale overheid te ordenen en waar nodig het datagebruik bij te sturen.

Het kabinet deelt de behoefte om overzicht en grip te krijgen op datastromen en verwerkingen, met speciale aandacht voor impactvolle algoritmen. Het heeft daarvoor – in de plaats van een aparte databegroting als nieuw instrument – al een aantal acties in gang gezet. In de werkagenda18 kondigt het kabinet bijv. diverse acties aan om de gegevenshuishouding te verbeteren.

Zo wordt per ministerie een Chief Data Officer benoemd om sturing en toezicht op het beheer en gebruik van data te versterken, wordt ordentelijk gegevensbeheer («boekhouding») ingericht met inzicht in welke gegevens er zijn, met wie het wordt gedeeld en de verantwoordelijken. Ook verbetert het kabinet het delen van data tussen overheden en (semi-)publieke organisaties via de ontwikkeling van een federatief datastelsel. Daarnaast bestaat reeds de verplichting in het kader van de AVG om gegevensverwerkingen vast te leggen in een verwerkingsregister. Nieuwe gegevensverwerkingen moeten hier ook in worden opgenomen. Vanwege de speciale aandacht voor impactvolle algoritmen is onlangs het algoritmeregister gelanceerd en is een algoritmetoezichthouder aangesteld.

Handelingsoptie: vinger aan de pols – Verplichte evaluaties van AI-gerelateerde wetgeving

Het komt steeds vaker voor dat digitale technologie wordt ingezet om wetgeving en beleid uit te voeren. Dat biedt voordelen: het is effectief, efficiënt en het kan willekeur voorkomen. Het is daarbij wel van belang dat deze uitvoering op een verantwoorde wijze gebeurt. In deze reactie zijn al eerder instrumenten genoemd die hieraan kunnen bijdragen.

Het kabinet vindt het daarnaast belangrijk om bij het opstellen van wet- en regelgeving al vroegtijdig aandacht te hebben voor de digitale uitvoering daarvan. Een aantal acties draagt hieraan bij.

Als eerste noem ik «i in het hart van het beleid.» Dit is een thema uit de I-strategie Rijk 2021–25 dat erop gericht is om de ICT-betrokkenheid te vergroten vóórdat de wet er is. Wetgeving en beleid worden dan gemaakt met kennis van digitalisering én uitvoering.

Als tweede noem ik graag de werkmethoden Wetsanalyse en de Calculemus Flint initiatieven waar ik eerder in deze brief aan refereerde. Zo worden de democratische legitimatie en de praktische werkbaarheid in de uitvoering verzekerd. Het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties laat op dit moment een handzaam instrument ontwikkelen voor dit zogenoemde uitvoeringsgericht wetgeven. Het instrument is bedoeld om een multidisciplinaire samenwerking van beleidsmakers, wetgevingsjuristen en uitvoerders te faciliteren bij het ontwikkelen van wetgeving die kan worden gecontroleerd en verantwoord kan worden uitgevoerd.

Daarnaast wordt door het kabinet ingezet op het verplichten van een informatieparagraaf bij elk stuk nieuw beleid en het uitbreiden van de uitvoeringstoets van voorgenomen wetgeving met een digitale component.19 Een handreiking over deze informatieparagraaf wordt naar verwachting in 2023 opgeleverd. De Aanwijzingen voor de Regelgeving schrijven al voor dat de toelichting van voorgenomen wetgeving moet ingaan op onder meer de uitvoerbaarheid en handhaafbaarheid van het voorstel. De beleidsanalytische toets die de Afdeling advisering van de Raad van State verricht op voorgenomen wetgeving biedt hiervoor de leidraad.

Tot slot kan de invoeringstoets worden genoemd.20 Het kabinet introduceert deze toets om eerder en beter te kunnen inspelen op signalen van burgers, organisaties en bedrijven over de werking van nieuwe regelgeving. Zo kan worden bijgestuurd als er oplosbare problemen worden ontdekt of kan worden gestopt als het volledig mis dreigt te gaan. De uitvoeringsorganisatie kan knelpunten terugleggen op de beleidstafel.

Deze maatregelen worden ontwikkeld en helpen Uw Kamer in het versterken van de wetgevende en controlerende rol. Het kabinet onderschrijft daarnaast de stelling van de Raad van State dat een regelmatige evaluatie van wetgeving en de daarop gebaseerde inzet van digitalisering wenselijk is. Indien mogelijk kan een horizonbepaling worden opgenomen.21 Het bestaande wetgevingsbeleid biedt daarvoor al de ruimte. De Afdeling advisering van de Raad van State toetst de gemaakte afwegingen rondom evaluatie- en horizonbepalingen in de wetstechnische toets van voorgenomen wetgeving.

Afsluitend

Zoals u uit deze brief kan vernemen is er veel politieke en bestuurlijke aandacht om grip op controle van algoritmen meer aan de voorkant te versterken en de transparantie te vergroten. Er is (aanvullende) wetgeving in de maak, er worden kaders en handreikingen ontwikkeld die overheden helpen om risicovolle algoritmen verantwoord in te zetten, er wordt gewerkt aan transparantie o.a. door een algoritmeregister en dit jaar is de algoritmetoezichthouder van start gegaan.22 Er gebeurt met andere woorden al veel en deze brief bevat daarvan een overzicht. Ik verwacht dat deze initiatieven uw Kamer kunnen helpen bij de oriëntatie op een mogelijk (toetsings)kader dat specifiek toeziet op wet- en regelgeving van AI en risicovolle overheidsalgoritmes. Ik kijk uit naar de gedachtewisseling die ik met uw Kamer hierover zal hebben.

De Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties, Digitalisering en Koninkrijksrelaties A.C. van Huffelen


X Noot
1

Samenstelling:

Backer (D66), De Boer (GL) (voorzitter), Van Dijk (SGP), Van Hattem (PVV), Rombouts (CDA), Baay-Timmerman (50PLUS), Van den Berg (VVD), Arbouw (VVD), Bezaan (PVV), De Blécourt-Wouterse (VVD), Dittrich (D66), Doornhof (CDA), Janssen (SP), Karimi (GL), Meijer (VVD), Nicolaï (PvdD), Otten (Fractie-Otten) (ondervoorzitter), Recourt (PvdA), Rietkerk (CDA), Veldhoen (GL), Van Wely (Fractie-Nanninga), Nanninga (Fractie-Nanninga), Raven (OSF), Karakus (PvdA), Talsma (CU), Hiddema (Fractie-Frentrop) en Krijnen (GL).

X Noot
2

Grip op algoritmische besluitvorming bij de overheid; De rol van de Eerste Kamer, Rathenau Instituut, maart 2021 (Dossier CXLVII).

X Noot
3

Algoritmische overheidsbesluitvorming; Handreiking aan de Eerste Kamer, Rathenau Instituut, september 2022.

X Noot
4

Kamerstukken II 2022/23, 26 643, nr. 940.

X Noot
5

Kamerstukken II. 2021/22, 26 643, nr. 835

X Noot
8

Kamerstukken II 2022/23, 21 501-33, nr. 982

X Noot
10

Raad van State (2021). Digitalisering. Wetgeving en bestuursrechtspraak. P.14

X Noot
11

Kamerstukken II 2022/23, 26 643, nr. 940.

X Noot
12

Kamerstukken II, 26 643, nr. 950

X Noot
14

Kamerstukken II, 2022/23, 29 279, nr. 763

X Noot
15

Kamerstukken II 2020/21, 26 643, nr. 726; Kamerstukken II 2021/22, 33 826, nr. 45; en Kamerstukken II 2022/23, 26 643, nr. 943.

X Noot
16

Begrensd door wettelijke of gerechtvaardigde uitzonderingen die van toepassing zijn bij belangenafwegingen in het kader van bijvoorbeeld opsporing, rechtshandhaving, defensie of inlichtingenverzameling.

X Noot
17

Kamerstukken II 2022/23, 26 643 nr. 940.

X Noot
18

Kamerstukken II 2022/23, 26 643, nr. 940

X Noot
19

Kamerstukken II 2022/23, 26 643, nr. 940, onderdeel 4.3.14.

X Noot
20

Kamerstukken II 2022/23, 35 510, nr. 96.

X Noot
21

Raad van State, Digitalisering – Wetgeving en bestuursrechtspraak, p. 40.

X Noot
22

Kamerstukken II, 2022/23, 26643–953

Naar boven