26 643 Informatie- en communicatietechnologie (ICT)

Nr. 924 BRIEF VAN DE STAATSSECRETARIS VAN BINNENLANDSE ZAKEN EN KONINKRIJKSRELATIES

Aan de Voorzitter van de Tweede Kamer der Staten-Generaal

Den Haag, 7 oktober 2022

In deze brief informeer ik uw Kamer, mede namens de Minister van Economische Zaken en Klimaat en de Minister voor Rechtsbescherming, over de wijze waarop dit kabinet wil omgaan met de inzet van algoritmen. Deze brief bevat de stand van zaken van de uitvoering van een aantal moties op dit onderwerp. Deze brief bevat tevens de, in het planningsoverzicht voor vaste commissie Digitale Zaken 20221 aangekondigde overzicht van de wijze waarop het Chief Information Office (CIO)-toezicht binnen de rijksoverheid zal worden vormgegeven.

In de Kamerbrief «Hoofdlijnen beleid voor digitalisering» zijn de ambities en doelen geschetst voor de digitale transitie van de samenleving.2 De werkagenda van dit kabinet volgt naar verwachting in november dit jaar.

Het kabinet wil de kansen van de digitale transitie verzilveren en grondrechten beschermen. In deze brief gaan we vooral in op het tweede.

We hebben de plicht om grondrechten en publieke waarden – in het bijzonder veiligheid, democratie, transparantie, zelfbeschikking, non-discriminatie, participatie, privacy en inclusiviteit – te beschermen en de taak om de kansen van de digitale transitie te verzilveren door een innovatief en gelijk economisch speelveld te creëren: met eerlijke concurrentie, consumentenbescherming en brede maatschappelijke samenwerking. We willen zorgen dat burgers regie houden op hun digitale leven en de digitale wereld ook kunnen vertrouwen. Als het gaat om algoritmen maken we met wetgeving en toezicht algoritmen en hun toepassingen eerlijk en transparant, zodat burgers en bedrijven op een goede behandeling kunnen vertrouwen. Daarnaast is het essentieel dat de overheid zélf uitgroeit tot een professionele IT-organisatie die professioneel, transparant en integer is en daarmee invulling geeft aan een verantwoorde inzet van algoritmen. De overheid stelt hierin het voorbeeld.

In de aanpak om te komen tot een verantwoorde inzet van algoritmen speelt Europese beleid en wetgeving (in wording) een belangrijke rol. Het kabinet zet zich in Europees verband sterk in voor betere bescherming van burgers (waaronder kinderen) en dat alleen algoritmische toepassingen op de markt komen die fundamentele rechten respecteren. Waar nodig stellen we nationaal extra regels. Zo gaan we voor de Nederlandse overheid een stap verder en zetten we een algoritmeregister op en werken we met overheden aan een implementatiekader «ínzet van algoritmen». De uitwerking van het algoritmeregister en het implementatiekader e.d. vinden komend jaar plaats in nauwe samenwerking met overheden en experts.

In het vervolg van deze brief wordt nader ingegaan op deze aanpak en de door uw kamer ingediende moties. Dat doe ik langs vier onderwerpen. Voor elk onderwerp geef ik kort aan wat het doel is en welke moties hiermee samenhangen. Daarna ga ik in op de stand van zaken m.b.t. de uitvoering van de moties.

Een overzicht van alle acties naar aanleiding van uw moties is opgenomen in bijlage tabel 1. Er zijn verschillende instrumenten ontwikkeld die gericht zijn op het beter naleven van wetgeving. Bijlage tabel 2 biedt een overzicht van de huidige beschikbare instrumenten voor een verantwoorde inzet van algoritmen. Bijlage tabel 3 brengt in beeld tijdens welke fase van de inzet van technologie het instrument kan worden ingezet.

Deze bestaande instrumenten vormen de basis voor een implementatiekader «ínzet van algoritmen». Ook wordt de samenhang van de verschillende instrumenten op basis van dit overzicht in kaart gebracht.

  • 1. Betere bescherming voor burgers online

  • a. Motie van de leden Leijten (SP) en Ceder (ChristenUnie) over een duidelijk waardenkader met betrekking tot de inzet, regulering en toepassing van digitale technologie door de overheid en de motie van het lid Van Baarle (DENK) c.s. over bindende criteria rondom automatische besluitvorming.

  • b. Motie van het lid Van Baarle (DENK) c.s. over wettelijke waarborgen non-discriminatie bij algoritmen en de motie van het lid Van Baarle (DENK) over inspanningen van het kabinet om in EU-verordeningen concrete antidiscriminatiebepalingen te krijgen.

  • c. Motie van de leden Ceder (ChristenUnie), Bontenbal (CDA) en Leijten (SP) over het beschermen van kinderrechten online, de motie van de leden Ceder (ChristenUnie) en Leijten (SP) om te komen tot een wettelijke verplichting voor een kind impact assessment en de motie van het lid Bontenbal (CDA) c.s. over het zoeken naar mogelijkheden om loot boxes in videogames in Nederland te verbieden.

  • 2. Duidelijke eisen voor overheidsorganisaties

    Het kabinet zet stappen om, in aanvulling op bestaande wettelijke kaders, burgers beter te beschermen tegen ongewenste effecten van de inzet van algoritmen. Kinderen krijgen daarbij extra online bescherming. In deze brief zal ik u in dit kader informeren over de stand van zaken rond de uitvoering van de volgende moties:

    Het is belangrijk dat voor overheidsorganisaties duidelijk is aan welke eisen voldoen moet worden als het gaat om de inzet van algoritmen. Er zijn reeds bestaande verplichtingen, maar ook hulpmiddelen en handreikingen. Het kabinet wil dit meer stroomlijnen, waar mogelijk prioriteren en dit concretiseren in een implementatiekader «inzet van algoritmen» die overheidsorganisaties adviseert de nodige waarborgen in acht te nemen. Om ervoor te zorgen dat het implementatiekader zo uitvoerbaar mogelijk is, zal ten aanzien van het kader een uitvoeringstoets plaatsvinden.

    In deze brief zal ik u in dit kader informeren over de stand van zaken rond de uitvoering van de volgende moties:

    • a. Motie van de leden Bouchallikh (GroenLinks) en Dekker-Abdulaziz (D66) over het verplichten van een impact assessment.

    • b. Motie van het lid Van Baarle (DENK) c.s. over de handreiking non-discriminatie by design.

    • c. Motie van het lid Koekkoek (Volt) over het stopzetten van algoritmische IT-systemen als niet vastgesteld kan worden dat ze niet discrimineren.

  • 3. Transparantie over de inzet van algoritmen

    Het kabinet vergroot de transparantie bij de ontwikkeling van alle hoog risico algoritmen, publiek en privaat. Het is belangrijk dat burgers de overheid kunnen volgen en kritisch kunnen bevragen of zij zich aan de regels houdt. Daarom gaat het kabinet voor overheidsorganisaties het opstellen van een algoritmeregister verplicht stellen. Uitgangspunt is dat overheden zelf verantwoordelijk zijn voor het opstellen en beheer van een algoritmeregister. Het algoritmeregister bevat in ieder geval hoog-risico algoritmen. Het kabinet werkt aan het op een centrale plek toegankelijk maken van algoritmen, gevoed door informatie over algoritmen die overheidsorganisaties publiceren op hun eigen pagina.3 Ook zal het kabinet zich er in Europees verband voor inzetten dat alle «hoog-risico» algoritmen transparantieverplichtingen krijgen. In deze brief zal ik u in dit kader informeren over de stand van zaken rond de uitvoering van de volgende moties:

    • a. Motie van het lid Klaver (GroenLinks) c.s. over een algoritmeregister.

    • b. Motie van het lid Dassen (Volt) c.s. over een verplicht algoritmeregister.

    Het kabinet wil verder in overleg met overheden komen tot een eenduidige registratie van algoritmen. De voorlopige uitgangspunten van het algoritmeregister zijn geformuleerd. Dan gaat het onder andere om het doel van het algoritme, de (verwachte) consequenties en de proportionaliteit van de inzet van het algoritme.4 Om het algoritmeregister zo in te richten dat het beheer daarvan haalbaar is voor de uitvoering, zal een uitvoeringstoets worden uitgevoerd.

  • 4. Het kabinet versterkt het toezicht op algoritmen.

Het is van belang om vast te stellen of wetgeving goed werkt. We investeren in een sterke positie van de Autoriteit Persoonsgegevens, introduceren een algoritmetoezichthouder en versterken de samenwerking en samenhang tussen de diverse digitale toezichthouders. Deze versterking wordt zo ingericht dat Europese regelgeving op een zo effectief mogelijke manier wordt geïmplementeerd. Ook t.a.v. nieuwe taken voor de uitvoering in het kader van toezicht, zal een uitvoeringstoets worden uitgevoerd.

Hieronder ga ik nader in op de toelichting van deze vier doelen en de stand van zaken rond de uitvoering van bijbehorende moties. De doelen zullen ook terugkomen in de werkagenda.

1. Betere bescherming voor burgers online

Om mensenrechten te beschermen, moeten overheden en bedrijven zich aan de bestaande wettelijke kaders houden. Er is al een kader dat de inzet van technologie regelt: de Grondwet en de fundamentele mensenrechten vereisen dat waar een inbreuk op een recht is toegelaten, deze inbreuk wettelijk moet worden geregeld en noodzakelijk en proportioneel moet zijn. Domein-specifieke wetgeving reguleert de bevoegdheid waaruit besluitvorming volgt. Het non-discriminatierecht verbiedt het maken van een (ongerechtvaardigd) onderscheid tussen mensen. De privacy- en gegevensbeschermingswetgeving – waaronder de Algemene Verordening Gegevensbescherming (AVG) – stelt regels aan het gebruik van persoonsgegevens. Het bestuursprocesrecht stelt regels aan besluitvorming, zoals de motivering ervan, menselijke tussenkomst en hoor en wederhoor. Er is met andere woorden al veel wettelijk geregeld.

Het kabinet zet stappen om, in aanvulling op bestaande wettelijke kaders, burgers beter te beschermen tegen ongewenste effecten van de inzet van algoritmen. Dit doen we met aanvullende wetgeving en door te investeren in informatievoorziening, toezicht, handhaving, kennisdeling en bewustwording.

Er is Europese wetgeving en beleid in voorbereiding die additionele waarborgen moeten bieden voor burgers en een Europese markt voor mensgerichte AI stimuleert. Het kabinet zet zich in Europees verband in om rechten van burgers zoveel mogelijk te beschermen in Europese regelgeving, zoals de AI-verordening en het AI-verdrag van de Raad van Europa. Voor AI-systemen is er vanuit de Europese Commissie een AI-verordening in voorbereiding. Deze verordening regelt dat AI-systemen met een hoog risico aan een set eisen moeten voldoen bij de ontwikkeling en ingebruikname van deze systemen en een CE-markering krijgen voordat ze op de markt komen of in gebruik worden genomen, door overheden en bedrijven. Zo moet een risicoanalyse worden gedaan en worden onder andere eisen gesteld aan de datakwaliteit, de accuraatheid van het systeem, moet het systeem voldoende transparant zijn voor degene die het toepast en moet er adequaat menselijk toezicht op mogelijk zijn. Nederland zet zich er voor in dat een AI-systeem ook transparant is voor degene die subject is van de werking dat systeem. Al deze eisen moeten de kans op discriminatie van AI-systemen minimaliseren en de transparantie van AI-systemen en de potentiële effecten vergroten.

Over de Nederlandse inzet t.a.v. de AI-verordening heeft het kabinet uw Kamer op 3 juni jl. geïnformeerd.5 Het kabinet zal scherp blijven kijken of de voorgestelde regelgeving voldoende waarborgen biedt voor de bescherming van mensenrechten.

Een belangrijke internationale ontwikkeling is de totstandkoming van een AI-verdrag binnen de Raad van Europa om democratie, rechtsstaat en mensenrechten bij de inzet van AI te versterken. Hierover wordt u in een separate brief geïnformeerd.

Het kabinet verwelkomt in Europees kader tevens de «Better internet for kids (BIK+) strategy»6 van de Europese Commissie en geven op Europees niveau aandacht aan onze Nederlandse Code voor Kinderrechten Online.7

a) Stand van zaken uitvoering motie van de leden Leijten en Ceder over een duidelijk waardenkader met betrekking tot de inzet, regulering en toepassing van digitale technologie door de overheid8 en de motie over het ontwikkelen van bindende criteria voor besluiten die niet automatisch tot stand mogen komen (Lid Van Baarle c.s.)

De motie van de leden Leijten en Ceder c.s. verzoekt de regering met een duidelijk waardenkader te komen met betrekking tot de inzet, regulering en toepassing van digitale technologie door de overheid, waarbij duidelijk wordt aangegeven welke principes en waarden leidend zijn. De motie van het lid Van Baarle c.s. verzoekt de regering om bindende criteria te ontwikkelen voor besluiten die niet automatisch, dus zonder menselijke tussenkomst, tot stand mogen komen.

Overheidshandelen moet voldoen aan de mensenrechtenverdragen, de Grondwet en wet- en regelgeving. Er zijn echter altijd afwegingen mogelijk en die zijn vaak ook noodzakelijk. Grondrechten bijvoorbeeld, zijn niet altijd absoluut. Er mag geen inbreuk worden gemaakt op de bescherming van de levenssfeer, tenzij dat bij wet wordt geregeld, als dat noodzakelijk is en als dat voldoet aan de eisen van proportionaliteit en subsidiariteit. Kortom, dat is een afweging. Een kader waarin bijvoorbeeld staat dat privacy altijd voorgaat op veiligheid past daar niet goed bij. Er moet ruimte zijn voor afwegingen.

De digitale transitie kan bepaalde waarden onder druk zetten, of juist versterken. Het kabinet prioriteert een aantal publieke waarden. Dit zijn waarden die ook in het begin van de brief zijn genoemd, zoals veiligheid, democratie, zelfbeschikking, non-discriminatie, participatie, privacy en inclusiviteit. In de werkagenda zal worden ingegaan op publieke waarden bij digitalisering en de afweging daarvan in concrete situaties.

Om overheden nu al te ondersteunen bij het maken van waardenafwegingen heeft het Ministerie van BZK in 2021 de Code Goed Digitaal Openbaar Bestuur (CODIO) opgesteld.9 De CODIO heeft 3 kernwaarden: democratie, rechtsstaat en bestuurskracht. Daaronder liggen 30 waarden, zoals non-discriminatie, uitlegbaarheid en inclusiviteit. Aan de hand van drie casussen wil ik nog dit jaar laten zien hoe overheden deze Code concreet kunnen inzetten.

b) Stand van zaken uitvoering motie van het lid Van Baarle c.s. wettelijke waarborgen non-discriminatie en motie van het lid Van Baarle over inspanningen van het kabinet om in EU-verordeningen concrete antidiscriminatiebepalingen te krijgen

De motie van het lid Van Baarle c.s. verzoekt de regering om zo spoedig mogelijk een wetsvoorstel naar de Kamer te sturen waarin de overheid en bedrijven verplicht worden gesteld om concrete waarborgen te hanteren, zowel in de ontwikkelfase als in de implementatiefase, om discriminatie door algoritmen te voorkomen.10 Motie van het lid Van Baarle verzoekt de regering om zich in Europees verband in te spannen dat EU-verordeningen concrete antidiscriminatiebepalingen krijgen.11

Het kabinet zet zich er in Europees verband voor in dat er alleen AI-systemen op de markt komen die fundamentele rechten en dus ook de non-discriminatiebeginselen respecteren.12 Waar de motie om vraagt, zal dus wettelijk geregeld worden in Europa. Het kabinet zal zoals gezegd in de onderhandelingen over de voorgestelde AI-verordening en het AI-verdrag van de Raad van Europa scherp letten dat die rechten voldoende geborgd worden. Wanneer de uitkomsten van deze onderhandelingen onverhoopt niet afdoende beantwoorden aan onze inzet, zal het kabinet aanvullende nationale regelgeving voorstellen.

c) Stand van zaken motie van het lid Ceder c.s. over het beschermen van kinderrechten online, de motie van de leden Ceder en Leijten om te komen tot een wettelijke verplichting voor een kind impact assessment en de motie van het lid Bontebal c.s.om te zoeken naar mogelijkheden om loot boxes in videogames in Nederland te verbieden

Tijdens het hoofdlijnendebat digitalisering is een aantal moties ingediend die gaan over het online beschermen van kinderrechten. Het Ministerie van BZK ontwikkelde vorig jaar de Code Kinderrechten Online. Deze Code bevat voor ontwikkelaars van onlinediensten voor kinderen 10 ontwerpbeginselen om kinderrechten te respecteren. Deze beginselen zijn gestoeld op nationale en internationale wetgeving t.a.v. de bescherming van kinderrechten.

De motie van de leden Ceder en Bontenbal verzoekt om in de werkagenda inzicht te geven in het beschermingsniveau van kinderen tegen extreme content.13 Dat ga ik doen. Wettelijk is al geregeld dat aanbieders van videoplatforms maatregelen moeten nemen om kinderen te beschermen tegen content die schadelijk is voor hun lichamelijke, geestelijke of morele ontwikkeling.14 De maatregelen om gebruikers, en in het bijzonder kinderen, te beschermen tegen deze content moeten in een gedragscode worden opgenomen.15 Ook moeten aanbieders van videoplatforms ervoor zorgen dat gebruikers worden geïnformeerd over door anderen geplaatste content die mogelijk schadelijk is voor kinderen.

Daarnaast lanceerde de Europese Commissie in mei zoals gezegd de nieuwe «Better Internet for Kids (BIK+) strategie»16 die tot doel heeft om kinderen beter te beschermen in de digitale wereld. Deze strategie kent drie pijlers, waarvan de eerste gaat om het beschermen van kinderen tegen schadelijke en illegale content. De Commissie gaat steun verlenen aan platforms die instrumenten ontwikkelen en inzetten om gebruikers alleen toegang te geven tot op leeftijd afgestemde inhoud. De Commissie streeft ernaar om op termijn tot een algemeen toepasbare, transparante en consistente aanpak van leeftijds- en inhoudsclassificatie te komen voor de gehele EU. De Commissie kijkt hierbij naar zelfregulering, maar zal zich ook buigen over wetgeving, mocht zelfregulering door de bedrijfssector geen resultaat opleveren. In de werkagenda neem ik acties op die het kabinet aanvullend kan nemen om kinderen te beschermen tegen extreme content.

De motie van de leden Ceder en Leijten verzoekt de regering om al dan niet in Europees verband, conform de Code kinderrechten online, te komen tot een wettelijke verplichting voor een kind impact assessment voor digitale diensten die deels of volledig op kinderen zijn gericht.17 Een dergelijk assessment betekent dat de ontwerper van een onlinedienst, eerst een inventarisatie van de belangen van het kind en een weging daarvan, uitvoert. Ik onderschrijf de wenselijkheid van het uitvoeren van dergelijke assessments, maar zou een stap verder willen gaan. Mogelijk is dat ook wat de indieners van de motie willen door het introduceren van een kinderrechtentoets. Een dergelijke toets brengt kinderrechten in beeld en is daarmee een sterker instrument dan alleen een inventarisatie van belangen zoals het doel is van een kind impact assessment. De beoogde kinderrechtentoets zal, mogelijk in de vorm van een impact assessment, gestoeld zijn op kinderrechten en praktisch zijn. De mogelijkheden voor wettelijke verankering zullen worden onderzocht.

Daarbij zal ik tevens de mogelijkheid bekijken van het verplichten van een dergelijke kinderrechtentoets, al dan niet in Europees verband. De Digital Services Act (DSA) bevat verschillende bepalingen om de rechten van kinderen bij onlinediensten en producten beter te beschermen. Eén van de bepalingen is dat online platforms met meer dan 45 miljoen actieve gebruikers per maand (de zogenaamde «very large online platforms» ten minste één keer per jaar een risico assessment moeten uitvoeren om negatieve effecten op o.a. privacy, vrijheid en gelijke behandeling van kinderen in kaart te brengen en te mitigeren. Onafhankelijke audits moeten daarnaast in kaart brengen hoe algoritmen effect hebben op de fysieke en mentale gezondheid van kinderen. Het kabinet vindt dat een kinderrechtentoets niet alleen door deze grote platforms zou moeten worden uitgevoerd. Daarom bekijken we hoe we tot een bredere inzet van dit soort toetsen kunnen komen. Wij kijken hierbij bijvoorbeeld naar het laten ontwikkelen van een praktisch format voor een kinderrechten impact assessment. Een uitbreiding moet wel meerwaarde hebben en aanvullend zijn op dat wat al bestaat aan toetsen. Ik kom hier in de werkagenda op terug.

De gewijzigde motie van het lid Bontenbal c.s. verzoekt de regering te zoeken naar een mogelijkheid om loot boxes in videogames ook in Nederland te verbieden.18 Ik ga samen met de Minister voor Rechtsbescherming kijken of en hoe hierin voorzien zou kunnen worden. Ik kom hier met mijn collega op terug in een kabinetsreactie op het Trimbos Intituut rapport «Behavioral design in video games: A roadmap for ethical and responsible games that contribute to long-term consumer health and well-being». De reactie verwachten wij in november naar uw Kamer te sturen.

2. Duidelijke eisen voor overheidsorganisaties

Als het gaat om de verantwoorde inzet van algoritmen zijn al door het vorige kabinet proactief stappen gezet.19 Er zijn hulpmiddelen en instrumenten ontwikkeld om wet- en regelgeving beter toe te passen. De inzet van dit kabinet is om binnen deze instrumenten prioritering aan te brengen en deze te stroomlijnen, zodat in alle fasen van de levenscyclus van algoritmische toepassingen praktische handvatten worden geboden. Dit is ook waar het Rathenau Instituut voor pleit in één van de aanbevelingen uit het onderzoek «Algoritmes Afwegen» die als bijlage is bijgesloten.20

Het kabinet wil dit concretiseren door een implementatiekader vast te stellen dat overheidsorganisaties bij de inzet van algoritmes adviseert om de nodige waarborgen in acht te nemen. Deze staat ook opgenomen in het zesde thema van de I-strategie Rijk 2021–2025.21

Binnen de rijksoverheid is in de afgelopen tien jaar ervaring opgebouwd met het CIO-toezicht op grote ICT-projecten. In lijn met de werkwijze die hier is ontwikkeld, spreek ik met de departementen af om bij ICT-projecten waar sprake is van de inzet van hoog-risico algoritmes (op basis van de concepttekst van de Europese AI-verordening), het Impact Assessment Mensenrechten en Algoritmen22 (IAMA; of een soortgelijk instrument) uit te voeren en te bepalen wat de risico’s op schending van mensenrechten zijn. Wanneer daar sprake van is, zal de CIO van het departement door de CIO-Rijk worden gevraagd om samen met de relevante betrokken functionarissen een CIO-oordeel uit te brengen aan de hand van het te ontwikkelen implementatiekader voor de «inzet van algoritmen». Om het CIO-toezicht zo richten dat het haalbaar is, zal een uitvoeringstoets worden uitgevoerd.

Als een overheidsorganisatie zelf een algoritme gaat ontwikkelen, zullen extra maatregelen worden genomen ter voorkoming van discriminerende werking van algoritmen. Hiervoor zijn al verschillende hulpmiddelen beschikbaar zoals de handreiking non-discriminatie by-design en door de markt ontwikkelde biastools. In geval het een inkoop- of aanbestedingstraject betreft, zal meer specifiek gekeken moeten worden naar de inkoopvoorwaarden waar de ICT-dienstverlener aan zal moeten voldoen. Hierbij zal gekeken worden naar de borging van waarden als non-discriminatie, maar ook naar het verzekeren van transparantie. Bij voorkeur wordt gebruik gemaakt van open source software.

Ik ga, vanuit mijn verantwoordelijkheid voor ICT bij de Rijksdienst, met de departementen in gesprek om deze werkwijze nader uit te werken en vast te leggen. Tegelijkertijd voer ik ook het gesprek met gemeenten, provincies en waterschappen om te bekijken op welke manier deze manier van werken ook voor hen in bestuurlijke afspraken kan worden vastgelegd.

Uiteindelijk zal dit resulteren in het genoemde implementatiekader dat voor alle overheidsorganisaties adviseert welke waarborgen in acht dienen te worden genomen bij de inzet van algoritmen. Het toetsen van algoritmen op deze waarborgen dient zowel voorafgaand als tijdens de inzet of het gebruik van algoritmen te kunnen plaatsvinden. Uitgangspunt is dat de algoritmen zo transparant mogelijk zijn. Voor zowel toezichthouders als mensenrechtenorganisaties, maar vooral ook voor de subjecten van het algoritme.

a) Stand van zaken uitvoering motie van de leden Bouchallikh en Dekker- Abdulaziz over het verplichten van een impact assessment

De leden Bouchallikh (GroenLinks) en Dekker-Abdulaziz (D66)23 stellen vast dat het Ministerie van BZK het impact assessment mensenrechten en algoritmen (IAMA) heeft ontwikkeld en verzoekt de regering om deze assessment voorafgaand aan het gebruik van algoritmen te verplichten, wanneer algoritmen worden ingezet om evaluaties van of beslissingen over mensen te maken. De motie verzoekt de regering tevens om overheden te verplichten om, waar mogelijk, deze impact assessments openbaar te maken.

Het kabinet onderschrijft de wenselijkheid van een verplichting van een mensenrechten impact assessment zoals het IAMA. Het kabinet onderzoekt hoe dat kan worden ingevoerd, in aanvulling op verplichtingen die er al zijn, zoals de DPIA, waarvoor reeds een model beschikbaar is.24 Het verplichten van een impact assessment zoals het IAMA dient ook in samenhang te worden bezien met de nieuwe verplichtingen die volgen vanuit de AI-verordening waar een verplichte risicoanalyse is opgenomen die overeenkomsten vertoont met het IAMA. In reactie op het Amnesty rapport Xenofobe Machines gaf ik reeds aan hoe een mogelijke verplichting van het IAMA of soortgelijk instrument zich verhoudt tot bestaande wetgeving en de naleving daarvan.25

b) Stand van zaken uitvoering motie van het lid Van Baarle c.s. over de handreiking non-discriminatie by design

De motie van het lid Van Baarle c.s.26 constateert dat de regering de handreiking non-discriminatie by design heeft opgesteld en verzoekt de regering om één jaar na de verspreiding van deze handreiking te onderzoeken in hoeverre de handreiking non-discriminatie by design bekend is bij relevante overheidsdiensten en lokale overheden en te onderzoeken in hoeverre de aanbevelingen worden geïmplementeerd en de Kamer daarover te informeren. In een daaropvolgende motie over de handreiking, verzoekt de motie van het lid Van Baarle c.s.27 om de handreiking ook te verspreiden onder private bedrijven.

Ik ga deze moties als volgt uitvoeren. De Audit Dienst Rijk (ADR) is gevraagd om te kijken in hoeverre de handreiking bekend is bij overheidsorganisaties. De ADR zal ook vaststellen of de handreiking in de praktijk toereikend is en of er aanvullende behoeften zijn bij overheidsorganisaties. Op basis van resultaten van deze onderzoeken zal ik een communicatiestrategie opzetten voor effectief gebruik van de handreiking in de praktijk. De resultaten van de onderzoeken verwacht ik einde van dit jaar en zal ik gebruiken bij het eerdergenoemde implementatiekader «ínzet van algoritmen» die voor het Rijk en andere overheden wordt opgesteld. In tabel 1 worden meerdere acties genoemd om de handreiking verder onder de aandacht te brengen en om ervaringen met biastoetsing tussen overheidsorganisaties te delen. Ik ga eerst aan de slag met een communicatiestrategie en effectiever gebruik van de handreiking binnen de overheid.

c) Stand van zaken uitvoering motie van het lid Koekoek c.s. over het stopzetten van algoritmische systemen

De motie van het lid Koekkoek28 verzoekt de regering om met een voorstel te komen voor technische en organisatorische maatregelen die ervoor zorgen dat voorafgaand aan het in gebruik nemen van algoritmen en IT-systemen door de rijksoverheid en uitvoeringsorganisaties wordt getoetst op mogelijke discriminerende effecten. De motie verzoekt vervolgens te onderzoeken welke mogelijkheden er zijn om de implementatie of het gebruik van discriminerende algoritmen en IT-systemen stop te zetten wanneer niet kan worden vastgesteld dat zij geen discriminerende werking hebben.

Het eerste deel van de motie neemt het kabinet mee in het implementatiekader «ínzet van algoritmen» waarbij het de bedoeling is om voorafgaand aan het gebruik van algoritmische toepassingen extra maatregelen te vragen van overheidsorganisaties om discriminatie te voorkomen. Bij het gebruik van algoritmen kunnen zich echter ook risico’s voordoen. Het is van belang dat er ook naar de daadwerkelijke (uit)werking van algoritmes wordt gekeken en vastgesteld wordt of effecten gelijk zijn voor verschillende groepen. Dit neem ik mee in de uitwerking van het toezicht in de werkagenda.

Het tweede deel van de motie gaat het kabinet dit najaar juridisch laten uitzoeken.

3. Transparantie over de inzet van algoritmen bij de overheid

Het kabinet vindt transparantie over het gebruik van algoritmen door overheden van groot belang, omdat dit het publiek en het parlement beter in staat stelt om te controleren hoe de overheid werkt. Daarbij kan publieksvoorlichting een rol spelen.29

Het kabinet vergroot de transparantie over de inzet van algoritmen. Het is belangrijk dat burgers de overheid kunnen volgen en kritisch kunnen bevragen of zij zich aan de regels houdt. Daarom gaat het kabinet overheidsorganisaties verplichten een algoritmeregister op te stellen. Het algoritmeregister bevat in ieder geval hoog-risico algoritmen. Het kabinet wil verder in overleg met overheden komen tot een eenduidige registratie.

De verplichting van het instellen van een register voor hoog-risico algoritmen heeft ook raakvlakken met de hierboven genoemde Europese AI-verordening. In deze AI-verordening wordt een verplichting voorgesteld om hoog-risico AI-systemen die in de EU op de markt zijn en beschikbaar voor gebruik op te nemen in een EU-database. Het is de bedoeling dat deze database openbaar toegankelijk wordt. AI-systemen worden vaak ontwikkeld door bedrijven, maar dat hoeft niet altijd zo te zijn. Het kabinet zet zich in om de samenhang tussen deze verplichting en het algoritmeregister zo goed mogelijk te borgen, zodat bedrijven en overheden geen dubbele of overlappende verplichtingen krijgen, of dat er ongewenste gaten vallen.

a) Stand van zaken uitvoering motie van het lid Klaver c.s. en van het lid Dassen c.s. over een (verplicht) algoritmeregister

Het tweede deel van de motie van het lid Klaver c.s.30 constateert dat binnen de overheid een breed scala aan (zelflerende) algoritmen ingezet wordt, op basis waarvan belangrijke beslissingen worden genomen die grote impact kunnen hebben op veel Nederlanders. De motie verzoekt de regering om een algoritmeregister voor overheden op te zetten. De motie van het lid Dassen c.s.31 verzoekt de regering om het algoritmeregister ook verplicht te stellen voor overheden.

Het kabinet voert de wens van de Tweede Kamer uit, de concrete uitwerking hiervan wordt meegenomen in de werkagenda.

Bij de ontwikkeling van het algoritmeregister wordt gebruik gemaakt van opgedane kennis uit pilots met bestaande algoritmeregisters.32 Het kabinet werkt aan het op een centrale plek toegankelijk maken van algoritmen, gevoed door informatie over algoritmen die overheidsorganisaties zelf publiceren op hun eigen pagina.33 Het kabinet wil verder in overleg met overheden komen tot een eenduidige registratie van algoritmen. De voorlopige uitgangspunten hiervoor zijn geformuleerd. Dan gaat het onder andere om het doel van het algoritme, de (verwachte) consequenties en de proportionaliteit van de inzet van het algoritme. Het komend jaar zullen deze uitgangspunten geëvalueerd en aangescherpt worden en zullen overheden gestimuleerd en gefaciliteerd worden om een algoritmeregister in te richten. Om het algoritmeregister zo in te richten dat het beheer daarvan haalbaar is voor de uitvoering, zal een uitvoeringstoets worden uitgevoerd. Ik heb de betrokken organisaties gevraagd om de algoritmen die de afgelopen tijd zijn doorgelicht zoveel mogelijk voor het eind van het jaar in het register te publiceren.34

Zie voor een overzicht van de activiteiten op dit vlak tabel 1.

Hiermee wordt ook de toezegging afgedaan van de Minister voor Rechtsbescherming om te bekijken of er een jaarlijks overzicht van lopende initiatieven van het gebruik van nieuwe surveillancetechnologie kan worden gegeven, gezien het feit dat nieuwe surveillancetechnologieën in beginsel altijd algoritmen zullen bevatten.

4. Het kabinet versterkt het toezicht op algoritmen

Naast aanvullende wettelijke waarborgen om burgers beter te beschermen, is het van groot belang om te controleren of wet- en regelgeving wordt nageleefd.

In de eerste plaats is het van belang dat de interne controle en toezicht versterkt wordt. Het implementatiekader «inzet van algoritmen» moet hieraan bijdragen. Het toetsingskader van de Algemene Rekenkamer zal de basis vormen voor CIO -oordelen. Het kabinet wijst er verder op dat ook interne toezichthouders op de overheid zoals de Audit Dienst Rijk (ADR) ten aanzien van audits en de Algemene Rekenkamer (ARK) als het gaat om onderzoek, actief zijn met onderzoek en het verder ontwikkelen van toezicht op inzet van algoritmen door de overheid. Recent nog heeft de Algemene Rekenkamer het rapport «Algoritmes getoetst» gepubliceerd. Hierover heeft uw Kamer vragen gesteld. De antwoorden op deze vragen treft u in de bijlage van deze brief aan (Kamerstuk 26 643, nr. 923).

In de tweede plaats is het van belang om het externe toezicht te versterken. Het kabinet investeert in een algoritmetoezichthouder. Het kabinet is momenteel in gesprek met de Autoriteit Persoonsgegevens en andere toezichthouders om samen te bepalen welke taken de nieuwe algoritmetoezichthouder krijgt, op welke soorten algoritmen het toezicht moet houden en wat nodig is voor de inrichting van de toezichthouder. Daarbij kijken we ook naar het internationale kader. De AI-verordening bevat bijvoorbeeld ook bepalingen met betrekking tot toezicht. Dit jaar wil ik gebruiken om samen met andere bewindspersonen op deze punten beslissingen te nemen zodat we in 2023 van start kunnen gaan met het inrichten van de toezichthouder. In 2023 wordt een overzicht gegeven en helderheid geboden in de verhouding tussen bestaande toetsingskaders in relatie tot algoritmen en «wie precies wat doet» als het gaat om de toezichthouders. Ook zal nog bij wet geregeld moeten worden dat de algoritmetoezichthouder wettelijke bevoegdheden krijgt. Wel kan de algoritmetoezichthouder in 2023 van start met taken waarvoor de bevoegdheden niet wettelijk hoeven te worden geregeld.

Voor de algoritmetoezichthouder is inmiddels 1 miljoen euro gereserveerd in 2023, oplopend tot 3,6 miljoen in 2026.

In de werkagenda wordt dit onderwerp verder meegenomen.

Als het om de naleving van de AVG gaat wordt het budget van de Autoriteit Persoonsgegevens structureel verhoogd. In 2023 en 2024 is er respectievelijk 4 en 6 miljoen euro extra en vanaf 2025 komt er structureel 8 miljoen euro bij.

Tot slot

Met de hierboven geschetste acties zet het kabinet een belangrijke stap om tot verantwoorde toepassing van algoritmen te komen en invulling te geven aan de moties van uw Kamer. De acties zullen ook worden opgenomen in de werkagenda Digitalisering waar uw Kamer naar verwachting in oktober over wordt geïnformeerd.

De Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties, A.C. van Huffelen


X Noot
1

Kamerstuk 26 643, nr. 852.

X Noot
2

Kamerstuk 26 643, nr. 842.

X Noot
5

Kamerstuk 21 501-33, nr. 931.

X Noot
8

Kamerstuk 26 643, nr. 871.

X Noot
10

Kamerstuk 26 643, nr. 877.

X Noot
11

Kamerstuk 26 643, nr. 879.

X Noot
12

Kamerbrief geannoteerde agenda van de formele Telecomraad op 3 juni 2022. Kamerstuk. Rijksoverheid.nl.

X Noot
13

Kamerstukken II2021/22, 26 643, nr. 868.

X Noot
14

Artikel 4.1a Mediawet.

X Noot
15

Volgens artikel 3a.3 Mediawet.

X Noot
17

Kamerstuk 26 643, nr. 870.

X Noot
18

Kamerstuk 26 643, nr. 890.

X Noot
19

Kamerstuk 26 643, nr. 765.

X Noot
20

Rathenau Instituut (2022). Algoritmes afwegen. Verkenning naar maatregelen ter bescherming van mensenrechten bij profilering in de uitvoering. (bijlage bij Kamerstukken 26 643 en 33 826, nr. 922).

X Noot
21

Kamerstuk 26 643, nr. 779.

X Noot
23

Kamerstuk 26 643, nr. 835.

X Noot
24

Dit model is geactualiseerd en in maart jl. gepubliceerd op de site Kenniscentrum voor beleid en regelgeving onder de nieuwe benaming Model DPIA Rijksdienst.

X Noot
25

Kamerstukken 33 826 en 26 643, nr. 45.

X Noot
26

Kamerstuk 35 925 VII, nr. 39.

X Noot
27

Kamerstuk 26 643, nr. 829.

X Noot
28

Kamerstuk 30 950, nr. 306.

X Noot
29

Richtlijnen voor het toepassen van algoritmen door overheden en publieksvoorlichting over data-analyses

X Noot
30

Kamerstuk 35 510, nr. 16.

X Noot
31

Kamerstuk 35 925 VII, nr. 26.

X Noot
32

Voor een overzicht van alle bekende registers zie www.algoritmeregister.nl en voor het programma zie www.algoritmeregister.org.

X Noot
34

Bijvoorbeeld de algoritmen die onderzocht zijn door de Algemene Rekenkamer.

Naar boven