26 643 Informatie- en communicatietechnologie (ICT)

32 761 Verwerking en bescherming persoonsgegevens

Nr. 1110 BRIEF VAN DE STAATSSECRETARIS VAN BINNENLANDSE ZAKEN EN KONINKRIJKSRELATIES

Aan de Voorzitter van de Tweede Kamer der Staten-Generaal

Den Haag, 21 december 2023

Sinds januari 2023 heeft de Autoriteit Persoonsgegevens (AP) nieuwe coördinerende, signalerende en ondersteunende taken in het toezicht op algoritmes, zoals afgesproken in het coalitieakkoord (bijlage bij Kamerstuk 35 788, nr. 77). Deze taken zijn aanvullend op haar reguliere toezicht op de bescherming van persoonsgegevens. De nieuwe taken zijn binnen de AP ondergebracht bij de Directie Coördinatie Algoritmes (DCA). Door middel van deze brief informeer ik uw Kamer, mede namens de Minister van Economische Zaken en Klimaat (EZK) en de Minister voor Rechtsbescherming, over de voortgang en activiteiten van de DCA in 2024.

Het afgelopen jaar werd duidelijk dat algoritmes en artificiële intelligentie (AI) onverminderd aanwezig zijn in onze maatschappij. Het toenemende gebruik van AI kan bijdragen aan het creëren van economische en maatschappelijke waarde, maar brengt ook nieuwe opgaven met zich mee. Dit geldt bijvoorbeeld voor het algoritme dat werd ingezet door het Ministerie van Buitenlandse Zaken bij een visumaanvraag1 of het algoritme van Dienst Uitvoering Onderwijs (DUO) om fraude bij studiefinanciering op te sporen; hierop heeft de AP op grond van de Algemene verordening gegevensbescherming (AVG) actie ondernomen.2 Daarnaast brengt de opkomst van generatieve AI,3 en in het bijzonder ook de bekende krachtige taalmodellen (ook wel Large Language Models (LLM’s)) als ChatGPT, nieuwe kansen en uitdagingen met zich mee in een groot aantal sectoren en domeinen.4 Scherp en helder toezicht hierop is een belangrijke randvoorwaarde om te zorgen dat de kansen die deze zich in rap tempo ontwikkelende innovaties bieden op een verantwoorde manier worden benut.5 Heldere communicatie richting burgers en marktpartijen, het delen van informatie over risico’s en incidenten tussen toezichthouders en in gezamenlijkheid optrekken is daarbij van grote meerwaarde: AI en algoritmes houden zich namelijk vaak niet aan de grenzen van een bepaald domein, sector of wetgeving.

Deze brief gaat specifiek in op de activiteiten van de DCA. Ik vind het belangrijk te benadrukken dat algoritmetoezicht niet in een juridisch vacuüm valt. De handhaving van wet- en regelgeving bij algoritmegebruik is ook al onder de bestaande bevoegdheden van verschillende toezichthouders mogelijk. Zo kan de Autoriteit Consument & Markt (ACM) ingrijpen wanneer algoritmes worden gebruikt om consumenten te misleiden en kan de Rijksinspectie Digitale Infrastructuur (RDI) al toezien op algoritmes die worden gebruikt voor de stabiliteit en veiligheid van telecomnetwerken. De AP zelf heeft al ruime handhavende bevoegdheden vanuit de AVG om in te grijpen wanneer een (voorgenomen) verwerking van persoonsgegevens door algoritmes niet rechtmatig, behoorlijk en/of transparant plaatsvindt. Bijvoorbeeld door het bevestigen van normen, het geven van waarschuwingen, stilleggen van verwerkingen of het opleggen van boetes. Het AVG-toezicht op algoritmes en AI is één van de belangrijkste thema’s van de AP en is vanaf 2023 ook versterkt. In de eerste Risicoanalyse Algoritmes Nederland (RAN) heeft de AP aanbevolen om voor hoog risico toepassingen het invullen van het algoritmeregister door overheidsinstellingen in Nederland verplicht te stellen. In de RAN vraagt de AP ook aan private organisaties met een significant maatschappelijke taak om proactief stappen te zetten richting meer transparantie en uitlegbaarheid. De AP volgt momenteel nadrukkelijk de voortgang op transparantie en uitlegbaarheid van algoritmen binnen de overheid. Daarnaast werken de RDI en de AP in aanloop naar de vaststelling van de AI-verordening samen met andere toezichthouders om het toezicht op AI-systemen vorm te geven en hierover advies uit te brengen. Nu er een politiek akkoord is bereikt is over de AI-verordening biedt dit een concreet, helder en toekomstbestendig kader om organisaties actief aan te spreken op de noodzakelijke beheersing van hoog-risico AI-toepassingen.

In de inrichtingsnota6 heb ik uw Kamer toegezegd om in het najaar van 2023 nader in te gaan op het plan om budget te alloceren en kaders te stellen waarmee de AP in 2024 de DCA kan opschalen. Vanaf 2024 is er sprake van een verdubbeling van de financiële middelen: van 1 miljoen in 2023 naar 2 miljoen euro in 2024.7 Alle in deze brief beschreven activiteiten zijn belegd bij de DCA als directie binnen de AP.

Samenvattend zal de AP zich met haar activiteiten en opschaling van de DCA blijven richten op de bestaande doelen: (I) het signaleren, analyseren en rapporteren van algoritmerisico’s; II) het versterken van samenwerking tussen toezichthouders en; III) het komen tot guidance, gezamenlijke uitleg en overzicht in normen en kaders), waarbij deze doelen voor 2024 verder zijn aangescherpt.

De aanscherpingen betreffen aanvullende activiteiten die gericht zijn op het verder verdiepen van de bestaande doelen. Dan gaat het om proactieve signalering en versterking van de kennispositie, waarbij onder andere informatiekanalen worden opgezet om sneller op de hoogte te zijn van risico’s en effecten van algoritmes. Ook heeft de DCA bij de AP tot taak om in kaart te brengen welke publieke loketten er zijn om algoritme-gerelateerde problematiek, zoals discriminatie, te melden, en in hoeverre burgers loketten weten te vinden. Tot slot zal met bijvoorbeeld discussiedocumenten en bijeenkomsten ervoor worden gezorgd dat het algoritmetoezicht in Nederland wordt geïnformeerd en aansluit op ontwikkelingen op het gebied van internationale verdragen, wetgeving, normen, en standaarden die zullen gelden voor de ontwikkeling of het gebruik van algoritmes. Ook is het belangrijk dat deze inzichten en bevindingen hun weg vinden bij de Europese en internationale ontwikkelingen. Deze informatie zal in principe ook publiekelijk toegankelijk zijn.

In deze brief ga ik allereerst in op de beschikbare financiële middelen en de kaders waarmee de AP de activiteiten van de DCA verder kan opschalen. Daarbij wordt ingegaan op de doelen waarop de DCA zich vanaf januari 2024 kan richten, evenals de activiteiten die worden ondernomen om deze doelen te behalen. Vervolgens heb ik de AP gevraagd verslag te doen van de voortgang van de activiteiten van de DCA in 2023.

Tot slot besteed ik aandacht aan de verschillende, in de inrichtingsnota algoritmetoezichthouder aangekondigde, vervolgstappen. Dit gaat in het bijzonder om het voeren van een structurele dialoog met alle toezichthouders in het digitale domein. Daarnaast gaat het over het verkennen in hoeverre de ingezette trajecten rondom het verder reguleren van artificiële intelligentie (AI) nieuwe toezichtscomponenten bevatten en in hoeverre de AP hierin een rol zou kunnen spelen.8

1. Doelen en activiteiten van de DCA bij de AP vanaf 2024

In het kader van de opschaling van de DCA door de AP zal ik ingaan op de aangescherpte doelen en aanvullende activiteiten waarop de DCA zich vanaf januari 2024 zal richten. Over deze aangescherpte doelen is overeenstemming bereikt met de AP. Deze zijn onder meer tot stand gekomen op basis van de opgedane kennis en ervaringen van de AP in 2023 en de expertsessies die op 31 mei jl. hebben plaatsgevonden met 36 deskundigen (waaronder wetenschappers, toezichthouders en vertegenwoordigers van ngo’s en bedrijven) uit verschillende domeinen en sectoren.

Tijdens de expertsessies werd door de aanwezige experts aangegeven dat de DCA zich moet blijven richten op de bestaande doelen (zie tabel in bijlage 1). Dit onder meer vanwege het budget (2 miljoen euro in 2024) en de ambitieuze omvang van de bestaande doelen. Met de AP is overeenstemming bereikt over het feit dat het uitgangspunt blijft om domein-overstijgende activiteiten te ondernemen die erop zijn gericht het bestaande toezichtslandschap en de bescherming van de grondrechten bij de ontwikkeling en inzet van algoritmes te versterken. De bestaande bevoegdheden van andere (sectorale) toezichthouders blijven hierbij intact.

Voortgang en aangescherpte doelen 2024

In lijn met de inrichtingsnota algoritmetoezichthouder zijn de volgende (aangescherpte) doelen voor 2024 geformuleerd op basis waarvan de AP de DCA zal opschalen en activiteiten zal ondernemen:

  • I. Het proactief signaleren en analyseren van sectoroverstijgende en overkoepelende risico’s en effecten van de ontwikkeling en inzet van algoritmes en het verzamelen en delen van kennis daarover;

  • II. Het optimaliseren van (bestaande) samenwerkingen met colleges, markttoezichthouders en rijksinspecties, en het verder in kaart brengen van overkoepelend toezicht op het gebied van algoritmes en AI;

  • III. Het komen tot gezamenlijke normuitleg en guidance en het scheppen van overzicht in wettelijke en andere kaders op het vlak algoritmes en AI.

Sinds haar start in januari van dit jaar heeft de DCA voortgang geboekt op de in de inrichtingsnota geformuleerde doelen voor 2023. Hieronder doet de AP verslag van de voortgang op de doelen van de DCA in 2023 en de aanvullende activiteiten die de DCA in 2024 zal verrichten.

Voortgang DCA doel I (signalering van risico’s) in 2023

In 2023 is het netwerk met organisaties die zich met algoritmerisico’s en algoritmetoezicht bezighouden, versterkt en vergroot in binnen- en buitenland. In dit netwerk worden sectoroverstijgende signalen en kennis gedeeld met toezichthouders, wetenschappers, experts, burgerrechtenorganisaties, publieke en private organisaties en andere instanties in binnen- en buitenland. Dit netwerk is noodzakelijk om risico’s en effecten te kunnen signaleren, analyseren en hierover te kunnen rapporteren. Ook heeft de directie een nieuwe rapportagecyclus opgezet om kennis structureel en met een breed publiek te delen; de RAN. De eerste RAN is in juli 2023 verschenen en wordt tweemaal per jaar in het Nederlands en Engels gepubliceerd. De tweede editie verschijnt in december 2023 en zal door de AP aan uw Kamer worden aangeboden.

Aanvullende activiteiten in 2024 onder doel I

  • Om sectoroverstijgende risico’s en effecten beter en meer structureel te kunnen signaleren, analyseren en kennis daarover te delen zal de DCA zich richten op het opzetten van een structuur van proactieve signalering tussen colleges, markttoezichthouders en rijksinspecties. Aangezien dit één van de hoofddoelen behelst, kan het proactief ontvangen van signalen een meerwaarde bieden. Op deze manier ontstaat er een (gedeeld) samenhangend en vollediger beeld van de sectoroverstijgende risico’s, trends en ontwikkelingen rondom algoritme-inzet in Nederland. Dit stelt alle toezichthouders die te maken krijgen met algoritmes beter in staat om binnen hun eigen mandaat en bevoegdheden effectief toezicht te houden op algoritmes.

  • Ook zal de DCA zich inzetten om de kennispositie van de DCA verder te versterken. Dit betreft zowel het uitbreiden van het team met diverse soorten expertise als ook het uitbreiden van het verzamelen en inzichtelijk maken van informatie over (de snelle ontwikkeling van) algoritmes en algoritmetoezicht.

Voortgang DCA doel II (versterken van samenwerkingen) in 2023

De DCA heeft zich ingespannen om andere colleges, markttoezichthouders en rijksinspecties te raadplegen, te betrekken en samenwerking betreffende algoritmetoezicht te versterken. Waar mogelijk is daarbij bijgedragen aan bestaande structuren, zoals de Werkgroep Toezicht op AI, om het toezichtslandschap zo breed mogelijk te betrekken. Ook voor het adviseren op en uitvoering geven aan het toezicht op nieuwe wetgeving is geïnvesteerd in uitbreiding van de samenwerking. Daarnaast is het Samenwerkingsplatform Digitale Toezichthouders (SDT) uitgebreid met een Algoritme en AI-onderdeel dat samenwerking en (bestuurlijke) afstemming tussen een brede groep toezichthouders faciliteert. Tot slot heeft de DCA bij een brede groep toezichthouders een enquête uitgezet om algoritmerisico’s en het toezicht daarop verder in kaart te brengen. De DCA zal in de aankomende RAN rapporteren.

Aanvullende activiteiten in 2024 onder doel II

  • De DCA zal zich richten op het uitvoeren van een inventarisatie van de bestaande loketten om meldingen te doen over algoritmegerelateerde problematiek. Specifiek zal hierbij de vindbaarheid voor burgers, het onderling doorverwijzen tussen toezichthouders en mogelijke kansen voor versterking worden belicht. Uit de expertsessies die eind 2022 plaatsvonden9 kwam duidelijk naar voren dat een nieuw loket voor de algoritmetoezichthouder mogelijk leidt tot een overschot aan loketten (de zogenoemde «lokettenjungle»). Bovendien is niet altijd meteen duidelijk of problematiek algoritmegerelateerd is. Wel kwam uit de expertsessies van 31 mei naar voren dat het van meerwaarde kan zijn voor burgers en organisaties als er een overzicht wordt gemaakt van de huidige loketten waar men terecht kan met vragen en klachten over algoritmes. Daarom zal de DCA zich focussen op het samenstellen van een overzicht van bestaande loketten en onderzoeken in hoeverre burgers deze nu kunnen vinden om klachten over algoritmes in te dienen. Dit sluit ook goed aan bij de al ingezette activiteit om (lacunes in) het toezichtslandschap in kaart te brengen.

Voortgang DCA doel III (streven naar gezamenlijke normuitleg) in 2023

De DCA heeft vanuit haar activiteiten voor algoritmetoezicht diverse departementen geadviseerd over de ontwikkeling van nieuwe kaders en regels, waaronder ook de AI-verordening. Daarnaast zijn door de DCA in verschillende fora, zowel nationaal als internationaal, bijdragen geleverd om het toezicht op algoritmes en relevante ontwikkelingen op dat gebied toe te lichten.

Aanvullende activiteiten in 2024 onder doel III

  • De DCA zal zich richten op het komen tot (laagdrempelige) voorlichting gericht op gebruikers van algoritmes en personen/groepen die potentieel daardoor worden geschaad. Juist voor een toezichthouder die zich bezighoudt met een technologisch onderwerp dat zich in rap tempo ontwikkelt en potentieel van grote impact kan zijn op de samenleving en het leven van burgers is het van belang om interactie met de samenleving aan te gaan op dit onderwerp. Deze voorlichting zal gericht zijn op gebruikers van algoritmes, zoals generatieve AI, en personen of groepen die potentieel worden geraakt door algoritmegebruik.

  • Omdat de ontwikkelingen op het gebied van verantwoorde ontwikkeling en inzet van algoritmes voor een belangrijk deel ook op Europees en internationaal niveau plaatsvinden, zal de DCA een bijdrage leveren aan de aansluiting op internationale verdragen, wetgeving, normen, guidance en standaarden. Enerzijds gaat het erom dat het algoritmetoezicht in Nederland op deze ontwikkelingen wordt voorbereid en erop aansluit. Daarin zal de DCA een bijdrage leveren met bijvoorbeeld workshops en publicaties. Anderzijds zal de DCA inzichten en bevindingen die in Nederland worden opgedaan inbrengen in internationale fora, met het oog op de ontwikkeling van die internationale kaders.

2. Vervolgstappen algoritmetoezicht

Naast de opschaling van de DCA – worden nog andere stappen gezet om het toezichtlandschap op algoritmes te versterken en verder vorm te geven. Ik zal daarom nader ingaan op de structurele dialoog die het kabinet voert met de digitale toezichthouders en de gedachtevorming rondom de potentiële rol van de AP bij relevante trajecten die erop gericht zijn algoritmes verantwoord in te zetten.

Gezien de hoeveelheid Europese wet- en regelgeving die de komende jaren zal worden geïmplementeerd of in werking treedt – zoals onder meer de Europese AI-verordening, Data-verordening (DA) en Digitale Dienstenverordening (DSA) – is het van belang om de samenhang rondom het toezicht te bewaken. Uit dit scala aan verordeningen binnen het digitale domein komen verschillende soorten toezicht voort die qua governance en systematiek kunnen verschillen. Juist daarom is het van groot belang om een goede afstemming te hebben tussen toezichthouders en het kabinet en hierbij te waken voor de onderlinge samenhang. Consistent en samenhangend toezicht is, vanuit het perspectief van zowel ondertoezichtgestelden als toezichthouders, essentieel. Over deze onderwerpen sprak ik – in gezamenlijkheid met ook de Minister voor Rechtsbescherming en EZK – dit jaar meermaals met zeven digitale toezichthouders. Dit betrof de vier leden van het Samenwerkingsplatform Digitale Toezichthouders (SDT): de ACM, de Autoriteit Financiële Markten (AFM), de AP, het Commissariaat voor de Media (CvdM) en daarnaast het College voor de Rechten van de Mens (CRM), De Nederlandsche Bank (DNB) en de RDI. De uitkomsten van mijn gesprek met de digitale toezichthouders van 27 maart jl., heb ik in het tweede kwartaal van dit jaar met uw Kamer gedeeld.10

De noodzaak tot samenwerking en brede afstemming tussen toezichthouders binnen het digitale domein werd breed onderschreven door toezichthouders. Aan deze structurele dialoog is op 12 juli jl. en 1 december jl. een vervolg gegeven, waarbij van gedachten is gewisseld over het toezicht op AI en de aankomende AI-verordening. Dit gesprek zal ook in 2024 worden voortgezet.

a. Verkennen (potentiële) rol DCA in relevante trajecten

In 2023 heeft het kabinet verder verkend in hoeverre ingezette trajecten rondom algoritmes behulpzaam zijn bij het nader vormgeven van het algoritmetoezicht. Het gaat hier in het bijzonder om het algoritmeregister, het implementatiekader voor de inzet van algoritmen (IKA), een mensenrechtentoets en periodieke audits.

i. Het algoritmeregister

Eind december 2022 lanceerde ik het nationaal algoritmeregister.11 Op dit moment geldt er nog geen wettelijke verplichting voor het registreren van algoritmes door overheden. Zoals benoemd in de verzamelbrief «algoritmes reguleren», die ik voor het zomerreces met uw Kamer deelde, zal een wetsvoorstel om te komen tot een nationale aanvullende registratieverplichting in samenhang met de Europese AI-verordening worden bezien.12 Dit betekent dat eventuele (nieuwe) toezichtstaken, zoals het mogelijk controleren of overheden voldoen aan bepaalde registratieverplichtingen, hiermee in overeenstemming dienen te worden gebracht. Momenteel bevat het algoritmeregister meer dan 235 algoritmes. Dit verschaft toezichthouders, zoals de DCA bij de AP, al inzichten in verschillende aspecten die een rol spelen bij het algoritme-inzet van overheden, bijvoorbeeld mogelijke risico’s en maatregelen om die risico’s te verkleinen.

ii. Het Implementatiekader voor de Inzet van Algoritmen (IKA)

Op 7 juli jl. deelde ik de eerste versie van het IKA met uw Kamer.13 Deze versie wordt op dit moment verder doorontwikkeld. Dit betekent dat het IKA wordt geactualiseerd en aangepast op basis van suggesties voor verbeteringen, nieuwe normenkaders of wetgeving (zoals de AI-verordening). Dit betreft een doorlopend proces. De DCA heeft kennis en inzichten gedeeld om relevante wettelijke kaders en normen te inventariseren en daaraan uitleg te geven in aanloop naar de eerste versie van het IKA.

iii. Mensenrechtentoets (voor algoritmes)

Een mensenrechtentoets (zoals het Impact Assessment voor Mensenrechten bij de inzet van Algoritmes: IAMA) is een middel dat kan helpen om tijdig (voor het in gebruik nemen of evalueren van een algoritmisch systeem) vast te stellen of wet- en regelgeving is nageleefd en of algoritmes in lijn zijn met publieke waarden en grondrechten. Uw Kamer heeft gevraagd om een mensenrechtentoets te verplichten voorafgaand aan de ingebruikname van algoritmen wanneer die worden ingezet om evaluaties van of beslissingen over mensen te maken.14 Zoals ik schreef in de verzamelbrief «algoritmes reguleren», wil ik een eventuele verplichting van een mensenrechtentoets in samenhang zien met de nieuwe verplichtingen die volgen uit de AI-verordening waarover nu nog over wordt onderhandeld in de triloog. In de versies van de Raad en van het Europees Parlement is de bescherming van mensenrechten verstevigd door de verplichting voor aanbieders van hoog-risico AI-systemen om mogelijk risico’s op schending van fundamentele rechten in de verplichte risicoanalyse expliciet mee te nemen. In afwachting van de AI-verordening heeft uw Kamer per motie van het lid Dekker-Abdulaziz gevraagd om alle nieuwe algoritmes met een hoog risico worden gebruikt een mensenrechtentoets (zoals een IAMA) te laten ondergaan.15 Hier zal ik – zoals toegezegd in de verzamelbrief «algoritmes reguleren» – uitvoering aan geven door in ieder geval alle nieuwe hoog-risico AI-systemen in de zin van de AI-verordening die binnen de Rijksoverheid worden gebruikt in het algoritmeregister te laten registreren. Voor wat betreft het toezicht zijn (on)uitgevoerde mensenrechtentoets mogelijk van meerwaarde voor de activiteiten die de DCA uitvoert, zoals bijvoorbeeld het signaleren van risico’s en effecten van de ontwikkeling en inzet van algoritmes. Dit perspectief zal ook worden meegenomen in het verkennen of vormgeven van de (wettelijke) verplichting en controle op de uitvoering van de mensenrechtentoets en het controleren daarvan.

iv. Onderzoek naar periodieke audits van algoritmes

Om de grip vooraf, tijdens en na het gebruik van algoritmes te versterken kunnen periodieke audits (bijvoorbeeld op jaarbasis) een middel zijn om op systematische en frequente basis het algoritmegebruik van overheden in kaart te brengen. Deze audits verplichten (overheids)organisaties om hun algoritmes regelmatig te blijven evalueren en bieden, bijvoorbeeld toezichthouders, inzage in algoritmegebruik en bieden daarnaast, onder meer aan interne functionarissen in de organisatie en toezichthouders op die organisatie, inzage in de daadwerkelijke inzet en risicobeheersing van algoritmes.

Eerder dit jaar schreef ik uw Kamer al over de mogelijkheden rondom audits op algoritmegebruik door overheden. Toen gaf ik aan dat de Auditdienst Rijk (ADR) en Algemene Rekenkamer al regelmatig (op eigen initiatief) onderzoeken starten naar algoritmegebruik bij de (Rijks)overheid.16

De AI-verordening bevat bovendien verschillende verplichtingen die raken aan het uitvoeren van audits rondom de ontwikkeling (aanbieders) en het gebruik van hoog-risico AI-systemen (gebruikers).

In 2024 zal de wenselijkheid van het ontwikkelen van periodieke audits (voor bijvoorbeeld overheidspartijen) worden onderzocht onder coördinatie van BZK. Hierbij zal ook aandacht zijn voor alle ontwikkelingen die op dit moment binnen het (toezichts)landschap al lopen op het gebied van audits voor (overheids)algoritmes. Deze audits zouden de grip op het gebruik van algoritmes vooraf, tijdens en na het gebruik mogelijk (aanvullend) kunnen waarborgen.

3. Tot slot

De DCA bij de AP zal zich ook in 2024 binnen haar coördinerende, signalerende en ondersteunende taken blijvend richten op een betere bescherming en controle van publieke waarden en grondrechten bij de ontwikkeling en inzet van algoritmes. Met bovenstaande acties, de financiële impuls en aangescherpte doelen wordt het toezicht op algoritmes in samenhang duurzaam versterkt.

De Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties, A.C. van Huffelen


X Noot
1

Autoriteit Persoonsgegevens (2023). «Rapportage Algoritmerisico’s Nederland».

X Noot
3

Generatieve AI is AI die op basis van een grote hoeveelheid data, content – zoals tekst, audio, afbeeldingen of video’s – genereert op basis van input, zoals bijvoorbeeld «prompts».

X Noot
4

Het kabinet brengt begin 2024 haar visie op generatieve AI (zoals LLM’s) uit.

X Noot
5

In het kader van het toezicht op LLM’s zijn de Europese gegevensbeschermingsautoriteiten (waaronder de AP) gestart met een taskforce ChatGPT: https://edpb.europa.eu/news/news/2023/edpb-resolves-dispute-transfers-meta-and-creates-task-force-chat-gpt_en.

X Noot
7

Het gaat concreet om 1 miljoen euro in 2023, 2 miljoen euro in 2024, 3 miljoen euro in 2025 en vanaf 2026 structureel 3,6 miljoen euro.

X Noot
8

Onder AI worden hier complexere algoritmische systemen met een bepaalde mate van autonomie verstaan.

X Noot
9

Zie voor de rode draden uit deze expertsessies de inrichtingsnota algoritmetoezichthouder (2022) en bijlage 1.

X Noot
10

Kamerstukken II 2022/23, 26 643, nr. 1029.

X Noot
12

Kamerstukken II 2022/23, 26 643, nr. 1056.

X Noot
13

Kamerstukken II 2022/23, 26 643, nr. 1056.

X Noot
14

Kamerstuk 26 643, nr. 835.

X Noot
15

Kamerstuk 36 360 VI, nr. 14.

X Noot
16

Kamerstukken II 2022/23, 26 643, nr. 1029.

Naar boven