21 501-33 Raad voor Vervoer, Telecommunicatie en Energie

Nr. 1043 VERSLAG VAN EEN SCHRIFTELIJK OVERLEG

Vastgesteld 30 oktober 2023

De vaste commissie voor Digitale Zaken heeft een aantal vragen en opmerkingen voorgelegd aan de Minister van Economische Zaken en Klimaat en de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties over de brief van 6 oktober 2023 over de geannoteerde agenda informele Telecomraad 23-24 oktober 2023 (Kamerstuk 21 501-33, nr. 1034).

De vragen en opmerkingen zijn op 13 oktober 2023 aan de Minister van Economische Zaken en Klimaat en de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties voorgelegd. Bij brief van 20 oktober 2023 zijn de vragen beantwoord.

De voorzitter van de commissie, Valstar

Adjunct-griffier van de commissie, Muller

Inhoudsopgave

I

Vragen en opmerkingen vanuit de fracties en reactie van de bewindspersonen

2

 

Vragen en opmerkingen van de leden van de VVD-fractie

2

 

Vragen en opmerkingen van de leden van de D66-fractie

4

 

Vragen en opmerkingen van de leden van de PVV-fractie

10

 

Vragen en opmerkingen van de leden van de SP-fractie

12

I Vragen en opmerkingen vanuit de fracties en reactie van de bewindspersonen

Vragen en opmerkingen van de leden van de VVD-fractie

De leden van de VVD-fractie hebben met interesse kennisgenomen van de stukken over de Telecomraad (Informeel) d.d. 23–24 oktober 2023 (Kamerstuk 21 501-33, nr. 1034). Deze leden hebben nog enkele vragen en opmerkingen.

Het stemt de leden van de VVD-fractie positief dat Nederland het Europees Parlement wil steunen in haar positie om aanbevelingsalgoritmen als hoog risico aan te willen merken, conform de motie van de leden Rajkowski en Dekker-Abdulaziz (Kamerstuk 30 821, nr. 193). Aangezien er op 25 oktober trilogen gepland staan om akkoorden te bereiken op een aantal onderwerpen, vragen deze leden of de aanbevelingsalgoritmen een onderwerp van bespreking zullen zijn bij deze eerstvolgende onderhandeling? Hoe staan de overige lidstaten tegenover dit onderwerp? Wat is de verwachte uitkomst van de onderhandeling hierover?

Antwoord kabinet:

De onderhandelingen over de AI-verordening bevinden zich momenteel in de laatste fase, en omdat er nog geen akkoord is bereikt, liggen alle onderwerpen nog op tafel. Daarmee ligt ook de vraag over de classificatie van hoog risicosystemen, en de vraag of aanbevelingsalgoritmen daaronder moeten vallen op tafel. De verschillende onderhandelingsposities zijn in het belang van de onderhandelingen niet openbaar.

De leden van de VVD-fractie zijn verheugd te lezen dat Nederland zich inzet voor een mogelijke verdergaande verplichting voor watermerken, die zich ook richt op door Artificiële Intelligentie (AI) gegenereerde tekst- of beeldmateriaal waarbij gebruik is gemaakt van auteursrechtelijk materiaal in de trainingsdata, conform de motie van de leden Dekker-Abdulaziz en Rajkowski (Kamerstuk 30 821, nr. 185).

Het is volgens de leden van de VVD-fractie cruciaal dat een gebruiker die general-purpose artificial intelligence (GPAI) wil inzetten voor een specifieke hoog-risicotoepassing toegang heeft tot de benodigde informatie om te voldoen aan de voorschriften van de AI-verordening. Deze informatie kan alleen worden verkregen als de aanbieder van GPAI deze verstrekt. Daarom is het noodzakelijk dat de AI-verordening de aanbieders van GPAI verplicht om dergelijke transparantie te bieden. Geldt er een informatieverplichting voor deze aanbieders van GPAI aan alle gebruikers of slechts aan gebruikers die GPAI gebruiken voor een specifieke hoog-risicotoepassing? Waarom is hiervoor gekozen? Welke essentiële informatie wordt hierbij gedeeld?

Antwoord kabinet:

In de Raadstekst staat dat wanneer GPAI-systemen ingezet kunnen worden voor hoog-risico toepassing uit de AI-verordening (en dit niet is uitgesloten – zie ook antwoord D66), er bepaalde eisen gaan gelden. Daarnaast moet de aanbieder van het GPAI-systeem inderdaad hulp bieden aan partijen die het systeem als een nieuw hoog-risico systeem op de markt brengen, het als hoog-risico systeem in gebruik nemen of het verwerken in een nieuw hoog-risico AI-systeem. Deze partijen worden in al deze situaties zélf een hoog-risico aanbieder (en dus geen gebruiker) van het GPAI-systeem omdat ze het oorspronkelijke doel van het systeem veranderen. Dit heeft als gevolg dat deze «nieuwe» hoog-risico aanbieders aan de hoog-risico eisen van de AI-verordening moeten voldoen. Om hen in staat te stellen aan deze eisen te voldoen, moet de oorspronkelijke aanbieder van het GPAI-systeem hen helpen en de noodzakelijke informatie verschaffen. Omdat er voor laag-risico toepassingen geen aanvullende eisen gelden in de AI-verordening, is er geen aanvullende informatieverplichting richting gebruikers of aanbieders die het systeem voor laag-risico doeleinden inzetten.

In het artikel is niet in detail opgenomen om welke informatie het gaat, dit kan wel nog later in meer detail door de Commissie in een uitvoeringshandeling worden vastgelegd.

Het EP wijkt hier enigszins vanaf. In de EP-tekst worden partijen alleen zelf aanbieder van een «nieuw» hoog-risico AI-systeem als ze het oorspronkelijke GPAI-systeem wezenlijk (technisch) aanpassen. Als dit gebeurt, dan moet de oorspronkelijke aanbieder van het GPAI-systeem vergaande assistentie verlenen aan de «nieuwe» hoog-risico aanbieder.

Dit verschilt van de Raadstekst op twee belangrijke punten. In de EP-tekst is het ten eerste niet mogelijk voor GPAI-aanbieders om hoog-risico gebruik uit te sluiten en zal deze dus altijd moeten samenwerken met «nieuwe» hoog-risico aanbieders die het systeem hebben aangepast. Daarnaast is direct gebruik (zonder het systeem aan te passen) van GPAI-systemen voor hoog-risico toepassingen in de EP-tekst niet gereguleerd. Hoewel het EP wel eisen stelt aan de Foundation Models achter sommige GPAI-systemen, is dit volgens het kabinet een lacune die in de uiteindelijke versie van de AI-verordening wel geadresseerd moet worden. De Raadstekst voorziet hierin, zoals eerder geschetst.

Hoe verhoudt de Nederlandse positie met betrekking tot GPAI zich tot de posities van andere lidstaten, zoals Frankrijk en Duitsland?

Antwoord kabinet:

Het kabinet kan niet ingaan op de individuele posities van andere lidstaten, omdat deze niet openbaar zijn. Deze inzet wordt verder toegelicht in het antwoord op de vragen van de PVV van dit Schriftelijk Overleg.

De leden van de VVD-fractie vinden het essentieel dat de regels voor AI duidelijk en praktisch zijn, én toegankelijk voor kleine en/of nieuwe partijen om concurrentie te bevorderen. Ondersteuning bij de naleving van deze regels is belangrijk, vooral omdat de omvang van de nieuwe regelgeving nieuwkomers ontmoedigt. Daarnaast zien deze leden de noodzaak in de maatschappij om de afronding van de AI-verordening niet onnodig te vertragen. Welke rol zal Nederland innemen als het gaat om het bevorderen van innovatie en (het verkrijgen en behouden van) een sterke positie in AI-ontwikkelingen? Op welke maatregelen kunnen zij inzet verwachten van het kabinet in het kader van het borgen van de uitvoerbaarheid en proportionaliteit voor ondernemers en andere kleine en/of nieuwe partijen?

Antwoord kabinet:

Het kabinet onderschrijft het belang van duidelijke en praktische regels voor AI voor bedrijven, met name voor het MKB.

Naast het vastleggen van duidelijke regels in de wetgeving zelf, is het belangrijk dat AI-aanbieders in Nederland ondersteund worden bij het toepassen van deze regels. Dit kan op verschillende manieren. Ten eerste biedt de AI-verordening de mogelijkheid tot het opzetten van regulatory sandboxes. Hierbinnen kunnen toezichthouders samen met marktpartijen werken aan oplossingen voor compliance-vraagstukken. AI-aanbieders kunnen hier dus hulp krijgen bij het beantwoorden van lastige vragen over de regelgeving, en toezichthouders kunnen de uitkomsten hiervan vervolgens gebruiken voor duidelijkere en effectievere toelichting over de regelgeving.

Daarnaast gaat het kabinet zich al tijdens de implementatie van de AI-verordening inzetten voor duidelijke voorlichting over de regels richting aanbieders en gebruikers van AI. Zo kunnen deze partijen zich zo goed mogelijk voorbereiden op de inwerkingtreding van de AI-verordening.

Vragen en opmerkingen van de leden van de D66-fractie

De leden van de D66-fractie hebben met interesse kennisgenomen van de geannoteerde agenda voor de Telecomraad (Informeel) van 23 en 24 oktober. Deze leden hebben nog enkele vragen, suggesties en opmerkingen.

Uit de geannoteerde agenda begrijpen de leden van de D66-fractie dat het in de lijn der verwachting ligt dat er nog eind dit jaar een politiek akkoord ligt over de inhoud van de AI-verordening. Er zijn nog enkele open eindjes. Zo blijkt dat het Europees Parlement (EP) de eisen voor Foundation Models direct in de verordening wil opnemen, daar waar de Raad deze separaat wil opnemen in een uitvoeringshandeling. Kunt u toelichten wat het verschil is en wat de reden is voor een separate uitvoeringshandeling?

Antwoord kabinet:

Het EP stelt inderdaad directe eisen voor Foundation Models (FMs) voor. Dit zijn AI-modellen die, volgens de definitie van het EP, met veel computerkracht getraind zijn op een brede dataset. Deze modellen genereren generieke output en kunnen aangepast worden om veel verschillende taken te verrichten. Een FM moet verwerkt worden in een AI-systeem voordat het gebruikt kan worden.

De Raad richt zich op General Purpose AI (GPAI), die in verschillende contexten ingezet kan worden en in vele andere AI-systemen verwerkt kan worden. Wanneer GPAI-systemen ook ingezet kunnen en mogen worden voor hoog-risico toepassing uit de AI-verordening, gaan er eisen gelden. Dit zijn dezelfde type eisen als die voor hoog-risico AI-systemen (onder andere risicomanagement, databeheer en menselijk toezicht). Omdat de eisen voor hoog-risico AI-systemen niet één op één toepasbaar zijn op GPAI-systemen, worden deze eisen voor GPAI gespecificeerd en aangepast in uitvoeringshandelingen zodat tijd kan worden genomen om de eisen zorgvuldig op te stellen. Wanneer een aanbieder van een GPAI-systeem het gebruik van het systeem voor hoog-risicotoepassingen verbiedt, zijn de eisen niet van toepassing. Deze uitsluiting moet wel te goeder trouw zijn.

Een ander discussiepunt blijft het gebruik van biometrische gegevens, zo merken de leden van de D66-fractie op. De Nederlandse inzet blijft gericht op het toestaan van uitzonderingen op het gebied van real-time biometrische identificatie. Kunt u aan de leden van deze fractie zo concreet mogelijk verduidelijken om welke uitzonderingen dit, volgens de Nederlandse inzet, gaat? Wat zijn precies de proportionele en effectieve uitzonderingen? Kunt u aangeven hoe «ruim» gewenst is in uw opvatting, aangezien real-time gezichtsherkenning wat deze leden betreft al te verstrekkend is.

Antwoord kabinet:

In de Raadspositie heeft de Raad gepleit voor een verbod, met uitzonderingen wanneer dat strikt noodzakelijk is voor:

  • Het gericht zoeken van specifieke mogelijke slachtoffers van misdrijven;

  • Het voorkomen van een specifieke en substantiële bedreiging van de kritieke infrastructuur, leven, gezondheid of fysieke veiligheid van natuurlijke personen of het voorkomen van terroristische aanslagen;

  • Het lokaliseren of identificeren van een natuurlijk persoon met als doel het doen van strafrechtelijk onderzoek, vervolging of de tenuitvoerlegging van een straf voor de misdrijven waaraan gerefereerd wordt in artikel 2 lid 2 van de Council Framework Decision 2002/584/JHA en waarvoor in de respectievelijke lidstaat een vrijheidsbenemende straf van ten minste drie jaar kan worden opgelegd dan wel voor andere specifieke misdrijven waarvoor naar het recht van de respectievelijke lidstaat een vrijheidsbenemende straf of gevangenisstraf van ten minste 5 jaren kan worden opgelegd.

Volgens de Raadspositie dient bij toepassing van deze uitzonderingen in ieder geval aan een aantal voorwaarden te worden voldaan. Zo dient steeds de strikte noodzaak en evenredigheid van de inzet van real-time biometrische identificatie in de publieke ruimte te worden beoordeeld, waarbij niet alleen wordt gekeken naar de ernst, waarschijnlijkheid en schaal van de schade als deze technologie niet wordt ingezet, maar ook naar de ernst, waarschijnlijkheid en schaal van de gevolgen voor rechten en vrijheden bij de inzet van een dergelijk systeem. Ook dient de inzet van deze systemen gepaard te gaan met de noodzakelijke en proportionele waarborgen en voorwaarden, in het bijzonder met betrekking tot de vereiste temporele en geografische beperkingen. Daarnaast dient een onafhankelijke gerechtelijke of bestuursrechtelijke autoriteit in beginsel voorafgaand aan de inzet ervan toestemming te geven, en dient de uitzonderingsmogelijkheid te worden vastgelegd in nationale wetgeving.

Het kabinet staat achter het uitgangspunt van de Raad om real-time biometrische identificatie in de publieke ruimte voor rechtshandhaving te verbieden. Tegelijk vindt het kabinet het van belang dat lidstaten ruimte hebben om, indien en voor zover dit strikt noodzakelijk is voor specifieke gevallen en met de nodige waarborgen omkleed, van het verbod af te kunnen wijken. Wel acht het kabinet de ruimte voor deze uitzonderingen in de Raadstekst op dit moment in een drietal gevallen nog te breed geformuleerd. Tijdens de triloog zet Nederland zich er daarom voor in om bepaalde uitzonderingen verder af te bakenen. Zo heeft Nederland zich uitgesproken voor het behouden van het vereiste van een «imminente» dreiging van het leven van natuurlijke personen, en voor het verwijderen van de uitzondering voor een bedreiging van «gezondheid» (art 5 (1) (d) sub 2). Tevens heeft het kabinet gepleit voor het verwijderen van het laatste deel van de uitzondering voor de inzet van real-time biometrische identificatie (in art 5 (1) (d) sub 3). Dit betreft een uitzondering voor gebruik van real-time biometrische identificatie indien er sprake is van een misdrijf waar een straf van ten minste vijf jaar voor opgelegd kan worden. Omdat strafmaat (grotendeels) een nationale aangelegenheid is, kan hierdoor in landen waar (in de toekomst) bijvoorbeeld een specifieke seksuele geaardheid gezien wordt als een misdrijf geen real time biometrische identificatie ingezet worden voor opsporing of vervolging.

Daarnaast lezen de leden van de D66-fractie dat het EP voorspellende algoritmes voor bijvoorbeeld de politie wilt verbieden. Deze leden staan hier volledig achter en hebben aan de Minister van Justitie & Veiligheid ook vragen hierover gesteld. Kunt u toezeggen om dit standpunt proactief kenbaar te maken in de onderhandelingen?

Antwoord kabinet:

Het kabinet ziet evenals het Europees Parlement dat er bepaalde risico’s voor de mensenrechten verbonden zijn aan de inzet van «voorspellende algoritmes» zoals de leden van de D66-fractie het noemen.1

Het kabinet is echter geen voorstander van het volledig verbieden van deze systemen en het gebruik ervan, omdat systemen zoals risicobeoordelingen – wanneer deze met voldoende waarborgen worden omkleed – op een rechtvaardige manier kunnen worden ingezet, en van grote toegevoegde waarde kunnen zijn voor de taakuitvoering van diverse overheidsorganisaties.

Het kabinet zet zich er daarom voor in dat al deze systemen worden toegevoegd aan de hoog risico categorie. Dat betekent dat ten opzichte van de Raadstekstdeze hoog risico categorie fors zou worden uitgebreid.

Wat betreft het toezicht geeft het kabinet aan dat het mogelijk moet zijn om twee of meer toezichthouders te benoemen voor de verschillende hoog-risico toepassingen in de AI-verordening. De leden van de D66-fractie willen graag van u weten wat de redenering hiervoor is en of dit er niet toe leidt dat verschillende toezichthouders naar elkaar gaan wijzen. Welke toezichthouder, behalve de Autoriteit Persoonsgegevens (AP), zou volgens u nog meer met verantwoordelijkheden op dit gebied worden belast?

Antwoord kabinet:

Het kabinet vindt het belangrijk om meerdere (sectorale) toezichthouders te betrekken bij het toezicht op de AI-verordening, aangezien deze over de ontwikkeling en gebruik van AI in uiteenlopende gebieden gaan. Bij het controleren of aan de eisen van de AI-verordening wordt voldaan in hoog-risico toepassingsgebieden is domein-specifieke kennis noodzakelijk om de risico’s van het gebruik van AI-systemen te kunnen beoordelen in de context waarin ze worden toegepast in combinatie met specialistische kennis van de algoritmen en bijvoorbeeld gegevensbeheer. Denk bijvoorbeeld aan toezicht op de inzet van AI-systemen voor triage in een ziekenhuis, of het gebruik van AI ter ondersteuning van rechtspraak.

De inzet van AI als systeemtechnologie zal naar verwachting van het kabinet als gevolg hebben dat een groot aantal toezichthouders te maken gaat krijgen – voor zover dat niet al het geval is – met de inzet van AI in het domein waarop zij toezicht houden.

Goede samenwerking tussen toezichthouders is nodig, zodat zij gebruik kunnen maken van elkaars expertise, gezamenlijk risico’s kunnen signaleren» analyseren en aan normuitleg kunnen doen. Het kabinet heeft een overleg met alle digitale toezichthouders geïnitieerd om te zorgen voor afstemming tussen deze toezichthouders. Hoe het toezicht precies wordt ingericht, hangt af van de uiteindelijke tekst van de AI-verordening. Dit gebeurt via Nederlandse wetgeving waarmee de AI-verordening wordt geïmplementeerd en kaders worden ingericht voor het toezicht.

Verder constateren de leden van de D66-fractie dat uit de geannoteerde agenda blijkt dat de inzet om burgers proactief te informeren bij het gebruik van een hoog-risico algoritme door een overheidsorganisatie, de Raadstekst niet heeft gehaald. In de brief schrijft de Staatssecretaris dat er wel «een bredere verplichting is voorgesteld». Kan zij toelichten welke verplichting dit dan is?

Antwoord kabinet:

Het Europees Parlement heeft in haar positie op de AI-verordening voorgesteld om verplicht te stellen dat gebruikers van hoog-risico AI-systemen (bijlage III) die beslissingen nemen of helpen bij het nemen van beslissingen met betrekking tot natuurlijke personen deze personen ervan informeren dat het hoog-risico AI-systeem is gebruikt (artikel 29 lid 6 bis). De natuurlijke persoon zou dan worden geïnformeerd over het doel en het soort besluitvorming waarvoor het hoog-risico AI-systeem wordt gebruikt. Daarnaast wordt de natuurlijke persoon gewezen op het recht op een uitleg (artikel 68 quater). Hierbij wordt geen onderscheid gemaakt tussen publieke of private organisaties als gebruikers. NL blijft zich inzetten voor een notificatieplicht tijdens de triloog, conform de motie van het lid Leijten (Kamerstuk 21 501-33, nr. 987).

Tenslotte, de leden van de D66-fractie zijn blij om te lezen dat vier verschillende moties (mede namens D66) over de Nederlandse inzet bij de triloogonderhandelingen over de AI-verordening in de onderhandelingen zijn besproken. Wat betreft de inzet rond het watermerken van door AI gegenereerde teksten of beelden wordt aangegeven dat de verordening stelt dat het verplicht wordt voor gebruikers om te vermelden dat de content kunstmatig gegenereerd is. Hoewel dit een goede eerste stap is, is dit niet hetzelfde als een watermerk in het materiaal zelf. Want bij enkel een vermelding kan het gegenereerde materiaal door een derde partij worden gebruikt, zonder het te vermelden. In hoeverre wordt een volgende gebruiker opnieuw verplicht om kenbaar te maken dat het kunstmatig is gegenereerd? En ligt dan de schuld bij iedereen die het daarna hergebruikt of alleen bij degene die als eerste verzuimde de vermelding te maken? Kan worden toegelicht in hoeverre het kabinet het letterlijke dictum onder de aandacht gaat brengen bij de onderhandelingen? Kunt u daarbij toelichten in hoeverre creatieve makers, zoals filmmakers of schrijvers, met deze verordening beter beschermd zijn in hun werk, gelet op de stakingen die recentelijk in Hollywood plaatsvonden? Kunt u toelichten hoe deze wetgeving daarop toeziet?

Antwoord kabinet:

Overeenkomstig het dictum van de motie en zoals in de geannoteerde agenda is aangegeven, heeft het kabinet tijdens de onderhandelingen van de AI-verordening bij het Spaanse Raadsvoorzitterschap kunstmatig gegenereerde content waarbij auteursrechtelijke bronnen zijn gebruikt van een watermerk te voorzien, onder de aandacht gebracht. De discussie hierover loopt echter nog.

De D66 leden stellen een belangrijke vraag over de bescherming van creatieve makers. Er is veel maatschappelijke aandacht voor dit onderwerp, omdat voor de training van AI-systemen gebruik kan worden gemaakt van auteursrechtelijk beschermd werk, waarbij de vraag is of dit in alle gevallen rechtmatig is.2 Er loopt inmiddels in het buitenland een aantal rechtszaken, met als gevolg dat de rechter in staat wordt gesteld om hier een uitspraak over te doen.

De AI-verordening richt zich op de risico’s van AI-systemen voor mensenrechten, veiligheid en gezondheid. Het doel is daarbij niet primair het beschermen van het auteursrecht, maar het is wel belangrijk om te vermelden dat de AI-verordening geen afbreuk doet aan het bestaande juridische kader voor het auteursrecht. Makers die niet willen dat hun auteursrechtelijk beschermde werken worden gebruikt om AI te trainen kunnen dat recht voorbehouden. Dan is hun voorafgaande toestemming vereist en daaraan kunnen voorwaarden zoals betaling van een vergoeding worden verbonden. De EU-richtlijn auteursrecht in de digitale eengemaakte markt, waarop de uitzondering voor tekst- en datamining is gebaseerd, wordt in 2026 geëvalueerd.

De leden van de D66-fractie lezen dat in de verordening over het bestrijden van kinderpornografisch materiaal (CSAM) wordt voorgesteld om AI te benutten om chatberichten te scannen. In hoeverre is deze techniek expliciet onderdeel van de AI-verordening en in hoeverre wordt dit gekenmerkt als «hoog-risico» algoritme? Deelt u dan ook de opvatting dat er mensenrechtentoetsen moeten worden gedaan, voordat deze techniek kan worden gebruikt? Kunt u toezeggen dat zij zich middels de onderhandelingen in de AI-verordening zal inzetten voor het niet vereisen van deze vorm van AI voor overheden?

Antwoord kabinet:

In de AI-verordening, zowel in de Raadstekst als die van het Europees Parlement, wordt (op dit moment) deze techniek niet expliciet opgenomen in de lijst van hoog risico AI-systemen. Het kabinet is van mening dat de discussie over het al dan niet reguleren van scannen van communicatie en of daarvoor een mensenrechtentoets moet worden gedaan technologieneutraal gevoerd moet worden, dit kan in theorie namelijk ook op andere manieren gedaan worden dan door de inzet van een AI-systeem. Binnen de AI-verordening wordt de inzet van geen enkel AI-systeem vereist voor overheden of wat voor partijen dan ook. Het kabinet is ook niet voornemens om binnen de onderhandelingen in te zetten op het vereisen van de inzet van AI op welk terrein dan ook.

Over de inzet ten aanzien van de CSAM-verordening is uw Kamer geinformeerd via de Geannoteerde Agenda voor de JBZ-raad op 19 en 20 oktober3, het SO4 dat hier voorafgaand aan heeft plaatsgevonden en het tweeminutendebat dat plaatsvond op 18 oktober jl. (Handelingen II 2023/24, nr. 14)

Uit fysieke en gedragsgegevens zoals oog-, hoofd- en lichaamsbewegingen en hartslag en breinactiviteit die via Extended Reality (XR)-apparaten kunnen worden verzameld, kan zeer intieme informatie worden afgeleid. De combinatie van de Algemene verordening gegevensbescherming (AVG), de AI-verordening, en de Digital Services Act (DSA), levert zeker een bescherming op tegen bepaalde typen analyse en toepassing van data. Als grootschalige dataverzameling echter voortduurt, bestaat er het risico op misbruik door doelverschuiving en manipulatie, ook als dit bij wet verboden wordt. Een optie om de privacy van XR-gebruikers beter te beschermen is om het begrip «biometrische gegevens» te herdefiniëren, zoals het EP voorstelt in de context van de AI-verordening. Deze definitie komt echter ook terug in de AVG en de daaraan gekoppelde DSA, dus het verdient aanbeveling om naar mogelijkheden te zoeken ook daar de definitie te verruimen. Hiermee zou een groter deel van de fysieke en gedragsgegevens die via XR verzameld kunnen worden, zoals pupilreflexen en neurodata, een bijzondere bescherming krijgen. Hoe kijkt het kabinet hiernaar, en stemt u toe om dit mee te nemen in de onderhandelingen in Brussel?

Antwoord kabinet:

Het kabinet steunt de amendementen van het EP om de definitiebepaling van «biometric data» te harmoniseren met eerder vastgelegde definitiebepalingen van «biometric data», zoals opgenomen in de AVG (Algemene Verordening Gegevensbescherming)5, Verordening 2018/17256 en de Richtlijn 2016/6807. Het kabinet ziet dat de uiterst gevoelige aard van de gegevens die bij gebruik van XR worden verwerkt betekent dat strenge eisen aan het rechtmatig en zorgvuldig gebruik van deze gegevens noodzakelijk zijn. Daarbij hecht het kabinet eraan om op te merken dat in het kader van een WODC-onderzoek naar de regulering van immersieve technologieën (ook wel XR-technologieën) in opdracht van het kabinet nadrukkelijk aandacht is besteed aan de vraag of huidige wetgeving goed is toegerust om om te gaan met de privacyrisico’s van deze technologieën. Uw Kamer heeft in juni 2023 de beleidsreactie ontvangen naar aanleiding van dat onderzoek.8 In die beleidsreactie concluderen de Minister van Justitie en Veiligheid en de Minister voor Rechtsbescherming in lijn met dit onderzoek dat de huidige regelgeving, en in het bijzonder ook de regelgeving die ziet op de privacybescherming, goed is toegerust om om te gaan met de risico’s die gepaard gaan met de opkomst van deze technologieën. Zo is de AVG zodanig technologieneutraal dat daarmee ook de bescherming van persoonsgegevens in XR waaronder ook fysieke gegevens over pupilreflexen, neurodata en gedragsgegevens, goed worden gereguleerd. Het is bij dit alles vanzelfsprekend van groot belang dat het juridische kader in de praktijk goed wordt nageleefd. Het houden van toezicht op en het handhaven van de rechtmatigheid van gegevensverwerkingen in de private sector is echter geen taak van het kabinet, maar van de toezichthouder. Deze is onafhankelijk en heeft een ruim mandaat en uitgebreide bevoegdheden om te onderzoeken of partijen voldoen aan hun verplichtingen uit de AVG.

Vragen en opmerkingen van de leden van de PVV-fractie

De leden van de PVV-fractie hebben kennisgenomen van de stukken en hebben enkele vragen over de Nederlandse inzet bij de triloog-onderhandelingen over de AI-Act en in het bijzonder over de beoogde bepalingen aangaande GPAI en de zogeheten Foundation Models.

In de geannoteerde agenda kunnen de leden van de PVV-fractie lezen dat Nederland op bovenstaande onderwerpen actief een standpunt naar voren zal gaan brengen om de Raadspositie te beïnvloeden. Of dit een goede ontwikkeling is valt voor deze leden niet te controleren, omdat de Nederlandse standpunten niet helder worden benoemd in de brief. Enerzijds wordt er gewezen op de noodzaak tot het beperken van risico’s, anderzijds wordt het gevaar benoemd dat regulering kan leiden tot beperking van de innovatiekracht. Is het kabinet op de hoogte van de non-paper «General Purpose Artificial Intelligence (GPAI) and Foundation Models in the AI Act» dat Duitsland begin september heeft ingebracht in deze discussie? Zo ja, kunt u hierop ingaan en aangeven op welke punten u het eens bent met Duitsland en op welke punten niet? Deze leden zouden graag zien dat Nederland aansluit bij de inzet van Duitsland op het gebied van GPAI en Foundation Models. Is het kabinet daartoe bereid? Deze leden vinden het veel te vroeg om via regelgeving deze technieken te beperken en elke inperking zal onherroepelijk leiden tot een rem op innovatie en hiermee Nederlandse en Europese burgers en bedrijven op achterstand zetten ten opzichte van de rest van de wereld. Dat is voor de leden van deze fractie onwenselijk.

Antwoord kabinet:

De onderhandelingen over de AI-verordening zijn nu in de laatste fase beland (triloog) en dus onderhandelt het Raadsvoorzitterschap namens de lidstaten. De stukken waar de PVV aan refereert zijn ons bekend. De verschillende onderhandelingsposities zijn in het belang van de onderhandelingen niet openbaar. Het is het kabinet bekend dat verschillende lidstaten op informele wijze hun voorlopig standpunt hebben gedeeld, al dan niet schriftelijk. Hieronder volgt een toelichting van de standpunten van het kabinet zoals genoemd in de Geannoteerde Agenda.

Ten eerste heeft het kabinet een voorkeur voor de definitie van general purpose AI (GPAI) uit de Raadstekst omdat daarin de nadruk ligt op datgene waarvoor het systeem of model kan worden ingezet, in plaats van het technische model zelf. Dat laatste is wel het geval in de definitie van Foundation Models (FMs) in de EP-tekst. Het kabinet vindt dat dit minder toekomstbestendig is, omdat er geen rekening wordt gehouden met technologische ontwikkelingen van deze modellen. Ook ziet het kabinet dat aan sommige eisen voor FM, zoals het mitigeren van risico’s, effectiever uitvoering kan worden gegeven op het niveau van het specifieke (GP)AI-systeem waarin het FM is verwerkt.

Tegelijkertijd ziet het kabinet een ontwikkeling waarin FM en complexe GPAI-systemen een steeds belangrijkere rol spelen in de ontwikkelketen van AI waarin wordt voortgebouwd op FM en GPAI om allerlei AI-systemen te maken, en de toepassing ervan in de maatschappij. Daarom wil het kabinet inzetten op extra transparantie in deze ontwikkelketen om verantwoorde ontwikkeling en inzet te versterken. Toegang tot informatie over een systeem of model maakt het voor andere AI-ontwikkelaars makkelijker om op een verantwoorde manier op deze systemen voort te bouwen. Versterkte transparantie leidt volgens het kabinet niet tot een rem op innovatie hoger in de keten, terwijl het innovatie lager in de keten vergemakkelijkt.

Ten slotte vindt het kabinet dat sommige complexere GPAI-systemen voor risico’s kunnen zorgen ongeacht binnen welke context ze worden ingezet. Gezien de terechte maatschappelijke onrust over dergelijke systemen, vindt het kabinet het belangrijk dat er ook eisen aan deze systemen of eventueel de achterliggende modellen worden gesteld. Het is daarbij wel van belang dat de definitie(s) van GPAI en/of FMs duidelijk is, eisen toekomstbestendig zijn en innovatie niet onnodig belemmerd wordt. Gedacht kan worden aan monitoring van de ontwikkelingen en verplichte zelfregulering via codes of conduct, of aan externe audits of controles door toezichthouders.

Als het Spaanse voorzitterschap, de Commissie of andere lidstaten met aanvullende voorstellen komen, zal het kabinet kijken of het deze kan steunen en met deze lidstaten kan samenwerken in discussies over de Raadspositie voor de onderhandelingen met het Europees Parlement in de triloog. Het kabinet zal daarbij bekijken of zulke voorstellen die in de triloogfase worden besproken bij het Nederlandse standpunt aansluiten.

Vragen en opmerkingen van de leden van de SP-fractie

De leden van de SP-fractie hebben kennisgenomen van de geannoteerde agenda van de informele Telecomraad die op 23 en 24 oktober plaats zal vinden. Deze leden hebben hier enkele vragen over.

De leden van de SP-fractie lezen onder het kopje «Verordening Raamwerk voor een Europese Digitale Identiteit (herziening eIDAS-verordening)» dat de zorgen van de Kamer die tijdens het interpellatiedebat-Leijten op 16 februari jl. (Handelingen II 2022/23, nr. 54, items 6 en 9) zijn uitgesproken de kern hebben gevormd van het standpunt dat wordt uitgedragen in Brussel. Deze uitspraak verbaast deze leden, aangezien het hoofdpunt van de interpellatie was dat de Staatssecretaris BZK de wens van de Kamer negeerde en juist instemde met het voorstel voor een Europese digitale identiteit. Hoe kan de kern van het Nederlands standpunt op dit onderwerp gebaseerd zijn op de zorgen en kritiek van de Kamer terwijl Nederland wel instemt met het voorstel? Is dat niet tegenstrijdig?

Antwoord kabinet:

Uw Kamer heeft eerder haar zorgen geuit en gevraagd om inzet op passende waarborgen in het voorstel. Zo heeft u onder meer gevraagd om een Europees uniek en persistent identificatienummer te voorkomen, in te zetten op het gebruik van open source, de vrijwilligheid van het gebruik van wallets te waarborgen en de verdere verwerking van walletgegevens te voorkomen in de vorm van een expliciet verhandelverbod in het voorstel. Het kabinet heeft zich hier zowel in de Raadsonderhandelingen als in de triloogonderhandelingen voortdurend hard voor gemaakt. Daarmee vormen de zorgen van Uw Kamer de kern van het Nederlandse standpunt.

Ook hebben de leden van de deze fractie een aantal vragen gebaseerd op de beantwoording van de schriftelijke inbreng over de formele Telecomraad van 2 juni 2023 (Kamerstuk 21 501-33, nr. 1035). Deze leden lezen dat het nog onduidelijk is of het expliciete handelsverbod in de tekst wordt opgenomen. Wanneer verwacht u hier duidelijkheid over te krijgen?

Antwoord kabinet:

De triloogonderhandelingen lopen nog. Zodra de trilogen zijn afgerond en de drie instellingen tot een politiek akkoord zijn gekomen, wordt aan Coreper de definitieve compromistekst voorgelegd met het oog op bekrachtiging daarvan door de lidstaten in de Raad. Op dat moment zal duidelijk worden of er een expliciet verhandelverbod in de definitieve compromistekst is opgenomen. Aan uw Kamer is toegezegd dat het kabinet ernaar streeft om u voorafgaand aan besluitvorming in Coreper hierover te informeren.

Zal Nederland tegen het raamwerk voor een Europese Digitale Identiteit stemmen als er geen expliciet handelsverbod komt?

Antwoord kabinet:

Het Kabinet zal zich, wanneer er een definitief compromisvoorstel is, beraden over de uitkomst van de triloog.

Zoals eerder aan uw Kamer gemeld, blijft de Staatssecretaris zich maximaal inzetten voor een expliciet verhandelverbod. De Staatssecretaris heeft de zorgen van uw Kamer daarom ook uitgesproken in de Telecomraad van december 2022 (Kamerstuk 21 501-33, nr. 1001), toen het onderhandelingsmandaat van het Voorzitterschap voor de triloog werd vastgesteld, en in de Telecomraad van juni jl. tijdens de terugkoppeling van de trilogen door het Zweedse Voorzitterschap (Kamerstuk 21 501-33, nr. 1029).

De leden van de SP-fractie lezen onder het kopje «Trilooginzet Artificial Intelligence Act (AIA) & uitvoering moties» dat het voorstel gedaan in de motie van het lid Leijten (Kamerstuk 21 501-33, nr. 987) de Raadstekst niet heeft gehaald. Dat betreuren deze leden, aangezien het van belang is dat burgers weten wanneer beslissingen die over hun gemaakt zijn door een algoritme of AI-systeem zijn gemaakt, om hiermee die beslissingen te kunnen controleren. Graag zien zij dat u zich hard maakt voor het voorstel in de motie van het lid Leijten. Kunt u dat toezeggen? Zult u de Kamer uitgebreid kunnen informeren over een compromisvoorstel wanneer daaraan gewerkt wordt?

Antwoord kabinet:

Het kabinet onderschrijft het belang dat burgers weten wanneer er sprake is van beslissingen die over hen worden gemaakt met behulp van een algoritme of AI-systeem. Ook voordat de motie van het lid Leijten werd aangenomen (Handelingen II 2022/23, nr. 30, item 11) heeft de regering zich hier tijdens de onderhandelingen in de Raad voor hard gemaakt. De onderhandelingen van de AI-verordening zijn nu in de laatste fase beland (triloog) en dus onderhandelt het Raadsvoorzitterschap namens de lidstaten. De verschillende onderhandelingsposities zijn in het belang van de onderhandelingen niet openbaar. Zoals in de Geannoteerde Agenda aangegeven blijft het kabinet zich ook in deze laatste fase van de onderhandelingen voor een notificatieplicht inzetten, conform de motie van het lid Leijten (Kamerstuk 21 501-33, nr. 987).

Ook lezen de leden dat de Raad tegen het voorstel van het EP is over een volledig verbod op real-time biometrische identificatie op afstand in de publieke ruimte voor de rechtshandhaving. Zou u verder kunnen toelichten waarom de Raad tegen dit voorstel is, welke uitzonderingen de Raad graag wil, en welke kritiekpunten het kabinet heeft op de argumenten van het EP en de Raad?

Antwoord kabinet:

Zoals is aangegeven bij de beantwoording van de vraag van de leden van de D66-fractie, heeft de Raad in de Raadspositie gepleit voor een verbod, met uitzonderingen wanneer dat strikt noodzakelijk is voor:

  • Het gericht zoeken van specifieke mogelijke slachtoffers van misdrijven;

  • Het voorkomen van een specifieke en substantiële bedreiging van de kritieke infrastructuur, leven, gezondheid of fysieke veiligheid van natuurlijke personen of het voorkomen van terroristische aanslagen;

  • Het lokaliseren of identificeren van een natuurlijk persoon met als doel het doen van strafrechtelijk onderzoek, vervolging of de tenuitvoerlegging van een straf voor de misdrijven waaraan gerefereerd wordt in artikel 2 lid 2 van de Council Framework Decision 2002/584/JHA en waarvoor in de respectievelijke lidstaat een vrijheidsbenemende straf van ten minste drie jaar kan worden opgelegd dan wel voor andere specifieke misdrijven waarvoor naar het recht van de respectievelijke lidstaat een vrijheidsbenemende straf of gevangenisstraf van ten minste 5 jaren kan worden opgelegd.

Volgens de Raadspositie dient bij toepassing van deze uitzonderingen in ieder geval aan een aantal voorwaarden te worden voldaan. Zo dient steeds de strikte noodzaak en evenredigheid van de inzet van real-time biometrische identificatie in de publieke ruimte te worden beoordeeld, waarbij niet alleen wordt gekeken naar de ernst, waarschijnlijkheid en schaal van de schade als deze technologie niet wordt ingezet, maar ook naar de ernst, waarschijnlijkheid en schaal van de gevolgen voor rechten en vrijheden bij de inzet van een dergelijk systeem. Ook dient de inzet van deze systemen gepaard te gaan met de noodzakelijke en proportionele waarborgen en voorwaarden, in het bijzonder met betrekking tot de vereiste temporele en geografische beperkingen. Daarnaast dient een onafhankelijke gerechtelijke of bestuursrechtelijke autoriteit in beginsel voorafgaand aan de inzet ervan toestemming te geven, en dient de uitzonderingsmogelijkheid te worden vastgelegd in nationale wetgeving.

Het kabinet staat achter het uitgangspunt van de Raad om real-time biometrische identificatie in de publieke ruimte voor rechtshandhaving te verbieden. Tegelijk vindt het kabinet het van belang dat lidstaten ruimte hebben om, indien en voor zover dit strikt noodzakelijk is voor specifieke gevallen en met de nodige waarborgen omkleed, van het verbod af te kunnen wijken. Wel acht het kabinet de ruimte voor deze uitzonderingen in de Raadstekst op dit moment in een drietal gevallen nog te breed geformuleerd. Tijdens de triloog zet Nederland zich er daarom voor in om bepaalde uitzonderingen verder af te bakenen. Zo heeft Nederland zich uitgesproken voor het behouden van het vereiste van een «imminente» dreiging van het leven van natuurlijke personen, en voor het verwijderen van de uitzondering voor een bedreiging van «gezondheid» (art 5 (1) (d) sub 2). Tevens heeft het kabinet gepleit voor het verwijderen van het laatste deel van de uitzondering voor de inzet van real-time biometrische identificatie (in art 5 (1) (d) sub 3). Dit betreft een uitzondering voor gebruik van real-time biometrische identificatie indien er sprake is van een misdrijf waar een straf van ten minste vijf jaar voor opgelegd kan worden. Omdat strafmaat (grotendeels) een nationale aangelegenheid is, kan hierdoor in landen waar (in de toekomst) bijvoorbeeld een specifieke seksuele geaardheid gezien wordt als een misdrijf geen real time biometrische identificatie ingezet worden voor opsporing of vervolging.


X Noot
1

Art. 6 AI-verordening: het gebruik van systemen voor risicobeoordelingen ten aanzien van natuurlijke personen of groepen, om daarvan om het risico te bepalen dat een natuurlijke persoon een strafrechtelijke overtreding begaat of recidiveert of om een strafrechtelijk of administratief delict dan wel herhaling van strafrechtelijke of administratieve delicten te voorspellen. Dit op basis van de profilering van een natuurlijk persoon of op basis van de beoordeling van persoonlijkheidseigenschappen en -kenmerken, met inbegrip van de locatie van de persoon, of van crimineel gedrag in het verleden van natuurlijke personen of groepen natuurlijke personen.

X Noot
2

Het trainen van artificiële intelligentie is een vorm van tekst- en datamining. Artikel 15o van de Auteurswet bevat daarvoor een uitzondering op het auteursrecht. Die uitzondering kan door iedereen worden ingeroepen, mits degene die zich op de beperking beroept op rechtmatige wijze toegang tot de auteursrechtelijk beschermde werken heeft verkregen en de maker of zijn rechthebbende het maken van een kopie van het werk ten behoeve van tekst- en datamining niet uitdrukkelijk op passende wijze heeft voorbehouden.

X Noot
3

Bijlage bij Kamerstuk 32 317, nr. 855

X Noot
4

Kamerstuk 32 317, nr. 859

X Noot
5

Verordening (EU) 2016/679 van het Europees Parlement en de Raad van 27 april 2016 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens en betreffende het vrije verkeer van die gegevens en tot intrekking van Richtlijn 95/46/EG (algemene verordening gegevensbescherming).

X Noot
6

Verordening (EU) 2018/1725 van het Europese Parlement en de Raad van 23 oktober 2018 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens door de instellingen, organen en instanties van de Unie en betreffende het vrije verkeer van die gegevens, en tot intrekking van Verordening (EG) nr. 45/2001 en Besluit nr. 1247/2002/EG.

X Noot
7

Richtlijn (EU) 2016/680 van het Europese Parlement en de Raad van 27 april 2016 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens door bevoegde autoriteiten met het oog op de voorkoming, het onderzoek, de opsporing en de vervolging van strafbare feiten of de tenuitvoerlegging van straffen, en betreffende het vrije verkeer van die gegevens en tot intrekking van Kaderbesluit 2008/977/JBZ van de Raad.

X Noot
8

Kamerstuk 26 643, nr. 1041

Naar boven