21 501-33 Raad voor Vervoer, Telecommunicatie en Energie

Nr. 1034 BRIEF VAN DE MINISTER VAN ECONOMISCHE ZAKEN EN KLIMAAT

Aan de Voorzitter van de Tweede Kamer der Staten-Generaal

Den Haag, 6 oktober 2023

Op 23 en 24 oktober 2023 vindt de informele Telecomraad plaats in Leòn, Spanje. Bijgevoegd bij deze brief vindt u, mede namens de Staatssecretaris Koninkrijksrelaties en Digitalisering, de geannoteerde agenda met daarin een beschrijving van het discussiepunt en de Nederlandse inzet.

Middels deze geannoteerde agenda ontvangt u tevens een voortgangsrapportage van de interoperabiliteitverordening en een voortgangsrapportage voor de verordening raamwerk voor een Europese Digitale Identiteit (herziening eIDAS-verordening). Tevens wordt u geïnformeerd over de trilooginzet voor de Artifical Intelligence (AI) Act en vindt u een toelichting op de uitvoering van de motie gesprekken met organisaties over beperken risico’s AI, de motie ontwrichtende aanbevelingsalgoritmes en de motie watermerken (allen Rajkowski en Dekker-Abdulaziz). Tot slot ontvangt u ook de appreciatie van het raadsbesluit over de World Radio Conference en een appreciaties van de Mededeling Web 4.0 (Metaverse).

Als bijlage bij deze brief treft u tevens de kwartaalrapportage lopende EU-onderhandelingen digitale dossiers aan tot en met het tweede kwartaal van 2023.

De Minister van Economische Zaken en Klimaat, M.A.M. Adriaansens

Toekomst van de connectiviteitssector

Beleidsdebat

In april heeft de Europese Commissie een uitgebreide consultatie gehouden over mogelijke aanpassingen in het Europese telecombeleid. Veel aandacht ging daarbij uit naar de wens van grote telecombedrijven om een heffing te kunnen vragen aan internetbedrijven. Het gaat echter om een bredere agenda dan alleen de internetheffing, zoals het verminderen van verplichtingen voor grote telecombedrijven om kleinere concurrenten toe te laten op hun netwerk, het stimuleren van grote, pan-Europese telecomkampioenen en meer Europese coördinatie bij het beleid ten aanzien van frequenties. Deze onderwerpen zijn binnen Europa controversieel. Verantwoordelijk Eurocommissaris Breton heeft voorstellen aangekondigd. Het is nog niet bekend waneer de Commissie deze voorstellen zal presenteren.

Nederlandse positie

Nederland en veel andere lidstaten zijn terughoudend ten aanzien van de beleidsrichtingen die werden verkend in de consultatie in mei 2023. Nederland heeft op deze consultatie gereageerd (Kamerstuk 21 501-33, nr. 1029). Ten aanzien van de internetheffing is een debat ontstaan, Nederland heeft zich met andere lidstaten waaronder Duitsland tegen uitgesproken. Een brede groep van stakeholders, van consumentenorganisaties, digitale-rechten vertegenwoordigers, mediabedrijven, telecomtoezichthouders en internetbedrijven heeft via de consultatie aangegeven dat een internetheffing negatieve gevolgen heeft voor het open internet en de Europese digitalisering. Nederland heeft een onderzoek laten doen door Oxera (februari 2023) wat de Nederlandse positie heeft geïnformeerd.

Het kabinet heeft ook zorgen over de bredere agenda waar de Commissie aan werkt, die een beweging lijkt in te zetten die meer gericht is op het beschermen van belangen van grote Europese telecombedrijven en minder op de consument. Het kabinet is er voorstander van om hoge ambities te stellen ten aanzien van glasvezel en 5G voor alle lidstaten, en is van oordeel dat een focus op grote telecombedrijven niet de achterstanden van sommige lidstaten oplost en mogelijk kan verergeren, terwijl het de goede prestaties van andere lidstaten juist kan ondermijnen. Dit is ook uit geopolitiek oogpunt niet wenselijk. Nederland denkt constructief mee over manieren om voor 2030 in alle lidstaten hoogwaardige en betaalbare netwerken beschikbaar te maken op basis van goede feitelijke analyses per lidstaat naar de oorzaken van eventuele achterstanden en oplossingen.

Krachtenveld

Verantwoordelijk Commissaris Breton is uitgesproken voorstander van een beleidsagenda gericht op het versterken van grote telecombedrijven. Tijdens de Telecomraad van 2 juni 2023 toonde de meerderheid van de lidstaten zich kritisch. Italië voegde zich recentelijk publiekelijk bij de kritische lidstaten, waardoor voorstanders van het voorgenomen voorstel minder sterk staan. Het Europees Parlement is ook verdeeld over dit onderwerp.

Verordening Raamwerk voor een Europese Digitale Identiteit (herziening eIDAS-verordening)

Voortgangsrapportage

Het kabinet heeft op 6 december 2022 ingestemd met de Raadspositie tijdens de algemene oriëntatie. Hiermee hebben de lidstaten ingestemd met het bereikte compromis in de Raad en heeft het voorzitterschap van de Raad het mandaat gekregen voor de onderhandelingen met het Europees Parlement. Het Europees Parlement heeft recentelijk op 16 maart jl. (Handelingen II 2022/23, nr. 54, items 6 en 9) zijn positie bepaald.

Er is uitvoerig met uw Kamer gesproken over dit dossier tijdens het Interpellatiedebat-Leijten op 16 februari jl., specifiek over het niet opvolgen van de motie van het lid Leijten om niet in te stemmen met de Raadspositie (Kamerstuk 36 305, nr. 1). Op 13 april jl. heeft de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties u, zoals toegezegd in het Interpellatiedebat, geïnformeerd over het vervolgproces over dit EU-voorstel. De zorgen van uw Kamer zoals ook besproken tijdens het Interpellatiedebat, hebben tot dusver de kern van het standpunt dat wordt uitgedragen in Brussel gevormd. Zo is in alle formele en informele gesprekken het belang van een meer expliciet verhandelverbod van gegevens die in de toekomst via wallets kunnen worden uitgewisseld onder de aandacht gebracht. Dit punt is ook onder de aandacht gebracht bij het voorzitterschap, dat namens de Raad de onderhandelingen voert met het EP en de Europese Commissie in de triloogfase. De triloogonderhandelingen zijn op 21 maart jl. van start gegaan.

In het persbericht van het Zweedse voorzitterschap van 29 juni jl. heeft de Raad melding gemaakt van zijn voorlopig akkoord op hoofdlijnen met het Europees Parlement en tegelijkertijd benadrukt dat onder het Spaans voorzitterschap verdere technische uitwerking plaatsvindt om te komen tot een definitief akkoord. Wanneer de volgende triloogbijeenkomst zal plaatsvinden (naar verwachting tevens ook de laatste triloogbijeenkomst) is nog niet bevestigd. Dit is deels ook afhankelijk van de voortgang van de technische trilogen.

Zodra de trilogen zijn afgerond en de drie instellingen tot een politiek akkoord zijn gekomen, wordt aan Coreper de definitieve compromistekst voorgelegd met het oog op bekrachtiging daarvan door de lidstaten in de Raad. Aan uw Kamer is door de Staatssecretaris toegezegd ernaar te streven u voorafgaand aan besluitvorming in Coreper hierover te informeren.

Interoperabiliteitsverordening

Voortgangsrapportage

De verordening is op 18 november 2022 door de Commissie gepubliceerd. Om interoperabiliteit tussen digitale overheidsdiensten van verschillende lidstaten te vergroten heeft de Europese Commissie deze nieuwe verordening voorgesteld. Hiermee wordt het gemakkelijker voor overheidsorganisaties om informatie te verkrijgen over oplossingen in andere lidstaten (zoals kaders, open specificaties, open normen of toepassingen), oplossingen op elkaar af te stemmen en ook hergebruik te bevorderen, bijvoorbeeld in de vorm van open source oplossingen. Er zitten elementen in ten behoeve van samenwerking met de private sector, een portaal waarop kennis en oplossingen kunnen worden uitgewisseld, ondersteunende projecten, monitoring, peer reviews en regulatory sandboxes (testomgevingen voor regelgeving).

Sinds de vorige voortgangsrapportage, die besproken is tijdens de Telecomraad van 2 juni 2023, heeft Spanje het voorzitterschap van Zweden overgenomen en is veel voortgang geboekt. Inmiddels is een vierde compromisvoorstel door het Spaans voorzitterschap opgesteld en behandeld in raadskader en zal naar verwachting in oktober worden doorgeleid naar Coreper. Het voor het kabinet belangrijke punt van vindbaarheid van op het Interoperabel Europa-portaal geplaatste interoperabiliteitsoplossingen (herbruikbare oplossingen, standaarden en documentatie) is in het vierde compromisvoorstel opgenomen door het Spaans voorzitterschap. Geplaatste interoperabiliteitsoplossingen op het portaal moeten vindbaar zijn op een gebruiksvriendelijke manier op basis van lidstaat en het type overheidsdienst dat zij ondersteunen.

Daarnaast is er een aanpassing met betrekking tot de publicatielocatie van interoperabiliteitsbeoordelingen doorgevoerd, het is niet meer nodig voor elke overheidsorganisatie om dit op de eigen website te publiceren. Lidstaten zijn nu vrij om dit bijvoorbeeld centraal te organiseren en daarmee de werkdruk voor individuele overheidsorganisaties te verlagen.

Trilooginzet Artifical Intelligence Act (AIA) & uitvoering moties

Toelichting

De Europese Commissie heeft op 21 april 2021 een voorstel voor de Artificial Intelligence Act (AI Act) gepubliceerd met als doel om ervoor te zorgen dat er veilige AI-systemen op de interne markt komen met waarborgen voor de bescherming van gezondheid en fundamentele rechten. In december 2022 is een Raadspositie op de AI Act aangenomen door de Telecomraad, en in juni 2023 heeft het Europees Parlement (EP) een positie op de AI Act ingenomen. Inmiddels zijn de triloog-onderhandelingen gestart, waarbij Spanje als huidige voorzitter van de Raad van de EU namens alle lidstaten onderhandelt met het EP.

Voortgang triloog

Het Spaanse voorzitterschap heeft de afronding van de AI Act tot prioriteit bestempeld. In de praktijk betekent dit dat het tempo van de onderhandelingen hoog ligt. Er worden veel vergaderingen georganiseerd voor de lidstaten om de verschillende onderwerpen van de AI Act door te lopen in voorbereiding op de onderhandelingen met het EP. De agenda’s voor deze vergaderingen worden vaak pas op het laatste moment bekend gemaakt. Op 2 en 3 oktober en op 25 oktober staan twee politieke trilogen gepland om akkoorden te bereiken op een aantal onderwerpen.

Prioritaire Nederlandse onderwerpen

In de triloog-onderhandelingen is directe invloed van Nederland als één van de lidstaten op de uiteindelijke compromisteksten beperkt. Dit komt doordat het Raadsvoorzitterschap namens de lidstaten onderhandelt op basis van de Raadstekst, er mogelijk een ander krachtenveld binnen de Raad ontstaat als het mandaat wordt aangepast en er in de triloog uitruil plaats vindt op onderwerpen. Desondanks brengt Nederland op een aantal prioritaire onderwerpen actief standpunten naar voren om de Raadspositie te beïnvloeden: general purpose AI (GPAI), noodzakelijke en proportionele uitzonderingen op of aanpassingen van de door het EP voorgestelde verboden AI-praktijken, burgerrechten en toezicht.

GPAI: het oorspronkelijke Commissievoorstel bevatte geen eisen voor GPAI. Door de snelle opkomst van en politieke aandacht voor nieuwe AI-systemen die voor allerlei doeleinden kunnen worden ingezet en ook stukken tekst of afbeeldingen kunnen genereren, is hier in de Raadstekst en de tekst van het EP wel aandacht aan besteed.

GPAI is AI die voor een breed scala aan toepassingen kan worden ingezet. In de Raadstekst is opgenomen dat er eisen gaan gelden voor GPAI-systemen die ingezet kunnen worden voor hoog risico toepassingen. Die eisen worden gespecificeerd in een uitvoeringshandeling onder de AI Act. Het EP stelt echter directe eisen aan Foundation Models in de AI Act, zoals risicomitigatie en databeheer. Foundation Models zijn de technische modellen die onderliggend zijn aan een deel van de GPAI-systemen. Om een voorbeeld te geven: ChatGPT gebruikt GPT-4 om op verzoek teksten te genereren. GPT-4 is het Foundation Model en ChatGPT is een GPAI-systeem.

Het kabinet vindt het belangrijk dat er eisen worden gesteld die leiden tot een eerlijke AI-ontwikkelketen. Omdat veel (hoog-risico) AI wordt ontwikkeld op basis van GPAI, is het noodzakelijk dat andere ontwikkelaars de juiste informatie hebben als ze op een dergelijk GPAI-systeem voortbouwen. In zowel de Raads- als EP-tekst moeten aanbieders van GPAI informatie geven en ondersteuning bieden aan aanbieders die voortbouwen op GPAI om er een «nieuw» hoog risico systeem van te maken. Wanneer aanbieders voortbouwen op GPAI en dit nieuwe systeem onder de hoog-risico categorie valt, kunnen deze aanbieders voldoen aan de eisen van de AI Act die voor hen gelden. Het kabinet steunt deze eis en ziet een mogelijkheid om deze transparantie-eis te versterken. Gezien de complexe ontwikkelketen stelt het kabinet voor om bij het op de markt brengen van een GPAI-systeem verplicht bepaalde essentiële informatie te delen met alle aanbieders die voortbouwen op een GPAI-systeem, en niet alleen aan hoog-risico aanbieders.

Sommige (vaak complexere) GPAI-systemen kunnen voor risico’s zorgen ongeacht binnen welke context ze worden ingezet. Bijvoorbeeld doordat ze kunnen helpen bij het verspreiden van desinformatie of het maken van schadelijke code. Het kabinet vindt dat deze risico’s ook geadresseerd moeten worden. Daarom steunt het kabinet het direct in de AI Act vastleggen van één of meerdere eisen voor alle GPAI-systemen die risico’s met zich meebrengen ongeacht de context waar ze kunnen worden ingezet. Aanpassing of invulling van (een deel van) deze eisen moet mogelijk zijn, om de AI Act toekomstbestendig te houden.

Verboden AI: er zijn voorstellen van het EP die problematisch zijn voor (onder andere) de taakuitvoering van de Rijksoverheid, zoals rechtshandhaving en migratie, maar ook belastingen en sociale zekerheid. Zo pleit het EP onder andere voor een volledig verbod op real-time biometrische identificatie op afstand in de publieke ruimte voor de rechtshandhaving, een verbod voor criminaliteits- en recidivevoorspelling en een verbod op biometrische categorisatie. De Nederlandse inzet is om op de meeste punten vast te houden aan de Raadstekst en dus voor een aantal van die verboden enkele zeer specifieke en afgebakende uitzonderingen toe te staan en die toepassingen op te nemen als hoog-risico in Annex III.

Voor wat betreft het verbod op real-time biometrische identificatie op afstand in de publieke ruimte voor rechtshandhaving wil het kabinet dat het in specifieke gevallen waar sprake is van een directe dreiging mogelijk is om van het verbod af te wijken, mits daar een nationale wettelijke basis voor is. Bepaalde uitzonderingen zoals voorgesteld in de Raadstekst vindt het kabinet echter te ruim en er dus blijft het kabinet zich inzetten voor proportionele en effectieve uitzonderingen.

Toezicht: ten aanzien van de inrichting van het toezicht op de AI Act heeft Nederland steeds aangegeven dat het van belang is dat het mogelijk blijft om in de lidstaten twee of meer toezichthouders te benoemen voor de verschillende hoog-risico toepassingsgebieden in de AI Act, zoals ook is opgenomen in de Raadspositie. Daarnaast heeft Nederland zich onlangs met een aantal lidstaten uitgesproken voor het inrichten van toezicht op Europees niveau voor AI-systemen die aan bepaalde criteria voldoen waaronder systemische impact. De afbakening van welke systemen dit betreft en de verdeling van competenties tussen nationale toezichthouders en de EU-toezichthouder moet nog nauwkeurig worden uitgewerkt.

Burgerrechten: het kabinet wil dat burgerrechten in de AI Act versterkt worden. Nederland heeft zich reeds met succes ingezet voor een opname van een klachtrecht, en vindt het belangrijk dat natuurlijke of rechtspersonen bij de toezichthouder terecht kunnen. Het EP heeft een verdergaand rechtsmiddel voorgesteld. Het kabinet staat hier kritisch tegenover, omdat daarmee bij een rechter kan worden afgedwongen hoe een klacht door een toezichthouder moet worden afgehandeld. Hoewel het kabinet de rechtspositie van burgers wil verbeteren, heeft het kabinet praktische en juridische bezwaren bij dit EP voorstel die onder meer zien op de (potentieel) grote last voor toezichthouders van zo’n middel.

Conform de motie van het lid Leijten (Kamerstuk 21 501-33, nr. 987) is de regering verzocht in de Raadspositie te regelen dat een genomen besluit altijd begrijpelijk kenbaar wordt gemaakt, waarbij ook de gebruikte data worden vermeld teneinde iemand kan toetsen of het besluit op correcte gegevens tot stand is gekomen. Nederland heeft zich in de Raad ingezet voor het opnemen van een verplichting voor overheidsorganisaties als gebruikers van hoog-risico AI-systemen om een burger proactief te informeren bij de inzet van een hoog-risico AI-systeem als een besluit wordt genomen dat die burger raakt. Dat heeft de Raadstekst niet gehaald. In de EP-tekst wordt wel een dergelijke (bredere) verplichting voorgesteld die ziet op besluiten van overheidsorganisaties en private partijen. Daarnaast heeft het EP een recht op uitleg voor natuurlijke personen van besluiten die hen raken voorgesteld. Het kabinet blijft zich tijdens de triloog-onderhandelingen actief inzetten voor een compromisvoorstel.

Mensenrechten impact assessment: het is van groot belang dat de risico’s voor mensenrechten bij de ontwikkeling en het gebruik van AI systemen voldoende zijn meegenomen. Conform de motie van de leden Bouchallikh en Dekker-Abdulaziz (Kamerstuk 26 643, nr. 835) heeft Nederland zich er in de Raad succesvol voor ingezet om de risicoanalyse (mensenrechtentoets) door de aanbieder van hoog-risico AI-systemen met het oog op de bescherming van mensenrechten te versterken, evenals de bepalingen rond databeleid. Het EP introduceert daarbovenop een uitgebreide mensenrechten impact assessment voor gebruikers van hoog-risico AI-systemen. Het kabinet staat kritisch tegenover het voorstel van het EP, omdat het mogelijk dubbel werk en onduidelijke of moeilijk uitvoerbare verplichtingen met zich meebrengt. Met name risico’s in het ontwerp of bij training van AI-systemen kunnen niet door de gebruiker worden beoordeeld. Gezien het belang van de mensenrechtelijke bescherming heeft het kabinet daarom compromisvoorstellen bij het Spaanse voorzitterschap ingediend om tot een werkbare verplichting te komen waar gebruikers alleen naar zogeheten «restrisico’s» moeten kijken. Dit zijn risico’s die niet eerder door de aanbieder kunnen zijn geïdentificeerd en voortkomen uit het specifieke gebruik.

Uitvoering motie ontwrichtende aanbevelingsalgoritmes

In de gewijzigde motie van de leden Rajkowski en Dekker-Abdulaziz (Kamerstuk 30 821, nr. 193) is de regering verzocht om zich op Europees niveau te committeren aan het verbieden van ontwrichtende aanbevelingsalgoritmes door bijvoorbeeld in de lopende triloog-onderhandelingen ten aanzien van de Al-verordening te pleiten voor maatregelen en afspraken die dit verbod realiseren en de Kamer over de genomen stappen te informeren voor de begrotingsbehandeling Digitale Zaken 2023. Het Europees Parlement heeft in haar positie aangegeven aanbevelingsalgoritmen van de allergrootste online platforms als hoog-risico AI-systemen te willen aanmerken binnen de systematiek van de verordening. Nederland heeft conform de motie bij het Raadsvoorzitterschap aangegeven dat in de triloogonderhandelingen te willen steunen.

Uitvoering motie watermerken

In de motie van de leden Dekker-Abdulaziz en Rajkowski (Kamerstuk 30 821, nr. 185) is de regering verzocht om het Europees voorzitterschap te vragen om bij de onderhandelingen over de AI-verordening het verplichten van watermerken bij door AI gegenereerde teksten en beelden waarbij auteursrechtelijke bronnen zijn benut te agenderen. In het Commissievoorstel voor de AI-verordening worden gebruikers van deepfaketechnologie verplicht om bekend te maken dat het gegenereerde beeld-, audio- of videomateriaal kunstmatig gegenereerd of bewerkt is. Een dergelijke plicht draagt bij aan het zoveel mogelijk (vooraf) mitigeren van het gevaar dat gemanipuleerd materiaal ten onrechte als authentiek wordt gezien. Nederland heeft deze transparantieverplichting in de onderhandelingen in de Raad en in de trilogen met het Europees Parlement gesteund. Een mogelijke verdergaande verplichting, die zich daarnaast richt op door AI gegenereerde tekst- of beeldmateriaal waarbij gebruik is gemaakt van auteursrechtelijk materiaal in de trainingsdata wordt door het kabinet bij het Spaanse voorzitterschap onder de aandacht gebracht wanneer het onderwerp op de agenda staat.

Uitvoering motie gesprekken met organisaties over beperken risico’s AI

In de motie van de leden Rajkowski en Dekker-Abdulaziz (Kamerstuk 26 643, nr. 1002) is het kabinet verzocht om met organisaties in gesprek te gaan over hoe zij, vooruitlopend op de AI-verordening, verantwoordelijkheid nemen om de risico’s van AI voor de samenleving te verkleinen. Via deze brief wordt uw Kamer geïnformeerd over de uitkomsten van deze gesprekken.

Er zijn twee ronde tafels georganiseerd met organisaties waaraan eisen gesteld gaan worden onder de AI-verordening. Eén met grote AI-ontwikkelaars en één met MKB AI-ontwikkelaars. Ook wordt hieronder beschreven hoe overheidsorganisaties vooruitlopend op de AI-verordening omgaan met mogelijke risico’s van AI.

Grote AI-bedrijven

Op 23 augustus 2023 is er een rondetafelgesprek gevoerd met Amazon, Meta en Microsoft over de manieren waarop zij met potentiële risico’s van hun AI-producten omgaan. Deze bedrijven hebben aangegeven zich zeer bewust te zijn van de risico’s van AI en aangegeven daarom ook verschillende maatregelen te nemen om deze zo goed als mogelijk te beperken. Ze hebben ook grote belangen bij het aanbieden van veilige AI; er zijn enorme kosten en reputatieschade als het misgaat. De bedrijven zien het belang van verantwoorde AI voor vele toepassingen met maatschappelijke relevantie, zoals in de zorg of de landbouw.

De bedrijven hebben allen een eigen set «basisprincipes» die hun benadering ten opzichte van AI informeert. Eén van de bedrijven noemde de principes betrouwbaarheid, privacy en veiligheid, transparantie, robuustheid en governance.

Deze principes komen terug in de maatregelen die de bedrijven nemen om hun AI veilig te ontwikkelen en toe te (laten) passen. Meerdere bedrijven noemden hierbij het verlenen van assistentie aan klanten die AI-producten inkopen en assistentie aan aanbieders van AI die hun producten op een platform aanbieden.

Deze risicobeheersing wordt door de bedrijven op verschillende niveaus gedaan. Van AI-ontwikkelaars en bedrijven die AI inkopen tot consumenten. De maatregelen worden afgestemd op de doelgroepen. Eén bedrijf gaf aan dat ze actief naar klanten toe gaan om te helpen bij de toepassing van het AI-product. De voorgetrainde AI-modellen worden via API-diensten1 beschikbaar gesteld voor het gebruik in een bepaalde applicatie. Het AI-model werd vergeleken met een hamer, die voor verschillende toepassingen (applicaties) kan worden gebruikt. Er werd meerdere keren aangegeven dat volgens de bedrijven het risico vooral in de toepassing van AI zit, en minder in de modellen zelf. Daarom proberen de bedrijven met name in de specifieke toepassingen ondersteuning te bieden om risico’s te beperken.

Er werd ook benadrukt dat er al veel regulering van toepassing is op AI-producten. Een voorbeeld is de Algemene Verordening Gegevensbescherming (AVG). Er zijn ook al veel vrijwillige standaarden zoals de OECD AI principles. Daarnaast zijn veel schadelijke toepassingen van AI al strafbaar, zoals phishing door middel van deepfakes. Daarnaast werd genoemd dat een aantal grote partijen deelneemt aan de «Voluntary Commitments» van het Witte Huis.2 De bedrijven committeren zich daarmee eraan dat hun producten veilig zijn voordat ze openbaar worden gemaakt, dat veiligheid voorop wordt gesteld bij het maken van AI en dat er maatregelen genomen worden om het maatschappelijk vertrouwen te versterken.

Ook wordt AI door de bedrijven ingezet om juist risico’s voor de maatschappij op andere vlakken te beperken, bijvoorbeeld voor het detecteren van haat zaaien of andere contentmoderatie op sociale platforms. Eén bedrijf stelt inclusieve datasets beschikbaar om ook andere partijen in staat te stellen AI op een zo verantwoord mogelijke manier te ontwikkelen.

De keuze om de AI-modellen openbaar te maken of «gesloten» aan te bieden (via bijvoorbeeld een API) verschilt wel tussen de bedrijven. Meta biedt hun Large Language Model (LLM) bijvoorbeeld open aan, met als doel om wetenschappers en consumenten in staat te stellen hierop voort te bouwen en feedback te creëren om het model beter te maken (denk aan het opsporen en verwijderen van toxiciteit en bias).3 Aan de andere kant is er door het open aanbieden geen zicht op waar het model wordt toegepast. Andere bedrijven bieden hun modellen betaald aan en staan hierdoor in direct contact met de partijen die deze toepassen. Feedback op de broncode is hierdoor echter niet mogelijk.

MKB AI-ontwikkelaars

Op 30 augustus 2023 is een rondetafelgesprek gevoerd met VORtech, Brush, Landscape en Vartion. Op ambtelijkl niveau is met deze MKB’ers gesproken over de manier waarop zij met de risico’s van hun eigen AI-producten omgaan, of andere AI-aanbieders hierover adviseren.

Alle bedrijven noemden de correcte werking van AI-systemen als reden om vooraf risico’s in te schatten en maatregelen te nemen. Voor één bedrijf was ook het risico op aansprakelijkheid een van de redenen om extra aandacht aan mogelijke risico’s te besteden.

De bedrijven nemen daarom verschillende maatregelen om veilige AI te ontwikkelen en implementeren. Eén bedrijf gaf aan dat ze in afwachting van AI-specifieke regelgeving gebruik maken van bestaande ethische frameworks als basis voor maatregelen. Deze hebben ze toegepast op bestaande methoden van data scientists om zo tot een checklist te komen voordat ze beginnen met de ontwikkeling van een AI-systeem. Hierbij wordt bijvoorbeeld gekeken naar welk type algoritme of AI-systeem geschikt is voor de context, de afweging tussen eerlijkheid en nauwkeurigheid en het geschikte niveau van transparantie. Er werd wel nog opgemerkt dat frameworks vaak erg abstract zijn, waardoor praktische implementatie vanuit het perspectief van een AI-ontwikkelaar lastig kan zijn.

Een ander bedrijf gaf aan dat ze ook gebruik maken van een checklist en hiervoor een risico en controle applicatie hebben ontwikkeld die verschillende risico’s automatisch kan monitoren voor, tijdens en na de ontwikkeling van een model. Bekende risico-maatregelen tijdens het gebruik van een AI-systeem is een «human in the loop», uitlegbaarheid en consistentie-checks.

Er werd ook benadrukt dat veel organisaties iets met AI willen, maar dat er vaak begrip en kennis mist. Het is daarom belangrijk dat AI-aanbieders duidelijk uitleg geven over wat je wel of niet kan met AI en ook de vraag durven te stellen of je een proces überhaupt moet willen automatiseren. Als er dan een weloverwogen keuze gemaakt wordt om AI in te zetten, dan is het belangrijk om de domeinexperts te betrekken bij het kijken naar oplossingen en het identificeren van implicaties. Zeker als het gaat om processen waar professionals bij betrokken zijn. Naast het afwegen van de technische mogelijkheden, moet er dus ook duidelijk naar de organisatorische context gekeken worden.

Er werd ook nog kort gesproken over de inzet van taalmodellen en de specifieke risico’s die daarbij komen kijken. Hierbij kijken de bedrijven vooral of een specifiek taalmodel geschikt is voor een bepaalde toepassing. Bij die afweging is het ook van belang of een taalmodel open-source beschikbaar is of niet. Het gaat hierbij met name om informatie over de dataset waarop een model is getraind. Daarnaast worden third-party modellen die niet open-source beschikbaar zijn achter de schermen continu aangepast, waardoor de resultaten van de modellen van moment tot moment kunnen veranderen. Eén bedrijf gaf aan om daarom een voorkeur te hebben voor open-source taalmodellen van bijvoorbeeld Nederlandse Universiteiten.

Overheidsorganisaties

Voor de inzet van AI geldt diverse wet- en regelgeving, zoals de Algemene Verordening Gegevensbescherming. Een deel van deze regelgeving geldt specifiek voor de overheid, bijvoorbeeld non-discriminatiewetgeving zoals de Algemene wet bestuursrecht. In de verzamelbrief «algoritmen reguleren» (Kamerbrief 26 643, nr. 1056) wordt nader ingegaan op de voortgang van enkele door het kabinet ingezette trajecten. De inzet van algoritmen dient verantwoord te zijn. Het is van belang dat controle en toetsing in een vroeg stadium plaatsvinden waardoor risico’s op ongewenste effecten kleiner worden. Het implementatiekader «inzet van algoritmen» moet daarbij helpen, waar o.a. verwezen wordt naar de belangrijkste normen die van toepassing zijn op de inzet van algoritmes. Ook wordt er verwezen naar de mogelijkheid om impact assessments (zoals een IAMA) uit te voeren als er een vermoeden is van een hoog risico. Daarnaast zet het kabinet in op een algoritmeregister om inzichtelijk te maken wat de werking is van algoritmen en de mogelijke ongewenste effecten. In de volgende fase wil het kabinet het implementatiekader verder aanvullen en aanscherpen. Daarnaast zal inzicht worden geboden in de verschillende taken, rollen en verantwoordelijkheden van overheidspartijen die algoritmes ontwikkelen en gebruiken.

Daarnaast is het kabinet momenteel bezig met het opstellen van een visie op generatieve AI, waarin ook expliciet aandacht wordt besteed aan de inzet van generatieve AI door de overheid en het beperken van de risico’s van deze inzet. Hiervoor worden gesprekken gevoerd met experts, (vertegenwoordigers) van burgers, bedrijven en maatschappelijke instellingen. De visie op generatieve AI is eind januari 2024 gereed en zal het kabinet uw Kamer doen toekomen.

Raadsbesluit World Radio Conference

Appreciatie

Tijdens de Raad Landbouw en Visserij van 18 september 2023 is het Raadsbesluit over het standpunt dat namens de EU moet worden ingenomen in de World Radiocommunication Conference 2023 (WRC-23) van de International Telecommunication Union (ITU) aangenomen.

Tijdens de WRC-23, die van 20 november tot en met 15 december plaatsvindt in Dubai (Verenigde Arabische Emiraten), wordt het ITU-radioreglement herzien. Dit internationale verdrag wijst radiofrequenties toe aan verschillende radiocommunicatiediensten en stelt technische voorwaarden aan het gebruik van deze frequenties. Het aangenomen Raadsbesluit WRC-23 bevat gemeenschappelijke onderhandelingsposities van de EU over agendapunten die raken aan de interne markt, Europese wetgeving en/of ingezet EU-beleid. De agendapunten gaan onder meer over de mogelijk toekomstige uitbreidingsbanden voor 5G en andere vormen van draadloze connectiviteit, en de mogelijkheden voor ruimteonderzoek en aardobservatie ten behoeve van klimaatonderzoek.

Mededeling Web 4.0 (Metaverse)

Appreciatie

Op 11 juli 2023 presenteerde de Europese Commissie haar mededeling over een initiatief over Web 4.0 en virtuele werelden.4 In dit initiatief stelt de Europese Commissie haar visie en strategische acties voor de Europese Unie voor in verband met Web 4.0.5 en virtuele werelden als onderdeel daarvan. Dit initiatief met de daarin benoemde acties is erop gericht Europese bedrijven toonaangevende toepassingen te laten ontwikkelen en Europese burgers veilig en vol vertrouwen gebruik te laten maken van virtuele werelden. De mededeling van de Commissie bevat geen aankondiging van nieuwe wetgevende initiatieven, maar wel een aantal acties ter ondersteuning van lidstaten. De Kamer wordt via deze agenda van de Informele Telecomraad geïnformeerd over de appreciatie van het voorstel. Er is geen BNC-fiche opgesteld.

De mededeling bevat een uiteenzetting van de aanleiding van dit initiatief, wat er speelt op het gebied van virtuele werelden, en werkt vervolgens een strategie uit op de volgende onderdelen en doelstellingen uit de digital decade: i) burgers en vaardigheden, ii) bedrijfsleven, iii) overheid en gaat daarna in op governance.

Het kabinet verwelkomt deze mededeling en kan zich op hoofdlijnen vinden in het voorstel van de Commissie. Het voorstel laat zien wat er al gebeurt op het onderwerp en besteedt aandacht aan het belang van virtuele werelden. Het is goed dat het onderwerp virtuele werelden wordt gekoppeld aan de vier thema’s van de digital decade en het connectiviteitspakket van de Commissie.

De Europese Commissie benadrukt de mogelijkheden van virtuele werelden voor maatschappij en economie. Het kabinet vindt het positief dat de Commissie interventies voorstelt die de benutting van deze kansen mogelijk maakt. Als aandachtspunten bij het voorstel ziet het kabinet dat de Europese Commissie te beperkt stil staat bij en waarschuwt voor de risico’s van virtuele werelden, met name ook voor kinderen. Het voorstel mist de nuance dat de onderliggende technologie nog in ontwikkeling is en dat daarom nog geen volledig beeld bestaat van de kansen en met name de risico’s. Dit terwijl deze technologieën naar verwachting ook risico’s met zich mee zullen brengen, zoals het op grote schaal verzamelen van zeer sensitieve data (zoals biometrische gegevens), privatisering van digitale omgevingen, afleiding, verstoring en gevaarzetting in de fysieke wereld en risico’s van machtsconcentratie.6

Het voorstel bevat geen nieuwe wetgevende initiatieven. De Commissie analyseert in het voorstel wel de in onderhandeling zijnde of onlangs geïntroduceerde wetgeving (o.a. DSA, DMA, DGA, AVG, AI-Act) en lijkt te constateren dat veel van deze (al dan niet aanstaande) wet- en regelgeving voldoende robuust en toekomstbestendig is om ook risicovolle ontwikkelingen rondom Web 4.0 en virtuele werelden te reguleren of aan te pakken. Het kabinet is wat meer terughoudend omdat de effectiviteit van het pakket aan cumulatieve regels zich in de praktijk nog moet gaan bewijzen en vindt het belangrijk dat er continu wordt gekeken of beleid en/of regelgeving nog aansluit op nieuwe ontwikkelingen.

Momenteel analyseert het Rathenau Instituut de kansen en risico’s van immersieve technologieën, waaronder virtuele werelden. Over de uitkomsten zal het kabinet uw Kamer te zijner tijd informeren.


X Noot
1

API’s (application programming interfaces) zorgen ervoor dat verschillende computerprogramma’s met elkaar communiceren.

X Noot
4

EU-voorstel: Mededeling EU Initiatief Web 4.0 en virtuele werelden / COM / (2023) 442.

X Noot
5

Web 4.0 is de verwachte vierde generatie van het wereldwijde web. Dit is een toekomstbeeld, waarin digitale en fysieke objecten geïntegreerd zijn in een hybride versie van de werkelijkheid. Onderliggende technologieën zijn o.a. geavanceerde artificiële intelligentie, het internet der dingen (Internet of Things), betrouwbare blockchaintransacties, virtuele werelden en XR-capaciteiten. Deze maken volledig intuïtieve, immersieve ervaringen mogelijk, waarbij de fysieke en digitale wereld naadloos met elkaar worden gecombineerd.

X Noot
6

In het rapport regulering van immersieve technologieën, Considerati (in opdracht van minJenV) wordt verder ingegaan op de mogelijke risico’s van immersieve technologieën, zoals virtuele werelden.

Naar boven