Vragen van het lid Michon-Derkzen (VVD) aan de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties en de Minister van Justitie en Veiligheid over het bericht «Politie vindt steeds vaker met AI gemaakte kinderporno: groot probleem» (ingezonden 21 maart 2024).

Antwoord van Minister Yeşilgöz-Zegerius (Justitie en Veiligheid), mede namens de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties (ontvangen 13 mei 2024). Zie ook Aanhangsel Handelingen, vergaderjaar 2023–2024, nr. 1480.

Vraag 1

Bent u bekend met het bericht «Politie vindt steeds vaker met AI gemaakte kinderporno: groot probleem»?1

Antwoord 1

Ja ik ben bekend met dit bericht.

Vraag 2

Klopt het dat het aantal kinderpornografische afbeeldingen gemaakt door, of met behulp van, AI sterk toeneemt? Heeft u enig inzicht in om hoeveel afbeeldingen dit gaat in Nederland?

Antwoord 2

Ja, het aantal afbeeldingen van seksueel kindermisbruik gemaakt door of met behulp van kunstmatige intelligentie neemt toe. Hoewel er geen exacte cijfers beschikbaar zijn omdat het totaal aantal afbeeldingen niet wordt geregistreerd, geeft het Team ter bestrijding van Kinderpornografie en Kindersekstoerisme (TBKK) aan dat er wel een toename van AI-gegenereerd materiaal wordt waargenomen. Omdat een afbeelding van seksueel kindermisbruik altijd strafbaar is, maakt het voor politie niet uit hoe een afbeelding is gegenereerd.

Uit onderzoek van de Internet Watch Foundation (IWF) blijkt evenwel dat van de totale hoeveelheid materiaal van seksueel kindermisbruik, de hoeveelheid door kunstmatige intelligentie gegenereerd materiaal op dit moment nog een relatief klein deel betreft.2 Wel merkt de IWF op dat dit aandeel in potentie exponentieel kan groeien, mede gezien daders dergelijk materiaal met rechtmatig te verkrijgen software kunnen creëren en de ontwikkeling van generatieve kunstmatige intelligentie snel gaat. Ook het aantal meldingen van afbeeldingen gegenereerd met behulp van kunstmatige intelligentie bij het National Center for Missing & Exploited Children (NCMEC) is wereldwijd sterk gestegen.

Vraag 3

Klopt het dat het bezit en veelvuldig bekijken van dit soort materiaal op termijn fysiek misbruik van kinderen in de hand werkt?

Antwoord 3

Het is duidelijk dat blootstelling aan online materiaal van seksueel kindermisbruik risicovol is. Dergelijk materiaal bestendigt een cultuur van geweld en draagt bij aan de ontmenselijking, uitbuiting en seksualisering van kinderen. Daarnaast draagt de gemakkelijke toegang tot materiaal van seksueel kindermisbruik bij aan de normalisering van seksueel geweld tegen kinderen.

In die context is AI-gegenereerd materiaal volstrekt onacceptabel en moeten we er alles aan doen om dit verwerpelijke materiaal op te sporen en ontoegankelijk te maken. Politie en openbaar ministerie zetten dan ook in op de opsporing van de personen die dergelijk materiaal online delen en uitwisselen. Ook worden de online communicatiediensten die dit faciliteren gewezen op hun wettelijke verplichtingen.

Hoewel er nog geen onderzoek is dat een direct causaal verband aantoont tussen het kijken van (door kunstmatige intelligentie gegenereerd) materiaal van seksueel kindermisbruik en het op termijn daadwerkelijk fysiek seksueel misbruiken van kinderen, zijn er meerdere onderzoeken waarvan de conclusies suggereren dat er een verband kán bestaan. Zo is er wetenschappelijk onderzoek uitgevoerd waarin respondenten aangaven dat de herhaaldelijke blootstelling aan online materiaal van seksueel kindermisbruik ervoor had gezorgd dat ze een seksuele interesse in kinderen hadden ontwikkeld.3 Het is echter de vraag of deze seksuele interesse door het kijken van dergelijk materiaal wordt ontdekt of ontwikkeld. Meerdere onderzoeken suggereren wel dat gebruikers van legale pornografie de neiging hebben om in de loop van de tijd extremere content te gaan bekijken.4 Dit wordt toegeschreven aan een vermindering van het opwindingsniveau met betrekking tot dezelfde stimuli bij herhaaldelijke blootstelling aan deze stimuli. Ook heeft recent onderzoek gesuggereerd dat regulier of overmatig gebruik van pornografie voor volwassenen een mogelijke weg is naar het kijken van materiaal van seksueel misbruik van kinderen.5 Tot slot zijn er wetenschappelijke studies gedaan naar de verschillende stadia die een potentiële dader doorloopt tot deze daadwerkelijk overgaat tot fysiek misbruik. Fantaseren over potentieel seksueel kindermisbruik wordt hierin beschreven als een stap in de spiraal die uiteindelijk leidt tot seksueel kindermisbruik.6

Vraag 4

In hoeverre is het mogelijk het identificeren of herkennen van AI-gegenereerde afbeeldingen te vergemakkelijken, zodat de politie/het Team ter bestrijding van Kinderpornografie en Kindersekstoerisme (TBKK) hier minder tijd aan kwijt is? Bestaan er mogelijkheden om te traceren waar of door wie dit soort afbeeldingen gemaakt worden?

Antwoord 4

Op dit moment is het voor Team ter bestrijding van Kinderpornografie en Kindersekstoerisme (TBKK) vaak nog redelijk snel te herkennen wanneer het door kunstmatige intelligentie gegenereerd materiaal van seksueel kindermisbruik betreft. Door de nog niet zo vergevorderde techniek is het dan duidelijk dat manipulatie van beelden heeft plaatsgevonden. Ook stuit TBKK incidenteel op daders die gezichten van andere kinderen op het gezicht van een slachtoffer in een reeds bekende misbruikvideo plakken, waardoor manipulatie van de beelden duidelijk te herkennen is. Het ligt in de lijn der verwachting dat herkenning steeds lastiger wordt omdat de technologie van generatieve kunstmatige intelligentie snel aan het verbeteren is.

Op dit moment bestaat nog geen sluitende technologie om te traceren door wie of waar dit soort beeldmateriaal wordt gemaakt. Dit geldt evenzo voor het bepalen of het AI-gegenereerd materiaal betreft. Het bepalen van de authenticiteit van materiaal is van belang gezien de prioriteit om daadwerkelijke slachtoffers zo snel mogelijk te identificeren. Het is de vraag of dergelijke sluitende technologie in de toekomst wel zal bestaan. Generatieve kunstmatige intelligentie ontwikkelt in rap tempo waarbij enerzijds wordt gewerkt aan technologie om gegenereerd of gemanipuleerd materiaal te herkennen en anderzijds aan technologie om op steeds accuratere wijze te genereren en manipuleren. Dit doet uiteraard niets af aan het belang om dergelijke technologie dat dit soort materiaal kan herkennen te ontwikkelen.

Vraag 5

Ondersteunt u de oproep van landelijk coördinator van het TBKK Van Mierlo aan techbedrijven om hun verantwoordelijkheid te pakken? Zo ja, hoe jaagt u dit aan?

Antwoord 5

De oproep van de heer van Mierlo zag met name toe op de bedrijven met wiens generatieve kunstmatige intelligentie materiaal wordt gegenereerd. Uiteraard dragen de bedrijven via wiens diensten het wordt verspreid ook een verantwoordelijkheid. Hier zal ik in het kader van online platforms in het antwoord op vraag 6 op reflecteren.

De oproep sluit aan bij de internationale oproep aan bedrijven in januari 2024 van een aantal politiekorpsen, verenigd in de «Virtual Global Taskforce»7, om hen aan te sporen actief deel te nemen in de strijd tegen de gevolgen van kunstmatige intelligentie op dit specifieke terrein. De politieorganisaties zitten in dit kader ook met (tech-)bedrijven aan tafel. Ook het kabinet hecht er groot belang aan dat (generatieve) kunstmatige intelligentie veilig en rechtmatig wordt ontwikkeld en gebruikt. De zorgen rondom de risico’s die generatieve kunstmatige intelligentie biedt voor het sneller generen en verspreiden van illegale content, zoals materiaal van seksueel kindermisbruik, worden gedeeld. Het kabinet zit niet stil en neemt verschillende stappen om gerelateerde risico’s te adresseren. In het kader van de overheidsbrede visie op generatieve kunstmatige intelligentie wordt onder meer ingezet op het versterken van digitale vaardigheden en digitaal bewustzijn van mensen in Nederland zodat zij bewust, kritisch en actief kunnen omgaan met AI-toepassingen.8

Vanzelfsprekend dragen techbedrijven ook verantwoordelijkheid om zorg te dragen dat de systemen die zij ontwikkelen niet gebruikt worden om materiaal van seksueel kindermisbruik te genereren. In het kader van «safety by design» zouden zij hun dienst dusdanig moeten inrichten dat deze door gebruikers zo min mogelijk kan worden misbruikt.9 Gezien het zelflerend vermogen van AI-systemen en de mogelijk beperkte grip op het gebruik van deze systemen door de ontwerper is het moeilijk om illegaal gebruik van generatieve kunstmatige intelligentie geheel uit te sluiten.

Vraag 6

Deelt u de mening van de VVD-fractie dat online platforms ook een rol hebben om dit soort content te identificeren en uit de lucht te halen? Zo ja, hoe ziet u daarop toe?

Antwoord 6

Het door middel van kunstmatige intelligentie genereren van kinderpornografisch materiaal is strafbaar op basis van artikel 240b van het Wetboek van Strafrecht. Het huidige artikel 240b van het Wetboek van Strafrecht, dat wordt vervangen door het nieuwe artikel 252 dat per 1 juli a.s. in werking treedt (Wet seksuele misdrijven, Stb. 2024, 59), kent geen beperking in de wijze van vervaardiging van kinderpornografisch materiaal. Het gaat er om dat het vervaardigde materiaal aan de vereisten voldoet die in de strafbepaling worden gesteld. Strafbaar is dus ook degene die met behulp of door gebruik van kunstmatige intelligentie een visuele weergave van seksuele aard of met een onmiskenbaar seksuele strekking waarbij een kind is betrokken of schijnbaar is betrokken (virtueel kinderpornografisch materiaal), vervaardigt. Vereist is dat het een realistische weergave van seksuele aard of met een onmiskenbaar seksuele strekking betreft.

Online platforms hebben zeker een grote verantwoordelijkheid om dit soort content uit de lucht te halen na meldingen. Dit geldt voor alle vormen van online illegale content. Op grond van artikel 16 van de Digital Services Act dienen online platforms een systeem te hebben waarmee illegale inhoud bij hen kan worden gemeld. Zodra het online platform een dergelijke melding ontvangt moet het die tijdig, zorgvuldig, niet-willekeurig en objectief behandelen. Als er inderdaad sprake is van illegale inhoud dan moet het online platform zodra het daar van weet – bijvoorbeeld als gevolg van een melding – prompt handelen om de illegale inhoud te verwijderen of de toegang daartoe onmogelijk te maken. Doet een online platform dat niet dan kan het zowel privaat- als strafrechtelijk aansprakelijk worden gesteld voor die illegale inhoud. Het toezicht op naleving van de DSA ligt bij de toezichthouder van het land waar een online platform is gevestigd, en als het een zeer groot online platform betreft deels (exclusief) bij de Europese Commissie. Het kabinet heeft voorgesteld om de Autoriteit Consument en Markt (ACM) aan te wijzen als de onafhankelijk toezichthouder op de DSA in Nederland.

Recent is het platform Telegram veel in de media verschenen over besloten groepen waar schokkend pornografisch materiaal wordt gedeeld.10 Ook door uw Kamer zijn vragen gesteld specifiek over Telegram. Met betrekking tot Telegram verwijs ik u daarom graag door naar de beantwoording van de betreffende Kamervragen.11

Daarnaast wordt in de wet bestuursrechtelijke aanpak online kinderpornografisch materiaal (Kamerstukken II 36 377, nr. 2) voorgesteld dat hosting service providers die in Nederland gevestigd zijn en materiaal van seksueel kindermisbruik – ook met AI gegenereerd – opslaan of doorgeven een bindende aanwijzing van de Autoriteit Terroristisch en Kinderpornografisch Materiaal (ATKM) krijgen. De aanwijzing attendeert de dienstverlener op de aanwezigheid van het materiaal en houdt het bevel in dit materiaal binnen een korte termijn ontoegankelijk te maken. Naleving van de aanwijzing kan worden afgedwongen met een last onder dwangsom of een bestuurlijke boete. Binnenkort zal dit wetsvoorstel door Uw Kamer worden behandeld.

Tenslotte wordt er vanuit de Europese Unie al enige tijd onderhandeld over een voorstel voor een verordening betreffende voorschriften ter voorkoming en bestrijding van seksueel kindermisbruik. Het voorstel bestaat uit regels die aanbieders van hostingdiensten en interpersoonlijke communicatiediensten verplichten om het risico te beoordelen dat hun diensten worden gebruikt voor het verspreiden van materiaal van CSA (Child Sexual Abuse) en het benaderen van kinderen voor seksuele doeleinden (grooming). Ook dienen zij dit materiaal te melden aan het nieuw op te richten Europees Centrum en het materiaal te verwijderen. Onder bepaalde omstandigheden kunnen bedrijven ook worden verplicht om materiaal van CSA te detecteren.

Vraag 7

In hoeverre draagt de Europese AI-verordening bij aan het bestrijden van AI-kinderporno?

Antwoord 7

De Europese AI-verordening verplicht aanbieders van AI-systemen (ontwikkelaars of degene die het op de markt brengt) waarmee content zoals video en tekst gemaakt kan worden om ervoor te zorgen dat met kunstmatige intelligentie gegenereerde of gemanipuleerde content als zodanig detecteerbaar is. Dit is mede door de Nederlandse inzet tijdens de onderhandelingen in de verordening opgenomen. Hiermee wordt het voor platforms, opsporingsdiensten en eindgebruikers makkelijker om gegeneerde content te onderscheiden van echte content. Hoewel dit het verspreiden van kinderpornografisch materiaal nooit volledig zal kunnen voorkomen, levert deze verplichting zo een bijdrage aan het tegengaan AI genereerd kinderpornografisch materiaal.

Vraag 8

In hoeverre draagt de Europese DSA-verordening bij aan het bestrijden van AI-kinderporno?

Antwoord 8

De DSA bevat diverse verplichtingen die kunnen helpen bij het bestrijden van illegale inhoud zoals AI-kinderpornografisch materiaal. Zoals in het antwoord op vraag 6 beschreven dienen platforms en aanbieders van hostingdiensten illegale inhoud te verwijderen na melding daarvan. Ook dienen zeer grote online platforms (Very Large Online Platforms, VLOP’s) op grond van artikel 34 DSA jaarlijks een risicobeoordeling te maken van mogelijke systeemrisico’s die hun diensten bevatten. Waaronder de verspreiding van illegale inhoud en eventuele of werkelijke negatieve effecten op de bescherming van minderjarigen. Indien die risico’s bestaan moeten ze risicobeperkende maatregelen nemen (artikel 35 DSA).

Daarnaast versterkt de Digital Services Act ook de verplichtingen voor aanbieders van hostingdiensten. Naast verspreiding via online platforms kan AI-kinderporno ook worden verspreid via hostingdiensten. Aanbieders van hostingdiensten dienen op grond van artikel 11 DSA een contactpunt te hebben voor nationale autoriteiten zoals rechtshandhavingsinstellingen. Op grond van artikel 13 moeten aanbieders van hostingdiensten en online platforms die geen vestiging in de Unie hebben een wettelijke vertegenwoordiger in de EU aanwijzen wanneer zij hier diensten aanbieden.12 Deze verplichtingen moeten het contact met aanbieders van deze diensten en handhaving van de DSA vergemakkelijken, bijvoorbeeld voor het verrichten van meldingen van illegale inhoud.

Vraag 9

In hoeverre wordt het met de Wet bestuursrechtelijke aanpak online kinderporno beter mogelijk om deze vorm van kinderpornografisch materieel aan te pakken en in hoeverre is de Autoriteit Online Terroristisch en Kinderpornografisch Materiaal (AKTM) voldoende toegerust en geëquipeerd om deze vorm van kinderpornografisch materiaal aan te pakken?

Antwoord 9

Het wetsvoorstel bestuursrechtelijke aanpak online kinderpornografisch materiaal maakt het mogelijk om een binnen Nederland gevestigde dienstverlener (hosting service provider of communicatiedienst) die kinderpornografisch materiaal – ook met AI gegenereerd – opslaat of doorgeeft een bindende aanwijzing te geven. De aanwijzing attendeert de dienstverlener op de aanwezigheid van het materiaal en houdt het bevel in dit materiaal binnen een korte termijn ontoegankelijk te maken. Naleving van de aanwijzing kan worden afgedwongen met een last onder dwangsom of een bestuurlijke boete.

De in dit wetsvoorstel voorgestelde bestuursrechtelijke maatregelen vormen het sluitstuk van het bestaande regime van zelfregulering. Daarbij dienen zij ter aanvulling op de bestaande strafrechtelijke aanpak waarmee wordt opgetreden tegen diegenen die zich met de productie of het bezit van kinderpornografisch materiaal bezighouden. Deze aanvulling is noodzakelijk, gelet op de grote hoeveelheid online kinderpornografisch materiaal die in Nederland wordt opgeslagen en doorgegeven en de snelle verspreiding daarvan. Dit wetsvoorstel is er (louter) op gericht online kinderpornografisch materiaal zo snel mogelijk ontoegankelijk te doen maken. Het wetsvoorstel ligt voor in uw Kamer.

Vraag 10

De politie ziet steeds meer mensen – met name jongeren – die afgeperst worden met naaktbeelden die door AI gemaakt zijn; op hoeveel mensen heeft de politie zicht? Wordt hier aangifte voor gedaan? Zo nee, waarom niet en hoe kan de aangiftebereidheid verhoogd worden?

Antwoord 10

In internationaal verband is al langere tijd bekend dat daders, ook buiten Nederland, jongeren benaderen met gefingeerde profielen, vaak gegenereerd door toepassing van kunstmatige intelligentie of soortgelijke technieken. Zij doen zich bijvoorbeeld voor als een leeftijdsgenoot en proberen het vertrouwen van de slachtoffers te wekken waarna zij de slachtoffers overtuigen tot het versturen van seksueel beeldmateriaal. Het beeldmateriaal wordt daarna ingezet om de slachtoffers af te persen. Dit is een wereldwijd fenomeen met vele slachtoffers die zich vaak niet melden. Ook in Nederland komt dit voor en is sprake van verschillende typen daders, zo gaat het in sommige gevallen ook om leeftijdgenoten van het slachtoffer.

Er wordt door de politie geen cijfermatige informatie bijgehouden over de exacte handelwijze bij deze afpersingen en er wordt niet geregistreerd of er gebruik is gemaakt van kunstmatige intelligentie. De politie hecht groot belang aan het realiseren van een zo hoog mogelijke aangiftebereidheid, en zet zich daarnaast stevig in om slachtoffers te bereiken met het juiste hulpaanbod. Gezien de kwetsbaarheid van deze slachtoffers, is adequate hulp van groot belang. Zo wijs ik graag op de ondersteuning van slachtoffers door organisaties zoals HelpWanted, onderdeel van Offlimits, of stichting 113.

Vraag 11

Klopt het dat de overheid meldpunten faciliteert voor dienstverleners binnen de internetsector om illegale content/deepfakes aan te geven? Is het hier ook mogelijk om dit soort AI-gegeneerde pornografische afbeeldingen te melden? Hoe vlot de ontwikkeling van een laagdrempelige voorziening waar evident onrechtmatige content gemeld kan worden?

Antwoord 11

Het klopt dat de overheid voorzieningen financiert waar mensen online content kunnen melden die na beoordeling door de voorziening onder de aandacht kan worden gebracht bij internettussenpersonen. Strafbare online content kan worden gemeld bij Meld.Online Discriminatie (MOD) en het Meldpunt Kinderporno. Dit geldt ook voor gevallen van deepfakes die discriminatoir van karakter zijn of als het seksueel kindermisbruik betreft. Hiernaast wordt in samenwerking met Helpwanted momenteel een pilot uitgevoerd als onderdeel van het voornemen om een laagdrempelige meldvoorziening in te richten voor slachtoffers van onrechtmatige content. In dit kader kunnen ook onrechtmatige deepfakes worden gemeld, bijvoorbeeld als mensen door de deepfake in de persoon worden geschaad. Naar verwachting neemt het kabinet later dit jaar een besluit over de laagdrempelige meldvoorziening.

Vraag 12

Wat is de stand van zaken van het onderzoeksprogramma van het Nederland Forensisch Instituut (NFI) met als doel de mogelijkheden voor deepfakedetectie in de rechtspraktijk verder te verbeteren?

Antwoord 12

Het Nederlands Forensisch Instituut (NFI) en de Universiteit van Amsterdam (UvA) zijn in 2021 gestart met gezamenlijk onderzoek naar computermodellen om deepfakes en verborgen berichten te helpen herkennen.13 Binnen dit AI4Forensics Lab doen zij onderzoek naar het fenomeen deepfakes. Zij analyseren de nieuwste methodes om deepfakes te herkennen en evalueren deze op forensische bruikbaarheid. De onderzoekers hebben al een aantal nieuwe methodes aan hun gereedschapskist toegevoegd om deepfakes te herkennen. Zo laat bijvoorbeeld iedere camera een vingerafdruk achter, of kan met behulp van een tijdlijn van de elektriciteitsfrequentie worden vastgesteld of bijvoorbeeld het hoofd op een ander tijdstip is gefilmd dan de rest van de video. Ook doen het NFI en de UvA onderzoek naar uitlegbare AI om deepfakes te herkennen.14 De vorm, noodzaak en mogelijkheden voor voortzetting van het deepfake onderzoek binnen het AI4Forensic Lab zal eind 2024 worden geëvalueerd.

Het NFI heeft inmiddels deepfakes onderzocht in enkele strafrechtelijke onderzoeken. Het gaat dan om video’s waarbij lichamen en gezichten van personen gemanipuleerd zijn. Gezien deepfakes steeds beter en realistischer worden, erkent het NFI de noodzaak om onderzoek te blijven doen en nieuwe methodes te ontdekken, om daarmee criminelen voor te blijven.


X Noot
1

WNL, 15 maart 2024, Steeds meer kinderporno gemaakt met behulp van AI, via https://wnl.tv/2024/03/15/politie-slaat-alarm-steeds-meer-kinderporno-gemaakt-met-hulp-van-ai/.

X Noot
3

Knack, N., Holmes, D., & Fedoroff, J. P. (2020). Motivational pathways underlying the onset and maintenance of viewing child pornography on the Internet. Behavioral Sciences & the Law, 38(2), 100–116.

X Noot
4

Elliott, I. A., & Beech, A. R. (2009). Understanding online child pornography use: Applying sexual offense theory to internet offenders. Aggression and Violent Behavior, 14(3), 180–193 en Stop it Now en de Nationaal Rapporteur Mensenhandel en Seksueel Geweld tegen Kinderen, «Maak het bespreekbaar – Onderzoek naar jonge (potentiële) daders van seksueel kindermisbruik», 24-08-2023.

X Noot
5

Grant, H (2023). Pornography driving UK teens towards child abuse material, say experts. The Guardian. https://www.theguardian.com/society/2023/sep/26/pornography-driving-teens-child-abuse-material-charities-police.

X Noot
6

Sullivan, J. (2018). Child sexual abuse and molestation: The spiral of sexual abuse. 10.1007/978-3-319-61625-4_15.

X Noot
9

In het kader van gegevensbescherming is dit een verplichting uit de Algemene Verordening Gegevensbescherming: Artikel 25, Algemene Verordening Gegevensbescherming.

X Noot
12

Digital Services Act, artikel 13 en 14.

X Noot
14

Daar wordt binnenkort een paper over gepubliceerd een preprint is beschikbaar via https://arxiv.org/abs/2309.11155.

Naar boven