Vragen van het lid Kathmann (GroenLinks-PvdA) aan de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties over het ontslag van het gehele TikTok moderatieteam in Nederland: (ingezonden 16 oktober 2024).

Antwoord van Staatssecretaris Szabó (Binnenlandse Zaken en Koninkrijksrelaties) (ontvangen 19 november 2024)

Vraag 1

Bent u bekend met het bericht «TikTok schrapt honderden banen: wil meer AI inzetten voor contentmoderatie» (11-10-2024)?1

Antwoord 1

Ja

Vraag 2

Heeft u voor of na het ontslag van het complete moderatieteam van TikTok in Nederland contact gehad met een vertegenwoordiger van TikTok over deze ontslagen? Zo ja, wat heeft u besproken? Zo nee, waarom niet?

Antwoord 2

Ja, er is contact opgenomen door het Ministerie van BZK met TikTok in Nederland nadat bekend werd dat het contentmoderatieteam daar was ontslagen. TikTok gaf aan dat dit ontslag geen invloed heeft op het totale aantal moderatoren binnen de EU. Het platform heeft ook aangegeven dat er geen grote veranderingen zijn in het aantal moderatoren per taalgroep en dat het niet van plan is het aantal menselijke contentmoderatoren aanzienlijk te verminderen.

Vraag 3

Kunt u een inschatting maken van wat het schrappen van het Nederlandse moderatieteam betekent voor de moderatie van Nederlandstalige content op TikTok?

Antwoord 3

Zoals aangegeven, stelt TikTok dat het ontslag van het moderatieteam in Nederland geen grote impact heeft op het aantal moderatoren per taalgroep. Dit betekent dat er niet aanzienlijk minder Nederlandstalige moderatoren zijn en dat Nederlandse content niet minder gemodereerd wordt. Mocht echter blijken dat TikTok’s informatie onjuist is en er wel beduidend minder Nederlandse moderatoren zijn, waardoor systeemrisico’s toenemen, dan is het aan de Europese Commissie (EC), als toezichthouder, om dit verder te onderzoeken en te evalueren.

Vraag 4

Deelt u de mening dat er voor effectieve contentmoderatie niet enkel vertrouwd kan worden op foutgevoelige AI-systemen, maar dat er ook altijd sprake zou moeten zijn van menselijk toezicht dat op de hoogte is van de lokale (Nederlandse) context waarin de content wordt geproduceerd? Zo nee, waarom niet?

Antwoord 4

Ik begrijp de wens om menselijke controle in contentmoderatie. Zoals ook aangegegeven in de Voortgangsbrief Rijksbrede strategie voor de effectieve aanpak van desinformatie is het kabinet van mening dat te veel sociale media platformen hebben nagelaten voldoende investeringen te doen in context-specifieke, talige en culturele menselijke expertise in Nederland. Ik heb dan ook een onderzoek uitgezet naar de beste praktijken in contentmoderatie op zeer grote online platforms en zoekmachines, zodat er geleerd kan worden welke contentmoderatiesystemen het beste werk verrichten. De resultaten van dit onderzoek zullen in het najaar van 2025 beschikbaar zijn en zullen ook met de Europese Commissie gedeeld worden.

Vraag 5

Kunt u reflecteren op dit ontslag van het Nederlandse moderatieteam in het kader van artikel 16 van de Digital Services Act (DSA), welke eisen stelt aan het voldoen aan meldings- en actieverplichtingen, en artikel 20 van de DSA, dat platforms verplicht stelt om «gemotiveerde beslissingen» te nemen «onder toezicht van passend gekwalificeerd personeel, en niet uitsluitend op basis van geautomatiseerde middelen»?

Antwoord 5

Artikel 16 van de DSA gaat over het inrichten van een toegankelijk en gebruiksvriendelijk kennisgevings- en actiemechanisme. Hierin zijn aanbieders van online hostingsdiensten verplicht om gebruikers op de hoogte te stellen wanneer zij voor die verwerking of besluitvorming geautomatiseerde middelen gebruiken. Ook artikel 17 van de DSA geeft aan dat gebruikers geïnformeerd moeten worden als content wordt gemodereerd met geautomatiseerde middelen. De gebruiker heeft vervolgens het recht om daar een klacht over in te dienen, die beslissing voor te leggen aan een externe geschilbeslechtscommissie als die er is, of naar de rechter te gaan. Het kabinet wil burgers beter in staat stellen om hun rechten te halen bij sociale mediaplatformen. Zoals vermeld in de Voortgangsbrief Rijksbrede strategie voor een effectieve aanpak van desinformatie, werkt het Ministerie van BZK daarom aan de verkenning van een meldvoorziening en een onafhankelijk geschillenorgaan, zoals beschreven in artikel 21 van de DSA.

Artikel 20 van de DSA verwijst naar de inrichting van een klachtensysteem. Hierin zijn aanbieders van online diensten verplicht om een doeltreffend intern klachtenafhandelingssysteem in te stellen dat elektronisch en gratis te gebruiken is voor gebruikers. De verwijzing dat aanbieders van onlineplatforms verplicht zijn om genomen besluiten onder toezicht van gekwalificeerd personeel te nemen en niet louter geautomatiseerde middelen in te zetten, verwijst naar de genomen besluiten in een interne klachtenhandelingssysteem en niet in hun inhoudsmoderatie.

Met betrekking tot inhoudsmoderatiebeslissingen, al dan niet geautomatiseerd, zijn de artikelen 42 en 15 relevant. Artikel 42 van de DSA verplicht zeer grote onlineplatforms om rapporten te publiceren met details over hun inhoudsmoderatie-inspanningen. Deze rapporten moeten onder andere aangeven hoeveel personeel ze inzetten per officiële taal van de EU-lidstaten, hun kwalificaties en taalkennis, en hoe goed hun moderatie werkt in elke taal.

Artikel 15 van de DSA verplicht zeer grote onlineplatforms om te rapporteren over hun inhoudsmoderatie. Deze rapporten moeten duidelijk en eenvoudig te begrijpen zijn en informatie bevatten over acties die ze hebben genomen om inhoud te modereren, zoals het gebruik van geautomatiseerde tools. Ze moeten ook details geven over de nauwkeurigheid van deze tools, mogelijke fouten, en welke maatregelen ze hebben genomen om fouten te beperken. De informatie moet ook worden ingedeeld op basis van het type illegale inhoud en de gebruikte moderatiemethode.

Vraag 6

Bent u van mening dat het mogelijk is om te voldoen aan de verplichtingen uit artikel 34 en 35 van de DSA om, rekening houdend met specifieke regionale of taalkundige aspecten (ook wanneer deze specifiek zijn voor een lidstaat), systemische risico’s voor platforms als TikTok te identificeren, analyseren en effectief te beperken zonder dat er in Nederland personeel voor contentmoderatie aanwezig is? Kunt u dit toelichten?

Antwoord 6

Ja, dat is mogelijk en hangt ervan af of TikTok elders voldoende Nederlandstalige moderatoren met kennis van de context in dienst heeft. TikTok dient in transparantieverslagen aan te geven hoeveel personeel ze inzetten per officiële taal van de EU-lidstaten. Hierbij is het belangrijk om erop te wijzen dat de DSA vraagt om een uiteenzetting van de hoeveelheid personeel per officiële taal binnen de EU, ongeacht de locatie van deze contentmoderatoren.

In het meest recente transparantieverslag (januari-juni 2024) vermeldt TikTok 160 Nederlandstalige inhoudsmoderatoren. Als in het volgende transparantieverslag blijkt dat TikTok een significante vermindering van Nederlandstalige contentmoderatoren heeft en dit leidt tot een systeemrisico, kan het bedrijf nog steeds voldoen aan artikel 34 en 35 van de DSA, mits er voldoende mitigerende maatregelen zijn genomen om deze risico’s te beheersen, zoals bijvoorbeeld de aanpassing van inhoudsmoderatieprocedures en daarvoor gebruikte besluitvormingsprocedures of moderatiemiddelen.

Vraag 7

Deelt u de mening dat er voldoende lokaal personeel en gekwalificeerd menselijk toezicht nodig is om te voldoen aan artikel 16 van de DSA, met name in het geval van zeer grote onlineplatforms, en artikel 34 van de DSA? Zo nee, waarom niet?

Vraag 7

Deelt u de mening dat er voldoende lokaal personeel en gekwalificeerd menselijk toezicht nodig is om te voldoen aan artikel 16 van de DSA, met name in het geval van zeer grote onlineplatforms, en artikel 34 van de DSA? Zo nee, waarom niet?

Antwoord 8

Het oordeel of TikTok de DSA correct genoeg naleeft is aan de Europese Commissie. De Europese Commissie is namelijk de primaire toezichthouder voor het naleven van de DSA door zeer grote platforms, waaronder TikTok. Sinds de inwerkingtreding van de DSA heeft de EC haar rol als toezichthouder voortvarend opgepakt en wij volgen nauwlettend de ontwikkelingen. Zo startte de Commissie in 2024 twee formele procedures tegen TikTok om te onderzoeken of er sprake is van overtredingen van de DSA.2 Artikelen 74 en 76 van de DSA geven de Commissie een bevoegdheid om een boete of last onder dwangsom op te leggen als er daadwerkelijk sprake is van een overtreding.

De Nederlandse overheid volgt de verdere uitvoering van de DSA en ondersteunt de Commissie waar het kan. Zoals in antwoord vier is aangegeven is er namens het Ministerie van BZK een onderzoek uitgezet, waarin wordt onderzocht welke beste moderatiepraktijken er bestaan bij zeer grote online platformen en zoekmachines. De resultaten hiervan zullen in het najaar van 2025 bekendgemaakt worden.

Vraag 9

Is bij u bekend of alle platforms aangemerkt als «Very Large Online Platform» (VLOP) nu (nog) zijn voorzien van een moderatieteam in Nederland? Hoe kunt u verzekeren dat berichtjes op deze platformen blijvend door mensen worden gemodereerd?

Antwoord 9

Het is publiekelijk beschikbare informatie hoeveel personeel VLOP’s hebben die in het Nederlands modereren. Artikel 42 van de DSA verplicht VLOP’s namelijk om halfjaarlijks transparantieverslagen te publiceren met details over onder andere hun inhoudsmoderatie-inspanningen. Deze rapporten moeten bijvoorbeeld aangeven hoeveel personeel ze inzetten per officiële taal van de EU-lidstaten, hun kwalificaties en taalkennis, en hoe goed hun moderatie werkt in elke taal. Zoals reeds aangegeven had TikTok 160 Nederlandstalige inhoudsmoderatoren in de periode januari-juni 2024. Meta3 dat verantwoordelijk is voor de VLOP’s Instagram en Facebook had in totaal 96 Nederlandstalige moderatoren in de periode van april-september 2024. En X/Twitter had geen enkele Nederlandstalige contentmoderator in de periode van april-september 2024.4 Verder is het niet verplicht om in de transparantieverslagen op te nemen in welke landen de contentmoderatoren gevestigd zijn.

De DSA verbiedt ook niet dat een platform gebruik maakt van geautomatiseerde middelen voor het verrichten van moderatie. Maar als dat gebeurt dan moet het platform dat benoemen in het bericht waarmee ze een gebruiker informeren dat ze diens content hebben gemodereerd (artikel 17). De gebruiker heeft vervolgens het recht om daar een klacht over in te dienen, die beslissing voor te leggen aan een externe geschilbeslechtscommissie als die er is, of naar de rechter te gaan.

Indien een gebrek aan menselijke controle leidt tot dusdanige risico’s dat het een systeemrisico in de zin van artikel 34 DSA vormt, dan moeten zeer grote online platforms en zoekmachines daar mitigerende maatregelen tegen nemen. Zoals bijvoorbeeld de aanpassing van inhoudsmoderatieprocedures en daarvoor gebruikte besluitvormingsprocedures of moderatiemiddelen. Ook de opleiding en lokale deskundigheid van moderatoren behoort hiertoe.

Vraag 10

Kunt u deze vragen afzonderlijk van elkaar en zo spoedig mogelijk beantwoorden?

Antwoord 10

Ja

Naar boven