Vragen van de leden Kathmann en Westerveld (beiden GroenLinks-PvdA) aan de Staatssecretaris en de Minister van Binnenlandse Zaken en Koninkrijksrelaties en de Ministers van Justitie en Veiligheid, van Volksgezondheid, Welzijn en Sport en van Economische Zaken en Klimaat over het onterecht verwijderen van foto’s en video’s van mensen met een zichtbare beperking (ingezonden 23 april 2024).

Antwoord van Staatssecretaris Van Huffelen (Binnenlandse Zaken en Koninkrijksrelaties), mede namens de Ministers van Binnenlandse Zaken en Koninkrijksrelaties en van Volksgezondheid, Welzijn en Sport (ontvangen 28 juni 2024). Zie ook Aanhangsel Handelingen, vergaderjaar 2023–2024, nr. 1801.

Vraag 1

Ontvangt u signalen dat beeldmateriaal van mensen met een beperking onterecht wordt afgeschermd en verwijderd van Facebook?

Antwoord 1

In algemene zin merk ik dat de moderatiekeuzes van grote platforms kunnen leiden tot gefronste wenkbrauwen in de samenleving. Content zou onterecht verwijderd worden, of juist onterecht worden gehandhaafd. Ook is er discussie over of platforms bepaalde inhoud minder zichtbaar maken in hun netwerk. Over het door u genoemde geval heb ik geen signalen ontvangen. Laat ik heel helder zijn: discriminatie door grote platformbedrijven wordt niet geaccepteerd.

Sinds de komst van de Europese digitaledienstenverordening (DSA) worden platforms verplicht hun moderatiepraktijken duidelijk kenbaar te maken, en waarborgen te bieden aan gebruikers bij het modereren van inhoud. Voorop staat in ieder geval dat de vrijheid van meningsuiting en het discriminatieverbod daarin duidelijk moeten worden meegenomen.

Vraag 2

Staat het een groot sociale media platform als Facebook vrij om alledaagse foto’s en video’s van mensen met een amputatie te verwijderen omdat dit aangemerkt wordt als «het vieren van lijden of vernedering» en «overmatig gewelddadig» zou zijn? Is dit volgens u in lijn met nationaal en Europees beleid?

Antwoord 2

Grote sociale media platforms mogen op basis van hun algemene voorwaarden aan moderatie van inhoud doen. Inhoud die in strijd is met de algemene voorwaarden, mogen zij minder zichtbaar maken of verwijderen.

Dat is echter geen vrijbrief: de DSA stelt voorwaarden met betrekking tot de transparantie over inhoudsmoderatie. Zo moet elk moderatiebesluit gemotiveerd worden en moeten gebruikers geïnformeerd worden over de mogelijkheden in beroep te gaan of bezwaar aan te tekenen via het intern klachtenafhandelingssysteem van het platform, of waar mogelijk bij een onafhankelijk geschillenbeslechtingsorgaan.

Bovendien mogen platforms bij het aanbieden van hun diensten niet discrimineren op grond van handicap. Artikel 5b van de Wet gelijke behandeling op grond van handicap of chronische ziekte (Wgbh/cz) verbiedt het maken van onderscheid bij het aanbieden van of verlenen van toegang tot goederen of diensten en bij het sluiten, uitvoeren of beëindigen van overeenkomsten ter zake. Dit verbod richt zich ook tot sociale media platforms die in Nederland actief zijn. Op basis van deze wet is het ook mogelijk om een uitspraak te vragen van het College voor de rechten van de mens ten aanzien van de vraag of en wanneer er sprake is van ongeoorloofd onderscheid (art. 12 Wgbh/cz, in samenhang met artikel 10 Wet College voor de rechten van de mens).

Vraag 3

Hoe beoordeelt u het verwijderen en afschermen van foto's en video's van mensen met een zichtbare beperking door sociale media platforms als het gaat om uitingen geplaatst door mensen die zelf een beperking hebben, belangenorganisaties en journalistieke organisaties? Kunt u op iedere doelgroep apart ingaan?

Antwoord 3

Het verwijderen van content mag nooit leiden tot discriminatie. Grote sociale media platforms doen aan moderatie van de inhoud en maken daarbij constant afwegingen tussen verschillende belangen en rechten. Daarbij dienen sociale media platforms rekening te houden met het verbod van onderscheid, zoals opgenomen in de Wgbh/cz. Het verwijderen van foto’s en video’s van mensen met een zichtbare beperking die deze personen op eigen accounts hebben geplaatst, is mogelijk discriminerend. De platforms dienen zich ten opzichte van alle aanwezige content te houden aan dit verbod. Dat geldt dus voor content geplaatst door individuen, belangenorganisaties en journalistieke organisaties (of journalisten).

Zoals ook opgemerkt in het vorige antwoord kunnen mensen met een zichtbare beperking die vermoeden dat beeldmateriaal ten onrechte van hun account wordt verwijderd een klacht indienen via het intern klachtenafhandelingssysteem van het platform zelf of waar mogelijk via een onafhankelijk geschillenbeslechtingsorgaan. Daarnaast kunnen ze het College voor de rechten van de mens verzoeken om een oordeel over de vraag of het sociale media platform daarmee handelt in strijd met de Wgbh/cz. Ook organisaties die in overeenstemming met hun statuten de belangen behartigen van diegenen in wier bescherming de Wgbh/cz beoogt te voorzien, kunnen een beroep doen op de bescherming van deze wet. Tot slot staat natuurlijk een gang naar de rechter open.

Vraag 4

Bent u het met eens met de stelling dat het vrij kunnen delen van foto's en video's van mensen met een zichtbare beperking bijdraagt aan de representatie en normalisatie van deze doelgroep?

Antwoord 4

Iedereen hoort zich vrij te kunnen voelen om foto’s en video’s van zichzelf te delen. Ik ben het eens met de vragenstellers dat het delen van foto’s en video’s van mensen met een zichtbare beperking kan bijdragen aan de representatie en normalisatie van deze doelgroep, afhankelijk van het beeld of videomateriaal en in welke context dit wordt gedeeld.

Vraag 5

Wat gaat u verder doen om mensen met een zichtbare beperking in uw eigen uitingen een prominentere plek te geven, bijvoorbeeld door inclusieve stockfoto's te gebruiken en beschikbaar te stellen voor derden?

Antwoord 5

Ik erken het belang van representatie en inclusie in de communicatie-uitingen, en zal me blijvend inzetten om beeld te ontwikkelen en te gebruiken conform de aanbevelingen uit het onderzoek «Diversiteit in Beeld» van de Dienst Publiek en Communicatie en de tips die daarin zijn opgenomen voor inclusief beeldgebruik.1

Vraag 6

Welke Nederlandse en Europese wetgeving stelt eisen aan de wijze waarop content op grote online platforms gemodereerd moet worden? Welke zekerheid wordt hierin geboden dat mensen met een zichtbare beperking foto’s en video’s van zichzelf kunnen plaatsen op hun eigen sociale media kanalen net als iedere andere gebruiker?

Antwoord 6

De DSA legt voorwaarden op aan de manier waarop inhoudsmoderatie moet worden uitgevoerd. Zo moet een besluit om inhoud te verwijderen gemotiveerd worden en moet een vorm van bezwaar of beroep openstaan. Indien een sociaal media platform inhoud modereert, dan verplicht de DSA bovendien om daarbij gepaste aandacht te hebben voor de rechten en legitieme belangen van alle betrokkenen, waaronder de fundamentele rechten uit het handvest zoals de vrijheid van meningsuiting en het recht van non-discriminatie.

Zoals in het antwoord op vraag 2 ook is opgemerkt, dienen online platforms die actief zijn in Nederland rekening te houden met de Wgbh/cz. Deze wet bevat onder meer een verbod op discriminatie bij het aanbieden van diensten, waaronder ook online dienstverlening wordt begrepen (vergelijk College voor de rechten van de mens, oordeel 2020-106, overweging 6.1).

Kort gezegd beschermt de DSA de vrijheid van meningsuiting van burgers om niet-illegale inhoud te uiten, en bijvoorbeeld in bezwaar te gaan tegen moderatiebesluiten zoals verwijdering. Daarnaast verplicht het platforms om hun systemen zo in te richten dat systeemrisico’s en negatieve effecten op de samenleving worden beperkt.

Artikel 34, eerste lid, onder b en c, van de DSA verplicht platforms rekening te houden met «eventuele werkelijke of voorzienbare negatieve effecten met betrekking tot ernstige negatieve gevolgen voor het geestelijke welzijn van de persoon», en met «werkelijke of voorzienbare negatieve effecten op de uitoefening van de grondrechten, met name het in artikel 21 van het Handvest verankerde grondrecht op non-discriminatie.»

Aanbieders van zeer grote online platforms en van zeer grote online zoekmachines moeten met name rekening houden met de vraag of en hoe het ontwerp van hun aanbevelingssystemen en andere relevante algoritmische systemen, hun inhoudsmoderatiesystemen, de toepasselijke algemene voorwaarden en de handhaving ervan, systemen voor de selectie en weergave van reclame en data-gerelateerde praktijken van de aanbieder van invloed zijn op deze systeemrisico’s.

Onder artikel 35 van de DSA worden aanbieders van zeer grote online platforms en van zeer grote online zoekmachines verplicht om redelijke, evenredige en doeltreffende risicobeperkende maatregelen te nemen die zijn toegesneden op de specifieke systeemrisico’s. Dergelijke maatregelen omvatten aanpassing van het ontwerp, de kenmerken of de werking van hun diensten, met inbegrip van hun online-interfaces, aanpassing van hun algemene voorwaarden en de handhaving ervan, aanpassing van inhoudsmoderatieprocedures, testen en aanpassing van hun algoritmische systemen, met inbegrip van hun aanbevelingssystemen, het nemen van bewustmakingsmaatregelen en aanpassing van hun online-interface om de gebruikers van de dienst meer informatie te verschaffen.

Vraag 7

Welke Nederlandse en Europese wetgeving beschermt het recht van mensen met een zichtbare beperking om beeldmateriaal van zichzelf te delen op het internet? Op welke wijze kan u sociale media platforms verplichten om dergelijke foto’s en video’s niet ten onrechte af te schermen of te verwijderen?

Antwoord 7

Het delen van informatie op internet, waaronder beeldmateriaal, valt onder het recht op de vrijheid van meningsuiting (zoals neergelegd in artikel 7 Grondwet, artikel 10 EVRM en artikel 11 van het EU-Grondrechtenhandvest). Dit recht beschermt mensen tegen een ongerechtvaardigde beperking van de vrije meningsuiting door de overheid. In het geval van sociale media platforms gaat het om een horizontale relatie tussen bedrijven en mensen, waarvoor de DSA regels geeft, zoals transparantie over inhoudsmoderatie. In 2016 heeft Nederland het VN-verdrag inzake de rechten van personen met een handicap geratificeerd. In het verlengde daarvan is de Wgbh/cz uitgebreid met een verbod van onderscheid op grond van handicap of chronische ziekte bij het aanbieden van en het verlenen van toegang tot goederen en diensten. De wet biedt mensen met een zichtbare beperking dus bescherming tegen discriminatie op grond van hun zichtbare handicap bij online dienstverlening.

Vraag 8

Welke rol speelt de Digital Services Act (DSA) in het handhaven op de gelijke behandeling van internetgebruikers met een zichtbare beperking als zij foto’s en video’s van zichzelf delen en hun ervaringen openlijk delen?

Antwoord 8

De DSA stelt regels aan aanbieders van tussenhandeldiensten, met name als het gaat om hun rol en verantwoordelijkheid bij inhoud die als illegaal of onverzoenbaar met de algemene voorwaarden wordt aangemerkt. Eén van de doelen van de DSA is om daarin ook de mensenrechten te beschermen. Dat doet de DSA onder meer door ervoor te zorgen dat inhoudsmoderatie gebeurt met waarborgen, en door rechten te bieden aan mensen die zich daarin benadeeld voelen. Voor een uiteenzetting verwijs ik graag naar het antwoord op vraag 6.

Vraag 9

Op welke manieren kan iemand melding doen als zij vermoeden dat beeldmateriaal van mensen met een zichtbare beperking ten onrechte wordt verwijderd? Wat is de rol van de overheid en nationale toezichthouders om in te grijpen als er sprake is van discriminatie?

Antwoord 9

Op grond van de DSA kunnen gebruikers hun recht halen door direct bij het platform te klagen via een intern klachtenafhandelingssysteem, indien mogelijk een buitenrechtelijke geschillenprocedure te starten, of naar de rechter te stappen. Ook kunnen zij een klacht indienen bij de zogenoemde «digitaledienstencoördinator», ofwel de primaire toezichthouder op de DSA. In Nederland is dat de Autoriteit Consument en Markt (ACM).

Daarnaast kunnen mensen met een zichtbare beperking die vermoeden dat beeldmateriaal ten onrechte van hun account wordt verwijderd het College voor de rechten van de mens verzoeken om een oordeel over de vraag of het sociale media platform daarmee handelt in strijd met de Wgbh/cz.

Vraag 10

Hoe vaak heeft u overleg met vertegenwoordigers van sociale media platforms over de naleving van Nederlandse en Europese wetgeving over anti-discriminatie? Doen platforms in uw beleving voldoende om de gelijke rechten van gebruikers met en zonder zichtbare beperking te beschermen? Zo niet, hoe gaat u platforms dwingen tot verbetering?

Antwoord 10

Het toezicht op de naleving van de DSA door zeer grote online platforms ligt primair bij de Europese Commissie. De toezichthouder in de lidstaat waar zo’n platform gevestigd is, is gedeeltelijk mede bevoegd. Zo is de toezichthouder in Ierland mede bevoegd voor bijvoorbeeld Instagram, TikTok en YouTube. Terwijl de ACM (mede) bevoegd is voor sociale media platforms zoals Snap, Reddit en Discord. De toezichthouders gaan toezien op de naleving en deze zo nodig verbeteren. Daarbij zullen ze waarschijnlijk ook in gesprek gaan met de platforms indien er klachten zijn binnengekomen of als uit onderzoek daar een noodzaak toe blijkt.

Omdat het toezicht elders is belegd, heb ik zelf geen zicht op welke manier platforms zorgen dat de gelijke rechten van gebruikers met en zonder zichtbare beperking worden beschermd. Ik vind het wel van belang dat deze gebruikers niet worden gediscrimineerd.

Vraag 11

Bent u bereid in gesprek te gaan met ervaringsdeskundigen en vertegenwoordigers van mensen met een beperking om in beeld te brengen op welke manieren grote online platforms mensen met een beperking nu benadelen? Kunt u dit vervolgens aankaarten bij de nationale en Europese vertegenwoordigers van grote online platforms?

Antwoord 11

Vanuit mijn coördinerende rol als Staatssecretaris van Digitalisering vind ik het belangrijk dat de zorgen van ervaringsdeskundigen en vertegenwoordigers van mensen met een beperking worden gehoord. In de «Voortgangsbrief Rijksbrede strategie voor de effectieve aanpak van desinformatie en aankondiging nieuwe acties» vertel ik dat het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties de volgende stap zet in een verkenning van een meldvoorziening, een geschillenbeslechtingsorgaan (zoals in artikel 21 van de DSA) en een kenniscentrum. Hier zouden burgers over de hele EU terecht kunnen voor geschillenbeslechting betreffende contentmoderatie besluiten van online platformen. Onderdeel van deze volgende stap is het ophalen van de ervaringen en behoeften van mensen en groepen die nadelen ondervinden van contentmoderatie besluiten van sociale media platformen. Zoals mensen met een beperking. Zodat we samen een effectief orgaan kunnen vormgeven en ongelijke behandeling door sociale media platformen kunnen tegengaan.

Daarnaast hebben de Ministers van Binnenlandse Zaken en Koninkrijksrelaties, Justitie en Veiligheid, Sociale Zaken en Werkgelegenheid, Onderwijs, Cultuur en Wetenschap en Langdurige Zorg en Sport uw Kamer op 22 februari 2023 een Kamerbrief2 gestuurd over de aanpak van online discriminatie, racisme en hate speech. In de brief is een inventarisatie gemaakt van lopend beleid en wordt benadrukt dat het kabinet de komende jaren inzet op een meer geïntegreerde, samenhangende en gestructureerde aanpak. Deze aanpak krijgt vorm aan de hand van de pijlers ondersteuning van slachtoffers, bewustwording, verantwoordelijkheden van en samenwerking met internetpartijen, consequenties voor daders en betere registratie en onderzoek, zoals ook wordt opgeroepen in de aanbeveling van de Raad van Europa. Deze pijlers worden op dit moment uitgewerkt tot concrete acties door een interdepartementale werkgroep. Deze uitwerking vindt onder andere plaats door sessies met het veld over deze thematiek. Deze uitwerking zal voor het einde van de zomer aan uw Kamer worden gestuurd.

Vraag 12

Kunt u deze vragen afzonderlijk beantwoorden?

Antwoord 12

Ja.

Naar boven