26 643 Informatie- en communicatietechnologie (ICT)

33 826 Mensenrechten in Nederland

Nr. 782 BRIEF VAN DE MINISTER VAN BINNENLANDSE ZAKEN EN KONINKRIJKSRELATIES

Aan de Voorzitter van de Tweede Kamer der Staten-Generaal

Den Haag, 21 september 2021

De afgelopen tijd hebben verschillende sociale media platformen accounts van Kamerleden tijdelijk geblokkeerd of berichten van een label voorzien omdat zij van mening zijn dat de gebruiksvoorwaarden werden geschonden. Op 22 juni jl. ontving ik in reactie daarop het verzoek van het lid Van Meijeren (FVD) om een kabinetsstandpunt over wat het lid Van Meijeren aanduidt als «politiek gemotiveerde censuur door de grote sociale mediaplatformen». In deze brief ga ik, mede namens de Minister van Justitie en Veiligheid, de Minister voor Rechtsbescherming en de Staatssecretaris van Economische Zaken en Klimaat, in op dit verzoek.

Achtereenvolgens zal ik ingaan op de mogelijkheid van platformen om online content te reguleren, het toepasselijke juridische kader en de rol van de overheid. Ik zal daarbij onderscheid maken tussen enerzijds de aanpak van illegale content, en anderzijds de aanpak van overige vormen van ongewenste content.

Rol en positie van platformen

Door gebruik te maken van diensten van online platformen – bijvoorbeeld door een account aan te maken, het online spelen van games, het plaatsen van eigen content of het lezen van content van overige gebruikers – gaan gebruikers een civielrechtelijke overeenkomst met dat platform aan, waarbij het toepasselijke rechtstelsel bij geschillen wordt bepaald door het betreffende platform. In het kader van de contractvrijheid staat het aanbieders van online platformen vrij om grenzen te stellen aan het soort content op hun platform en de manier waarop hun platform wordt gebruikt. Ook staat het hen vrij actie te ondernemen indien zij van mening zijn dat gebruikers hun gebruiksvoorwaarden overtreden. Dat behelst ook de mogelijkheid om content te verwijderen of een gebruikersaccount op te schorten. Het idee hierachter is, dat gebruikers zelf de vrijheid en mogelijkheid hebben om te bepalen of zij gebruik maken van een bepaald online platform – en daarmee instemmen met de gebruikersvoorwaarden – of niet.

Bij bepaalde vormen van online content kan een wettelijke verplichting gelden om content ontoegankelijk te maken voor gebruikers. Dat geldt bijvoorbeeld bij illegale (strafbare of onrechtmatige) content. Ervaring leert dat bekende internet tussenpersonen in de regel in hun gebruikersvoorwaarden aangeven dat het openbaar maken, bewaren, publiceren en delen van illegale content niet is toegestaan. Bij content die niet strafbaar of onrechtmatig is, maar door sommigen wel als ongewenst wordt beschouwd, hebben platformen een grote marge voor eigen appreciatie op basis van bovengenoemde contractvrijheid. Zo kunnen zij bijvoorbeeld bepalen dat via een platform geen naaktfoto’s mogen worden gedeeld. Daarbij geldt, net als in de fysieke wereld, het uitgangspunt dat een dergelijke beperking niet mag leiden tot discriminatie en daarmee tot ongerechtvaardigde uitsluiting van personen op basis van een bepaalde discriminatiegrond. Het uitsluiten van bepaalde politieke overtuigingen op internetfora is toegestaan voor zover daarmee een wezenlijk, legitiem en gerechtvaardigd belang wordt gediend. Dat men op een bepaald internetforum alleen met gelijkgezinden in gesprek wenst te gaan om zo tot verdere verdieping van de discussie te kunnen komen is een dergelijk belang. Zolang er maar andere fora zijn waarbij ook het andere geluid naar voren kan komen.

Om te beoordelen of content in overeenstemming is met de gebruikersvoorwaarden, hebben internet tussenpersonen verschillende modi operandi. Sommigen kiezen voor het actief modereren van content, waarbij content eerst wordt gecontroleerd voordat deze wordt opgeslagen of gepubliceerd. Bij de wat grotere chatfora en sociale media platformen stuit een dergelijke benadering al snel op praktische uitvoeringsproblemen: het aantal posts is bij die platformen zo groot, dat controle vooraf praktisch onmogelijk is. De meeste internet tussenpersonen werken daarom met een controle achteraf, al dan niet op basis van een systeem waarbij content wordt gecheckt als daarover een melding binnenkomt. Deze meldingen kunnen komen van gebruikers, professionele moderatoren, fact-checkers of nationale bevoegde autoriteiten. Ook wordt gebruik gemaakt van kunstmatige intelligentie, waardoor posts die mogelijk in strijd zijn met de gebruikersvoorwaarden automatisch worden gedetecteerd en ter beoordeling worden voorgelegd aan moderatoren.

Internet tussenpersonen kunnen verschillende maatregelen nemen als een gebruiker zich niet aan de gebruikersvoorwaarden houdt. Een repressieve vorm van interventie is het verwijderen van content die in strijd is met de interne gebruikersvoorwaarden. Sommige platformen gaan ook over tot het schorsen van gebruikers door accounts tijdelijk of permanent op te heffen. Minder vergaande interventies zijn het niet langer aanbevelen van bepaalde vormen van content, het geven van een waarschuwing bij het delen van bepaalde vormen van content of het labelen van content met bijvoorbeeld fact-check of advertentie labels. Deze labels hebben tot doel een gebruiker meer informatie te geven om de content zelf beter te beoordelen. Daarnaast zijn er ook maatregelen die zich richten op beheerders of gebruikers die de content verspreiden. Daarbij kan gedacht worden aan het opschorten van advertentie-inkomsten, of het niet langer aanbevelen van een bepaald account bij andere gebruikers van het platform.

Juridisch kader

Het juridisch kader rond online content is in ontwikkeling. Ten aanzien van de norm wat wel en niet mag worden gepubliceerd op het internet, geldt als uitgangspunt de vrijheid van meningsuiting, die o.a. wordt gewaarborgd in artikel 7 van de Grondwet en in artikel 10 van het Europees Verdrag tot bescherming van de Rechten van de Mens en de fundamentele vrijheden (EVRM). De vrijheid van meningsuiting kan slechts worden beperkt op grond van een wettelijke bepaling en wanneer die beperking een gerechtvaardigd doel dient en noodzakelijk is in een democratische samenleving. Daarbij wordt geen onderscheid gemaakt tussen uitingen in de fysieke wereld en online content: dat wat strafbaar en onrechtmatig is in de fysieke wereld is dat ook online. In de Nederlandse context betekent dat, dat kinderpornografie, terroristische inhoud en hate speech niet worden beschermd door de vrijheid van meningsuiting. Deze drie categorieën vallen onder de noemer «strafbare content». De Audiovisuele Mediadienstenrichtlijn verplicht videoplatformdiensten maatregelen te treffen om gebruikers te beschermen tegen deze categorieën van content.

Daarnaast geven de gebruikersvoorwaarden van online platformen aan welke privaatrechtelijke normen van toepassing zijn op het betreffende platform. Gebruikers verbinden zich hier zelf aan. De rechter kan grondrechten horizontale werking toekennen, door bijvoorbeeld bij de uitleg van open privaatrechtelijke normen/belangen grondrechtelijke bescherming te betrekken. Die afweging wordt per geval door een rechter gemaakt. Zo besloot de rechtbank Amsterdam in oktober 2020 dat Facebook het recht heeft om pagina’s offline te halen wanneer deze in strijd zijn met haar eigen COVID-19 beleid.1 In een andere zaak uit september 2020 beoordeelde de Rechtbank Amsterdam dat content die door YouTube terecht als desinformatie wordt aangemerkt door het platform verwijderd mag worden.2 De vrijheid van meningsuiting is derhalve niet absoluut en mag in bepaalde gevallen mede op basis van gebruikersvoorwaarden worden ingeperkt ten behoeve van bijvoorbeeld de rechten van anderen en de volksgezondheid.

Naast normstelling voorziet het juridisch kader ook in de mogelijkheid voor de rechter-commissaris om verwijdering van content te gelasten. Ten aanzien van de handhaving van het tegengaan van verspreiding van kinderpornografische en terroristische online inhoud liggen twee wetsvoorstellen voor, die onder meer voorzien in de oprichting van een Autoriteit die verwijderbevelen kan uitvaardigen en bestuursrechtelijke boetes kan opleggen aan aanbieders van een hostingsdienst die deze vormen van strafbare content niet of niet snel genoeg deze online inhoud ontoegankelijk maken.3

De wettelijke kaders van internet tussenpersonen die elektronische diensten leveren zijn uiteengezet in de Richtlijn Elektronische Handel (REH).4 Deze Richtlijn wordt momenteel herzien in de context van de door de Europese Commissie gelanceerde Digital Services Act (DSA). Zowel de REH als de DSA regelen een beperkte aansprakelijkheid voor internet tussenpersonen voor de inhoud die zij bewaren, publiceren of verspreiden. Dit voorkomt dat platformen, om zeker te zijn dat ze niet aansprakelijk kunnen worden gesteld, actief informatie controleren en eventueel tegenhouden voordat ze het hosten.

Daarnaast is het ook belangrijk de pluraliteit van online platformen te beschermen, zodat mensen op verschillende plekken hun mening kunnen uiten. Het kabinet zet hier ook op in bij de onderhandelingen over het Commissievoorstel voor de Wet inzake digitale markten.5

Aanpak en beleid illegale content

Ten aanzien van online kinderporno en terroristische inhoud ziet het kabinet een taak voor de overheid weggelegd om de verspreiding van deze online inhoud actief tegen te gaan. Voor de aanpak van online kinderporno verwijzen wij u naar de meest recente beleidsbrief over dit onderwerp van de Minister van Justitie en Veiligheid.6

Ten aanzien van de oprichting van de autoriteit Kinderporno en Terroristisch Online Inhoud is uw Kamer geïnformeerd per brief op 20 november 20207 en in de beantwoording van de vragen van het Schriftelijk Overleg hierover op 25 maart 2021.8 De EU-verordening inzake het tegengaan van de verspreiding van terroristische online-inhoud (TOI-verordening) is inmiddels aangenomen en wordt van toepassing met ingang van 7 juni 2022. Nederland en andere EU-lidstaten moeten voor die datum de verordening hebben geïmplementeerd, inclusief het oprichten van de hierboven genoemde Autoriteit en het vaststellen van benodigde uitvoeringsregelgeving.

Ten aanzien van de aanpak van hate speech is het kabinet terughoudender om actief op te treden. Online discriminatie kan worden gemeld bij het Meldpunt internet discriminatie (MiND), dat een onafhankelijke juridische toetsing uitvoert om te bepalen of sprake is van een discriminatoire uiting, al dan niet gevolgd door een verwijderverzoek. Daarnaast kan het Openbaar Ministerie besluiten om bepaalde uitingen strafrechtelijk te vervolgen. Deze terughoudendheid heeft deels te maken met het feit dat bij hate speech veelal niet eenvoudig is vast te stellen of sprake is van een strafbare uiting en bij een te strikte handhaving een ongerechtvaardigde beperking van de vrijheid van meningsuiting op de loer ligt. Overigens onderzoekt het kabinet naar aanleiding van de gewijzigde motie van het lid Jasper van Dijk de mogelijkheid om de aanpak van online racisme en antisemitisme te intensiveren.9

Illegale content bestaat naast strafbare content ook uit andere onrechtmatige content. Daaronder vallen onder meer aantastingen van het privéleven, de eer en goede naam en onrechtmatige verwerkingen van persoonsgegevens. De voornemens van het kabinet om onrechtmatige content die mensen persoonlijk raakt aan te pakken zijn uiteengezet in de beleidsreactie op het onderzoek naar een laagdrempelige voorziening voor de verwijdering van onrechtmatige content.10

Voor het standpunt van de Nederlandse regering ten aanzien van de DSA verwijzen wij u naar het BNC-fiche dat hierover is opgesteld.11 Met het wetsvoorstel voor de DSA wil de Europese Commissie bijdragen aan de bestrijding van illegale content en systemische risico’s die de allergrootste online platformen met zich meebrengen. De DSA moet bijdragen aan een goede werking van de interne markt voor diensten van tussenpersonen, en het uiteenzetten van eenduidige regels die leiden tot een veilige, voorspelbare, en betrouwbare online omgeving, waarbij fundamentele rechten uit het Handvest van de grondrechten van de Europese Unie effectief zijn beschermd.

Online platformen hebben het recht, en in het geval van illegale content zelfs de plicht, om hun platform te modereren en in dat kader bijvoorbeeld content te verwijderen. Wel vindt het kabinet het zeer belangrijk dat de platformen daarbij de vrijheid van meningsuiting als uitgangspunt hanteren. De mate waarin internet tussenpersonen transparant zijn over de wijze van beoordeling bij content moderatie en de gevolgen van een overtreding van de interne gebruikersvoorwaarden verschilt nogal. Het kabinet is van mening dat wanneer platformen content verwijderen of personen blokkeren ze transparant moeten zijn over de redenen daarvoor en die besluiten moeten motiveren. Platformen moeten daarnaast ook helder zijn over hun schorsingsbeleid, en betrokkenen moeten te allen tijde bezwaar kunnen maken tegen dit soort beslissingen. In ieder geval (ook) via een rechtsgang. Regulering kan een bijdrage leveren aan verbetering op deze punten. In het Commissievoorstel voor de DSA worden deze punten geadresseerd. Het kabinet steunt mede hierom de DSA en zal zich er hard voor maken om deze elementen uit het voorstel te behouden.

Aanpak en beleid ongewenste content

Ingewikkelder wordt het, wanneer content niet illegaal is, maar wel tot ongewenste maatschappelijke reacties leidt. Daarbij kan worden gedacht aan het verspreiden van des- en misinformatie. Zoals eerder aangegeven in de brief over nieuwe ontwikkelingen beleidsinzet bescherming democratie tegen desinformatie12 valt het juridisch verbieden van bepaalde informatie, alleen op grond van het feit dat de informatie onjuist of misleidend is, zonder aanvullende eisen, zoals het schaden van iemands reputatie of de rechten van een ander, moeilijk te rijmen met het recht op vrijheid van meningsuiting. Een algemeen verbod op de verspreiding van desinformatie of niet-objectieve informatie is niet verenigbaar met de internationale normen voor beperkingen van de vrijheid van meningsuiting.

Op het gebied van desinformatie is er momenteel sprake van zelfregulering door de online platformen (code of practice on online disinformation) welke naar verwachting eind 2021 herzien wordt. De Europese Commissie heeft voor deze herziening richtsnoeren gepubliceerd waarmee wordt beoogd de huidige code te verbeteren vooruitlopend op de DSA.13 Door het ontwerp van de voorgestelde DSA zal de gedragscode een co-reguleringsinstrument worden voor de aanpak van desinformatie.

Zoals eerder gesteld zijn aanbieders van online platformen in beginsel vrij om verdere grenzen te stellen aan wat zij toelaatbaar gebruik van hun diensten vinden en om actie te ondernemen wanneer deze voorwaarden worden overtreden. De vraag is of het wenselijk is dat de online platforms zelfstandig deze gebruikersvoorwaarden bepalen. De totstandkoming van deze voorwaarden valt buiten de reikwijdte van het voorstel voor de DSA. Zoals het Rathenau Instituut in zijn recente onderzoek «Online ontspoord» aangeeft ligt de focus van regulering momenteel met name op illegale content, en niet op overige vormen van ongewenste content.14 Uit het onderzoek van Rathenau blijkt ook dat veel gedragingen online wel een illegale component kunnen hebben, maar dat dit niet altijd duidelijk is voor slachtoffer of dader. Meer onderzoek naar mogelijkheden hoe de overheid om kan gaan met de soms botsende ruimte tussen de vrijheid van meningsuiting en de bewegingsruimte en veiligheid van mensen online is nodig.

Aandachtspunten voor toekomstige beleidsontwikkeling

Bij de beoordeling of content illegaal of ongewenst is, speelt de context waarin een uiting wordt gedaan een belangrijke rol. Deze context wordt onder andere bepaald door de concrete situatie waarin een uiting is gedaan, de intentie van de afzender, de bedoelde ontvanger, de maatschappelijke en politieke omstandigheden, en het tijdgewricht.15 In het geval van ongewenste (maar niet illegale) content is moderatie een ingewikkelde afweging, omdat de vrijheid van meningsuiting het uitgangspunt is en bijzonder zwaar weegt. Daarom is het van belang dat er altijd een rechtsgang open staat tegen besluiten van sociale mediaplatformen en/of andere manieren om bezwaar te maken tegen de beslissingen die zij nemen.16

Een komend kabinet moet de spanning tussen de vrijheid van meningsuiting en de bewegingsruimte en veiligheid van burgers online, en de rol van de overheid daarbij verder onderzoeken. Wat in ieder geval van belang is, is dat gebruiksvoorwaarden, en vooral ook de toepassing ervan, de grondrechten van gebruikers niet ontoelaatbaar beperkt. Daarom is het positief dat in artikel 12 van de DSA wordt geregeld dat online platformen bij het toepassen van hun gebruiksvoorwaarden gepaste aandacht moeten hebben voor de rechten en gewettigde belangen van alle betrokken partijen, waaronder de van toepassing zijnde, in het Handvest verankerde, grondrechten van de afnemers van de dienst. Daarnaast moeten de zeer grote online platforms (Very Large Online Platforms) maatregelen nemen om systemische risico’s van hun diensten aan te pakken. Een van deze risico’s betreft de eventuele negatieve effecten op de uitoefening van de grondrechten, de vrijheid van meningsuiting en van informatie en non-discriminatie (art 26.1 DSA). Deze bepalingen moeten censuur en discriminatie op basis van politieke opvattingen op online platformen tegengaan en hebben de expliciete steun van het kabinet. Het kabinet zal uw Kamer op de hoogte houden van ontwikkelingen rondom de DSA.

De Minister van Binnenlandse Zaken en Koninkrijksrelaties, K.H. Ollongren


X Noot
1

Rechtbank Amsterdam, 13 oktober 2020, C/13/689184 / KG ZA 20–783 https://uitspraken.rechtspraak.nl/inziendocument?id=ECLI:NL:RBAMS:2020:4966

X Noot
2

Rechtbank Amsterdam, 9 september 2020, C/13/687385 / KG ZA 20–650 CdK/BB https://uitspraken.rechtspraak.nl/inziendocument?id=ECLI:NL:RBAMS:2020:4435

X Noot
3

Kamerstukken 31 015 en 29 754, nr. 208

X Noot
4

Richtlijn 2000/31/EG van het Europees parlement en de Raad van 8 juni 2000

X Noot
5

Kamerstuk 22 112, nr. 3049.

X Noot
6

Kamerstuk 31 015, nr. 223

X Noot
7

Kamerstukken 31 015 en 29 754, nr. 208

X Noot
8

Kamerstukken 31 015 en 29 754, nr. 225

X Noot
9

Kamerstuk 35 164, nr. 12

X Noot
10

Kamerstuk 34 602, nr. 6

X Noot
11

Kamerstuk 22 112, nr. 3050

X Noot
12

Kamerstuk 30 821, nr.112

X Noot
13

Kamerstuk 22 112, nr.3159

X Noot
15

Kamerstuk 26 643, nr. 694.

X Noot
16

In bijzondere gevallen kan een rechter echter beslissen dat andere belangen zwaarder wegen dan de vrijheid van meningsuiting. Dit is recentelijk gebeurd in een kort geding dat de gemeente Bodegraven-Reeuwijk had aangespannen tegen drie mannen, die al geruime tijd online verhalen verspreidden over een satanisch-pedofiel netwerk in Bodegraven en daarbij betrokken personen. In deze zaak werd recht op eerbiediging van het privéleven en (familie)reputatie en het belang om gevrijwaard te blijven van ongefundeerde verdachtmakingen zwaarder gewogen dan de vrijheid van meningsuiting. De rechter oordeelde daarom dat de drie mannen direct moesten stoppen met hun acties en al de gepubliceerde verhalen van het internet moesten verwijderen. Indien zij dit niet deden, moesten zij dwangsommen betalen en konden zij uiteindelijk zelfs worden gegijzeld. Zie ook: https://uitspraken.rechtspraak.nl/inziendocument?id=ECLI:NL:RBDHA:2021:6769

Naar boven