Kamerstuk
| Datum publicatie | Organisatie | Vergaderjaar | Dossier- en ondernummer |
|---|---|---|---|
| Eerste Kamer der Staten-Generaal | 2021-2022 | CXLVI nr. F |
Zoals vergunningen, bouwplannen en lokale regelgeving.
Adressen en contactpersonen van overheidsorganisaties.
U bent hier:
| Datum publicatie | Organisatie | Vergaderjaar | Dossier- en ondernummer |
|---|---|---|---|
| Eerste Kamer der Staten-Generaal | 2021-2022 | CXLVI nr. F |
Vastgesteld 23 februari 2022
De parlementaire onderzoekscommissie effectiviteit antidiscriminatiewetgeving heeft op 4 februari 2022 een openbaar gesprek gehouden over antidiscriminatiewetgeving in het domein van de politie.
Van deze bijeenkomst brengt de commissie bijgaand geredigeerd woordelijk verslag uit.
De voorzitter van de parlementaire onderzoekscommissie antidiscriminatiewetgeving, Ganzevoort
De griffier van de parlementaire onderzoekscommissie antidiscriminatiewetgeving, Van der Bijl
Voorzitter: Ganzevoort
Griffier: Van der Bijl
Verder zijn aanwezig de leden van de commissie Ganzevoort, Karakus, Meijer en Prins.
Gesprek met:
– mevrouw Nadia Benaissa (juridisch beleidsadviseur bij Bits of Freedom).
Aanvang 13.29 uur
De voorzitter: Goedemiddag. Ik open deze zitting van de parlementaire onderzoekscommissie effectiviteit antidiscriminatiewetgeving. Alle aanwezigen heet ik van harte welkom, zowel de mensen hier in de zaal als degenen die het gesprek via de livestream volgen. We zijn vandaag bezig met de openbare gesprekken, waarbij het domein politie centraal staat en waarbij we vanuit verschillende invalshoeken kijken naar hoe de antidiscriminatiewetgeving uitpakt in het domein van de politie en wat we daarvan kunnen leren.
Aan tafel zitten de commissieleden Henk Jan Meijer en Hamit Karakus. De commissie bestaat verder uit de leden Martine Baay-Timmerman, Paul Frentrop, Greet Prins en Petra Stienen. Mijn naam is Ruard Ganzevoort.
De commissie onderzoekt de kloof tussen de wet op papier, de Grondwet, het discriminatieverbod, de discriminatiewetgeving en de praktijk. We zien dat er in die praktijk helaas toch allerlei vormen van discriminatie plaatsvinden. Nadat wij hebben onderzocht wat er in die verschillende domeinen precies gebeurt en hoe het zit met regelgeving en dergelijke, zijn we nu toe aan de openbare gesprekken waarin we proberen een en ander scherper te krijgen en meer inzicht proberen te krijgen in welke mechanismen daarin een belangrijke rol spelen.
De twee leden die aan tafel zitten, zullen de vragen stellen. Vandaag is bij dit gesprek onze genodigde Nadia Benaissa, juridisch beleidsadviseur bij Bits of Freedom.
In dit gesprek zijn twee centrale thema's aan de orde. Het eerste is de rol van de politie in relatie tot de burger, bijvoorbeeld als het gaat om preventief profileren en alle risico's en discussies die daaromheen ontstaan, zoals rondom etnisch profileren. Het andere thema is de politie als werkgever, als het gaat om de betekenis van werken aan een discriminatievrije werkvloer en het werkklimaat binnen de politieorganisatie. Op een of andere manier hebben die twee met elkaar te maken via bijvoorbeeld de politiecultuur.
In dit gesprek ligt de focus op algoritmen bij preventie en opsporing, toezicht bij het opstellen van algoritmen, toezicht bij de inzet van algoritmen en de transparantie die op dat terrein nodig is.
Ik geef allereerst het woord aan ons lid Henk Jan Meijer, die met de vragen zal beginnen.
De heer Meijer: Bedankt. Mevrouw Benaissa, de voorzitter zei het al: wij gaan het vandaag vooral hebben over het gebruik van algoritmen bij het werk van de politie. Misschien is het handig als u eerst even vertelt hoe uw deskundigheid op dat gebied is en wat u voor werk doet.
Mevrouw Benaissa: Dank u wel voor de uitnodiging. Fijn dat jullie dit onderwerp onderzoeken. Dat is broodnodig. Ik ben Nadia Benaissa, sinds een aantal jaar werkzaam bij Bits of Freedom. Ik ben juriste van huis uit. Bij Bits of Freedom houd ik mij vooral bezig met algoritmen en kunstmatige intelligentie en daarnaast met privacy, waaronder de AVG.
Op dit moment kijken we vooral naar wetgeving op het gebied van kunstmatige intelligentie in Europa. Vanuit de Europese Unie is nu een wetsvoorstel gepubliceerd over kunstmatige intelligentie. Daar geven we feedback op. We proberen samen met de Europese Unie tot een wet te komen waarin fundamentele rechten ook echt effectief beschermd zullen worden. Daarnaast proberen we bij het grote publiek bewustwording te creëren over het gebruik van technologie in relatie tot mensenrechten.
De heer Meijer: Daarbij hebben wij zelf het idee dat het proces van het gebruik van algoritmen onomkeerbaar is en dat we dus vooral naar de voorwaarden moeten kijken waarbinnen dat gebeurt. Kunt u een beetje inzoomen op het terrein van de politie, waar het dus gebruikt wordt bij preventie en opsporing? Hoe kan voorkomen worden dat etnische discriminatie plaatsvindt op basis van het gebruik daarvan?
Mevrouw Benaissa: We zien het gebruik van technologie inderdaad als iets wat past bij deze tijd. Daar zijn wij als Bits of Freedom ook niet op tegen. We geloven wel dat we in onze rechtsstaat goed moeten opletten dat er geen ongelijkheden ontstaan, dat fundamentele rechten goed beschermd worden bij het gebruik van die technologie en dat die ten dienste staat van de maatschappij en van mens en planeet.
Misschien is het goed om te beginnen met het idee dat wij hebben bij Bits of Freedom dat we in Nederland geneigd zijn om te kijken naar cijfers en statistieken als zijnde objectief en feitelijk, terwijl ze eigenlijk weergaven zijn van een bepaald deel van de werkelijkheid maar nooit de volledige werkelijkheid. Het is belangrijk om te beseffen dat data altijd een verhaal bevatten, dat die komen uit een samenleving, een maatschappij, waarin we te kampen hebben met best wat maatschappelijke uitdagingen en problemen.
Als we bijvoorbeeld kijken naar politiedata, dan weten jongeren uit bepaalde wijken dat ze soms moeten oppassen voor bepaalde politieagenten omdat die etnisch kunnen profileren. We weten dat bepaalde politieagenten meer kijken naar bepaalde bevolkingsgroepen of zich meer richten op bepaalde wijken; er is veel onderzoek gedaan naar etnisch profileren. Als we dat gaan vertalen naar data, cijfers en statistieken die gebruikt worden als input voor algoritmen of kunstmatige intelligentie, is het niet meer alleen een politieagent uit een bepaalde wijk, maar wordt het beeld dat gecreëerd is in een specifieke context, een soort standaard die als input gebruikt wordt om bijvoorbeeld te gaan voorspellen waar criminaliteit zou kunnen plaatsvinden. Wij geloven echt dat we af moeten van het idee dat cijfers en statistieken altijd objectief en feitelijk zijn. Ze zijn vooral een weergave van een onderdeel. We zijn vooral nieuwsgierig naar de context ervan. Wij denken dat het vooral belangrijk is om die context te gaan begrijpen om die data op een juiste manier te interpreteren. Als we dat niet doen, krijgen we een vertaling van dat deel en wordt dat weer de standaard voor de toekomst. Dan ben je dus eigenlijk het verleden aan het voorspellen in de toekomst.
De heer Meijer: Hoe ziet u dat in de praktijk voor zich? Moeten die data gevalideerd worden?
Mevrouw Benaissa: Er zijn al best wat voorbeelden geweest waarin historische data gebruikt zijn om voorspellingen te doen voor de toekomst, bijvoorbeeld bij predictive policing. Daarbij gaat de politie, ook in Nederland, op basis van data uit het verleden voorspellen waar ze politieagenten moet inzetten in de toekomst, omdat de kans groter is dat daar iets gaat gebeuren. Alleen, als de historische data al uit een bepaalde context komen, waarin bijvoorbeeld al etnisch geprofileerd is of voornamelijk naar bepaalde wijken gekeken is, dan is het logisch dat de voorspelling zal zijn: daar moeten we weer zijn. Dat is eigenlijk nu al aan de gang.
De heer Meijer: Maar als we dat dan weten, hoe gaan we daar dan mee om? Kunnen we die cijfers corrigeren of moeten we ze niet gebruiken?
Mevrouw Benaissa: Wij geloven in ieder geval dat we ons ervan bewust moeten zijn dat die data een verhaal met zich meedragen, dat die data gekleurd zijn, dat ze niet feitelijk en objectief zijn en dat we ons dus niet blind moeten staren op de voorspellingen van bijvoorbeeld een algoritme, omdat het geen volledig beeld geeft van wat er zou kunnen gebeuren. Wij denken dat het op dit moment niet logisch is om zo'n systeem te gebruiken, om een algoritme in te zetten om te gaan voorspellen waar criminaliteit zou kunnen plaatsvinden. Wij moeten daar zelf heel bewust over na blijven denken.
De heer Meijer: Wordt er ook in andere beleidsvelden van dit instrument gebruikgemaakt, bij sociale zekerheid bijvoorbeeld?
Mevrouw Benaissa: Ja, er zijn steeds meer instanties die gebruik willen maken van algoritmen en daar ook al gebruik van maken. We hebben natuurlijk de toeslagenaffaire gezien bij de Belastingdienst, waarbij ook gebruik werd gemaakt van algoritmen. Gemeenten zijn daarmee aan het experimenteren en ongetwijfeld ook andere instanties. Ook daar zien we dat er veel geprofileerd wordt. Dat wil zeggen dat mensen in hokjes worden gestopt afhankelijk van kenmerken die ze hebben. Dat kunnen persoonlijke kenmerken zijn, zoals nationaliteit en etniciteit, zoals we bij de Belastingdienst hebben gezien. Maar dat kan ook zijn uit welke buurt iemand komt of in welke inkomensklasse iemand zit. Dat zijn allemaal factoren die mee kunnen wegen bij die profilering.
De heer Meijer: Maar nu weten we dat. Daar willen we iets aan doen. Dat kan een verbod zijn. Dat kan wetgeving zijn waar voorwaarden in zitten. Dat kan toezicht zijn. Heeft u daar ideeën over?
Mevrouw Benaissa: Zeker. Ik noemde net al even wetgeving rondom kunstmatige intelligentie. Op dit moment lopen we daar nog heel erg mee achter. De technische ontwikkeling van algoritmen en kunstmatige intelligentie gaat enorm hard. Steeds meer instanties maken ook gebruik van die technologie, maar we hebben op dit moment nog helemaal geen wetgeving waarin waarborgen zijn opgenomen die de rechten van mensen beschermen. Op dit moment ligt er wel een wetsvoorstel. Wij pleiten er echt voor dat mensenrechten daarmee voldoende beschermd worden, bijvoorbeeld door een mensenrechtentoets erin op te nemen. Wij kennen dat al een beetje van de Algemene verordening gegevensbescherming, waarin we een dataprotectie-impactassessment moeten verrichten alvorens met een verwerking te beginnen. Een soortgelijk impactassessment zouden wij graag willen zien op het gebied van mensenrechten bij het gebruik van algoritmen en kunstmatige intelligentie, waarbij, voordat zo'n toepassing in gebruik wordt genomen, wordt getoetst wat de effecten voor mensen zijn, wat het effect zou kunnen zijn op maatschappij, rechtsstaat en democratie, en welke waarborgen er ingebouwd moeten worden om die rechten daadwerkelijk te beschermen. Als blijkt dat de risico's te groot zijn, zou zo'n toepassing wat ons betreft niet in gebruik genomen moeten worden.
De heer Meijer: Bent u hierover ook in gesprek met de politieorganisatie?
Mevrouw Benaissa: Over dit onderwerp zijn we niet in gesprek met de politie. We zijn wel in gesprek met beleidsmakers in Nederland en met politici zowel in Nederland als in Europa.
De heer Meijer: Die algoritmen kunnen ook bepaalde voordelen hebben. Misschien noemen beleidsmakers met wie u in gesprek bent die. Waar stokt het? Waarover verschilt u van mening met mensen die u wilt beïnvloeden?
Mevrouw Benaissa: We zien zeker ook heel veel voordelen aan technologie. Bits of Freedom is absoluut niet tegen technologie of innovatie. Helemaal niet. Een van onze speerpunten is het mogelijk maken van een vrij internet. Maar we moeten er wel voor waken dat de nadelen vele malen groter worden dan de voordelen. Bepaalde grootmachten zijn al veel verder met de ontwikkeling van die technologie. Denk aan China en de VS. Wij geloven echt dat Europa zich zou kunnen onderscheiden door én te investeren in innovatie maar tegelijkertijd fundamentele rechten te beschermen. Wij geloven echt dat dat een toekomstbestendige manier van innovatie is.
De heer Meijer: U noemt Europa. Is dat de schaal waar u aan denkt om dit te regelen?
Mevrouw Benaissa: Ja. We zijn ons nu aan het richten op die Europese wet. Wij geloven ook echt dat we dit samen moeten doen op Europees niveau. Wij denken niet dat het heel effectief zou zijn als Nederland alleen met een nieuwe wet over kunstmatige intelligentie zou komen. Dat is vergelijkbaar met de wet waarin gegevensbescherming geregeld moest worden; daar is op Europees niveau de AVG voor gekomen. Wij zien echt dat, als we dit als Europese Unie, als continent, met elkaar regelen, we andere werelddelen ook kunnen aanmoedigen om met wetgeving te komen die én innovatie bevordert maar tegelijkertijd de mensenrechten beschermt.
De heer Karakus: Even terug naar de praktijk. U zegt eigenlijk dat data alleen nooit je vertrekpunt kunnen zijn. Ze zijn gekleurd. We hebben het over de toepassing. Eigenlijk zegt u: je moet goed opletten of we wel zover zijn dat het toegepast zou moeten worden. Wat is uw mening daarover vanuit uw kennis en het onderzoek dat u allemaal heeft gedaan? Moeten we dat nou wel toepassen? Wat is uw mening daarover?
Mevrouw Benaissa: We zijn in z'n algemeenheid niet tegen het gebruik van kunstmatige intelligentie of algoritmen, maar we zijn al een tijdje op weg met de ontwikkeling van die technologie. Wij hebben inmiddels ook al een aantal voorbeelden gezien waarvan we nu al wel kunnen zeggen dat de nadelen vele malen groter zijn dan de voordelen. Wij zeggen dus dat het risico van het gebruik van een aantal toepassingen zo groot is dat we dat niet moeten willen.
De heer Karakus: Noemt u eens een voorbeeld.
Mevrouw Benaissa: Ja, dat zal ik doen. De Europese Commissie heeft al verboden opgenomen in het wetsvoorstel. Een voorbeeld daarvan is het gebruik van biometrische surveillance. De Europese Commissie richt zich daarbij alleen op biometrische identificatie. Wij als Bits of Freedom vinden eigenlijk dat biometrische surveillance in de openbare ruimte in z'n algemeenheid niet moet kunnen, omdat we een vrije en open samenleving willen blijven en niet overal op straat door een soort streepjescode op ons gezicht maar herkend willen worden. Dat past niet in een open en vrije samenleving.
Een ander voorbeeld dat de Europese Commissie ook noemt, is het exploiteren van kwetsbaarheden van mensen, zoals het hebben van een bepaalde leeftijd. Denk aan kinderen of ouderen, die niet goed weten om te gaan met de technologie, of mensen met een fysieke of psychische beperking. Die toepassing, waarbij kwetsbaarheden worden uitgebuit, is er een waarvan wij zeggen dat we dat niet moeten willen. En dan heb je bijvoorbeeld social scoring, dat we goed kennen uit China. Daarbij worden heel veel data over personen verzameld om te bepalen of iemand trustworthy, betrouwbaar, is. Dat zijn voorbeelden van dingen waarvan wij zeggen: die passen niet in de samenleving die we zouden willen zijn.
De voorzitter: Eventjes heel kort tussendoor. Wij waarderen de informatie en inzichten die u ons geeft, maar ik zou u willen uitnodigen om iets specifieker te zijn in de feitelijke beschrijving. De standpunten zijn interessant, maar we willen niet alleen weten wat Bits of Freedom denkt, maar vooral begrijpen hoe dingen werken. Dus ik wil u uitnodigen om iets meer aan de feitelijke kant te blijven.
De heer Meijer: Mijn vraag sluit daar een beetje bij aan. U zegt dat bepaalde dingen niet moeten, maar stel dat dingen wel moeten, dan zijn daar wettelijke voorwaarden aan verbonden. We zijn hier medewetgever, dus dat is vooral de invalshoek van ons onderzoek. Als bepaalde zaken wel kunnen omdat ze heel veel voordeel hebben, kunt u iets zeggen over de voorwaarden die u daar dan aan zou willen verbinden?
Mevrouw Benaissa: Op dit moment zijn die voorwaarden er dus eigenlijk niet, omdat er dus nog geen wetgeving is.
De heer Meijer: Nee, maar ik nodig u uit om mee te denken bij het formuleren van die wetgeving.
Mevrouw Benaissa: Als we die wetgeving zouden formuleren, dan is het bijvoorbeeld belangrijk om na te denken over transparantie, controleerbaarheid en effectieve rechtsbescherming. In ons bestuursrecht hebben burgers bijvoorbeeld altijd recht op motivering van beslissingen en het recht om niet onderworpen te worden aan willekeur of discriminatie, om hun dossier in te zien en om op te komen tegen een beslissing. Eigenlijk zou je datzelfde niveau van rechtsbescherming willen bij het gebruik van kunstmatige intelligentie of algoritmen. Je zou dat bijvoorbeeld gelijk kunnen trekken met de private sector, want ook de private sector zal gebruikmaken van algoritmen. Denk bijvoorbeeld aan verzekeraars die gaan beslissen of iemand wel of niet een verzekering mag afsluiten. Denk aan banken die iemand een bepaalde risicoscore gaan opleggen.
Dat zijn eigenlijk allemaal toepassingen die behoorlijke effecten kunnen hebben op individuen. Een individu zou toegang moeten hebben tot informatie over zo'n beslissing, zou het recht moeten hebben om dat beeld bij te stellen en in rechte op te komen tegen zo'n beslissing. Dat is zeker voor Nederland iets om op te letten. We zouden namelijk niet willen dat we straks een Europese wet hebben met een lager niveau van rechtsbescherming dan we op dit moment hebben. Dat is op dit moment nog niet geregeld in het Europese wetsvoorstel. Daarin ontbreekt het echt nog aan mogelijkheden om transparantie af te dwingen voor burgers. Ons vermoeden is dat dit komt omdat de technologie nog niet zo ver is dat beslissingen altijd uitgelegd kunnen worden op een manier die voor mensen interpreteerbaar is. Er zitten heel veel beslisbomen in een algoritme of in kunstmatige intelligentie. Op het moment dat je gaat inzoomen op wat er gebeurd is, dan krijg je eigenlijk alleen maar stipjes te zien. Uit die stipjes kun je gewoon niet halen wat er is gebeurd en wat heeft meegewogen in een beslissing. Dat is hoe de technologie werkt.
De heer Meijer: Ik stel misschien domme vragen, maar u zegt: dat kun je niet zien. Is dat omdat men technologisch nog niet zo ver is of omdat men dat niet zichtbaar wil maken?
Mevrouw Benaissa: Dat is een hele goede vraag. Op dit moment is de technologie nog niet zo ver. Maar je zou ontwikkelaars uit willen dagen om de technologie wel zo ver te krijgen. Dat begint met wetgeving. Stel dat in wetgeving al een enorm lage lat wordt gelegd, bijvoorbeeld op het gebied van transparantie. Dan zal geen enkele ontwikkelaar, die ook belangen heeft bij die ondoorzichtigheid ... Geen enkele ontwikkelaar wil bijvoorbeeld heel veel inzicht geven in hoe een algoritme- of kunstmatige-intelligentietoepassing werkt, want dat zijn bedrijfsgeheimen die heel kostbaar kunnen zijn. We moeten dat soort ontwikkelaars juist gaan uitdagen om die transparantie wel mogelijk te maken.
De heer Karakus: U heeft een aantal punten al genoemd, maar nog even voor de scherpte. We proberen hier een link te leggen tussen algoritmen en etnisch profileren. De vraag is: kunnen we etnisch profileren voorkomen? Wat moet je daarvoor doen? U heeft al een aantal punten genoemd. Misschien kunnen we even doorgaan op uw verhaal over de wetgeving. Welke gegevens zouden dan pertinent niet in de data verwerkt moeten worden om etnisch profileren te kunnen voorkomen?
Mevrouw Benaissa: Dat is een hele goede vraag. Ik denk dat het heel moeilijk te zeggen is. Het zou voor mij voor de hand liggen om nu te zeggen: gegevens over etniciteit en nationaliteit, en soms over geslacht of een beperking, zouden nooit gebruikt moeten worden. Dat klopt vaak. Dat zou je niet moeten willen. Maar zelfs als je dat soort gegevens niet gebruikt, dan is het nog steeds mogelijk om te discrimineren op basis van afkomst, nationaliteit, inkomensklasse enzovoort. Ik denk dat we ervoor moeten waken, ook in wetgeving, dat we ons blindstaren op de verboden discriminatiegronden die we kennen en die direct te herleiden zijn tot de groepen die we wettelijk beschermen. We moeten ook kijken naar data die indirect wat kunnen zeggen over dat soort groepen. We kunnen namelijk al zien, bijvoorbeeld bij algoritmen van gemeenten, dat bepaalde wijken, bepaalde postcodegebieden, onder de loep genomen worden. Dat heeft daarmee indirect effect op migrantengroepen. Uiteindelijk begint het met de doelstellingen waarmee dit soort pilots beginnen. Wat wensen beleidsmakers, politici of de politie nu te bereiken met de inzet van een bepaald algoritme? Welke data worden daarvoor gebruikt en wat voor verhaal vertellen die data? Dat is iets waar we in zijn algemeenheid kritischer naar zouden moeten kijken.
De heer Karakus: Dan ga ik nog even verder op de praktijk. Ik doel op de toepassing en het gebruik, bijvoorbeeld door de politieorganisatie. Wat vindt u daarvan? Wat zou uw advies zijn? Om het te doen, om het in te zetten? Vindt u dat het goed gaat of moet het anders? Dat is dus even een vraag over de toepassing en het gebruik.
Mevrouw Benaissa: In Nederland wordt al gebruikgemaakt van predictive policing. Er zijn al wat onderzoeken gedaan, waarbij gezegd is: eigenlijk werkt dat niet goed, omdat data niet alleen gekleurd zijn, maar vaak ook onvolledig. Wellicht heeft u gisteren de documentaire van Zembla gezien, waarin te zien was hoe een Turks gezin in Giethoorn het leven moeilijk of eigenlijk onmogelijk is gemaakt door discriminatie. Zij gingen naar de politie om aangifte te doen, maar die werd niet opgenomen. Er werd gezegd: er is geen sprake van discriminatie, het is kattenkwaad, er is geen sprake van een strafbaar feit. Dat kan heel veel zeggen over verschillende politieagenten in Giethoorn, want het is een aantal keer gebeurd, maar het zegt ook wat over data. Op het moment dat je een aangifte niet opneemt, terwijl je dat wettelijk wel verplicht bent, dan creëer je namelijk een vertekend beeld, met onvolledige data, van de werkelijkheid. In dit geval ging het om de politie in Giethoorn, maar wij hebben van verschillende antidiscriminatiebureaus en -stichtingen vernomen dat dit geen incident is en dat het vaker voorkomt dat aangiften van discriminatie niet worden opgenomen. Met die data kan een vertekend beeld worden geschetst, een rooskleuriger beeld, waarbij wordt gezegd: nou, er zijn helemaal niet zo veel aangiften van discriminatie. Maar wij weten natuurlijk niet hoeveel aangiften niet zijn opgenomen. Dat is het geval met meerdere varianten van data, ook bij de politie. We weten nooit hoe volledig die zijn. Het klopt gewoon niet als we ervan uitgaan dat die data feitelijk en objectief zijn.
De heer Meijer: Dat punt heeft u eerder gemaakt, maar het gaat ons nu ook een beetje om de mechanismen die we kunnen hanteren om dat toch wat te stroomlijnen, want er gebeurt wel van alles. We hebben het gehad over wettelijke voorschriften. In het coalitieakkoord gaat het over een algoritmetoezichthouder en een register. Kunt u ook wat zeggen over dat soort instrumenten?
Mevrouw Benaissa: We zullen het samen moeten doen. Dat is een enorm cliché, maar ik zou niet willen zeggen: óf het een óf het ander. Dit is een heel groot onderwerp, dus het moet van verschillende kanten benaderd worden. Een toezichthouder is inderdaad enorm belangrijk. Wetgeving is dat in de eerste plaats ook, want waar wordt anders toezicht op gehouden? Maar denk ook aan u als wetgever. U heeft een controlerende taak in de Eerste Kamer. We hebben al behoorlijk wat antidiscriminatiewetgeving in Nederland. Denk aan de Grondwet, aan internationale verdragen en aan verschillende wetten die gaan over gelijke behandeling tussen mannen en vrouwen, over leeftijdsgebonden discriminatie, over etniciteit enzovoorts. Dat is dus een theorie die er vrij goed uitziet. Maar we moeten ook kijken naar wetten die worden voorgelegd waarbij het niet per definitie heel erg duidelijk is dat die een effect zullen hebben op het recht op gelijke behandeling, maar waar je met een beetje doordenken wel bij zou kunnen komen. Denk bijvoorbeeld aan de wet SyRI. Die is teruggefloten door de rechtbank omdat die in strijd is met het EVRM en dan specifiek het recht op privacy. Die wet heeft risicoprofilering mogelijk gemaakt. Als wetten worden ontwikkeld waarmee die risicoprofilering mogelijk gemaakt wordt, dan kunt u natuurlijk beseffen dat dit ook een impact zal hebben op het recht op gelijke behandeling, dat dit een bepaald onderscheid zal creëren tussen verschillende burgers die in bepaalde hokjes worden gestopt en dat bepaalde gemarginaliseerde groepen in onze samenleving eerder geraakt zullen worden. Dat is, zeker voor de Eerste Kamer, iets om waakzaam op te zijn.
De heer Karakus: Ik wil nog even terugkomen op het gebruik. Het voorbeeld van Giethoorn is mij bekend. Toevallig ken ik die casus. Maken wij het dan menselijk handelen? Data zijn namelijk een instrument en uiteindelijk moet een mens een inschatting maken. Wat merkt u nou in de praktijk? U zegt eigenlijk: het is een inschatting, het gezond verstand moet ook gebruikt worden in zo'n casus. Wat merkt u eigenlijk? Zijn we te afhankelijk van de data? Waar blijft de menselijke inschatting?
Mevrouw Benaissa: Dat is best een lastig dilemma. We hebben het er inderdaad vaak over dat we niet enkel onderworpen willen worden aan geautomatiseerde besluitvorming. Er moet altijd nog een menselijke maat zijn. Er moet iemand zijn waarmee te praten valt die kan beargumenteren waarom een bepaalde beslissing is genomen. Dat is zeker belangrijk, maar we moeten ook beseffen dat data of het gebruik van algoritmen of kunstmatige intelligentie, een vertaling is van wat mensen al doen. Dat ligt dus eigenlijk naast elkaar.
Deze technologie wordt ook heel vaak ingezet om werkzaamheden efficiënter te maken. We weten dat er bij heel veel bedrijven, zowel in de private sector als in de publieke sector, een behoorlijke werkvoorraad ligt voor de mensen die er werken en dat algoritmen worden ingezet om een deel van dat werk over te laten nemen door een computer, om de werkvoorraad voor mensen wat te verlichten. Op het moment dat we een deel van die beslissing overlaten aan een algoritme en er wel een mens tussen zetten die moet gaan controleren of het goed is gegaan, dan is de prikkel voor zo'n mens heel erg groot om te zeggen: dat algoritme zal het prima doen; hier is de grote oké-knop waar we op gaan drukken en door naar de volgende. Het komt vrijwel nooit voor dat zo'n mens opeens meer ruimte krijgt, omdat die werkvoorraad aan de ene kant beperkt wordt maar zich aan de andere kant opstapelt. We geloven eigenlijk niet dat, als beslissingen voor een deel geautomatiseerd worden en er vervolgens een mens tussen zit, diegene de tijd en de ruimte zal hebben binnen organisaties om beslissingen ook daadwerkelijk goed te kunnen controleren.
De heer Karakus: Wat is uw advies op dat punt? Die combinatie is natuurlijk relevant.
Mevrouw Benaissa: Het is vrij complex. Daarom zou mijn advies zijn: ga er niet te makkelijk van uit dat menselijke tussenkomst dé oplossing is. Wat stelt menselijke tussenkomst namelijk voor als zo'n mens ofwel niet het vermogen heeft om te controleren wat een algoritme doet, omdat het technisch niet mogelijk is of omdat zo'n persoon niet meer voldoende ingewerkt is om dat te kunnen controleren en niet meer de juiste expertise heeft, ofwel de tijd en ruimte niet heeft om zo'n beslissing te kunnen controleren? Het is een heel complex onderwerp, dus ik vind het heel lastig om te zeggen: dit absoluut wel en dit absoluut niet. Mijn advies zou zijn: laten we in ieder geval kritisch kijken naar de oplossingen die we aandragen en laten we het niet vanuit één kant aanvliegen, maar ervoor zorgen dat we bredere waarborgen hebben, zodat er verschillende waarborgen naast elkaar ontstaan, waarmee rechten dus voldoende beschermd worden.
De heer Karakus: En dan pas toepassen?
Mevrouw Benaissa: Exact. Ja.
De heer Meijer: Mag ik het eens helemaal omdraaien? We hebben het er nu bijna steeds over dat we om negatieve redenen data verzamelen, maar het kan natuurlijk ook om positieve redenen zijn. Ik was burgemeester van Zwolle. Daar wordt tweejaarlijks een Buurt-voor-Buurt Onderzoek gedaan met meer dan 10.000 respondenten. Er worden allemaal subjectieve meningen van burgers gekoppeld aan objectieve data uit politieregisters, de sociale dienst of wat dan ook. Op basis daarvan kleuren bepaalde delen van buurten wat roder, omdat daar wat meer achterstanden zitten. Op basis daarvan wordt er dan een jongerenwerker ingezet of wordt er positief aandacht aan besteed. Maar er zitten ook grenzen aan hoever je kan gaan. Hoe zou je dat moeten regelen? We doen nu steeds alsof er iets negatiefs gebeurt met de data die we hebben, maar we kunnen er ook iets positiefs mee doen.
Mevrouw Benaissa: Wat is uw specifieke vraag nu eigenlijk?
De heer Meijer: Je komt al gauw tot iets van: dit is ongewenst, want wij gaan er negatieve aandacht aan geven. We gaan bijvoorbeeld vaker surveilleren in een wijk waar veel jeugdcriminaliteit plaatsvindt. Maar je kan er natuurlijk ook positieve aandacht aan geven. We gaan meer doen aan opbouwwerk, jongerenwerk, andere activiteiten of wat dan ook. Daar heeft een gemeente bijvoorbeeld wel behoefte aan. Ik hou het nu even bij het politiedomein weg. Het is misschien dus makkelijker om te praten over welke voorwaarden je er op die manier aan stelt, omdat je dan dingen mogelijk wilt maken in plaats van onmogelijk.
Mevrouw Benaissa: Dit is heel erg herkenbaar. Onze ervaring is eigenlijk helemaal niet dat er vanuit negatieve intenties data verzameld worden. Het gebeurt juist vaak met de beste bedoelingen. Dat geldt voor heel veel beleidsmakers, waaronder inderdaad gemeenten. Volgens ons is dat eigenlijk ook niet zozeer het probleem. Vaak worden data verzameld of gebruikt om een verbetering te bewerkstelligen. Dat gebeurt met de beste bedoelingen. Alleen, de effecten kunnen tegengesteld zijn aan die bedoeling. Dat is eigenlijk de reden waarom je voorafgaand aan het gebruik van zo'n toepassing, zou moeten zeggen: het is onze bedoeling om de stad op deze punten beter maken, maar wat voor andere effecten zou het kunnen hebben op individuen, op de samenleving, op een democratie, als het misgaat? Die vragen worden eigenlijk veel te weinig gesteld. Wij, maar eigenlijk heel veel organisaties die pleiten voor bescherming van mensenrechten, vinden dat die vragen gesteld moeten worden voordat er met zo'n toepassing begonnen wordt.
De heer Karakus: Ik heb nog een vraag over de bewoners, de burgers. Op een gegeven moment vindt er een algoritmische besluitvorming plaats. Is de burger daarvan op de hoogte en, zo niet, wat betekent dat dan? Heeft u misschien nog suggesties om dat te verbeteren?
Mevrouw Benaissa: Op dit moment weten heel veel burgers dat eigenlijk niet. Het blijkt soms nog best wel moeilijk om te achterhalen A) dat überhaupt algoritmen of kunstmatige intelligentie zijn gebruikt, B) op wat voor een manier dat is gebeurd en C) wat voor een effect dat heeft gehad op specifieke burgers of groepen burgers. Dat is op dit moment nog enorm ondoorzichtig. Daar zou veel meer transparantie over moeten ontstaan. Een aantal gemeenten heeft daar het voortouw in genomen. De gemeente Amsterdam is bijvoorbeeld begonnen met een algoritmeregister, waarin zij zet welke algoritmen zij gebruikt en wat zo'n algoritme dan doet. Zeker op het moment dat een algoritme echt een impact kan hebben op iemands leven, is het niet alleen belangrijk om te begrijpen dát er sprake is van die technologie, maar ook hóé die werkt en of het op een rechtmatige manier gebeurt.
De heer Karakus: Zou je die transparantie waar u het over heeft, ook in de wetgeving moeten verplichten?
Mevrouw Benaissa: Ja, absoluut. Dat ontbreekt op dit moment nog in het Europese wetsvoorstel. Zoals het wetsvoorstel er nu ligt, mogen gebruikers van kunstmatige intelligentie – dat zijn dus organisaties die een kunstmatige-intelligentietoepassing afnemen, zoals gemeenten, verzekeraars en banken – alleen weten hoe een toepassing werkt, maar zij kunnen wettelijk gezien met dit wetsvoorstel niet afdwingen dat ze kunnen controleren of die toepassing ook juiste beslissingen heeft genomen die voldoen aan geldende wet- en regelgeving. Dus dat is problematisch, want als een overheid die kunstmatige intelligentie zou gebruiken bij beslissingen die effect hebben op burgers en we in Nederland die rechtsbescherming hebben waardoor overheden verplicht zijn om beslissingen te motiveren, dan kan dat dus niet afgedwongen worden met deze wet, die gaat over kunstmatige intelligentie. Dat staat haaks op elkaar. Dus daar moet echt nog verbetering in komen. Burgers zelf hebben op grond van het wetsvoorstel alleen in sommige gevallen het recht om te weten dat ze interactie hebben met kunstmatige intelligentie. Als burgers bijvoorbeeld op social media zitten en een video te zien krijgen waarin deepfakes zijn gebruikt, dan mogen ze in sommige gevallen – want er zijn allemaal uitzonderingen voor geformuleerd – weten dat ze interactie hebben met kunstmatige intelligentie, maar dan kunnen ze op basis van het wetsvoorstel transparantie of controleerbaarheid niet afdwingen. Als dat al niet kan, dan is rechtsbescherming dus eigenlijk onmogelijk. Je hebt namelijk geen inzicht in je dossier. Je krijgt dus eigenlijk kafkaëske toestanden waarbij je, zoals het in het boek van Kafka gaat, een verweerschrift moet schrijven waarin je hele leven gevat zit, omdat je niet weet waar je als het ware van beticht wordt.
De heer Meijer: Nu gaat het over grotere transparantie. U ziet daarbij een rol voor de wetgever. Zijn er nog andere actoren?
Mevrouw Benaissa: Wetgeving is één kant. Toezicht op wetgeving en dan vooral effectief toezicht is een andere kant. We hebben met de AVG gezien dat we best een sterke wet hebben op Europees niveau, die een heel breed toepassingsgebied heeft. Maar ook in Nederland constateren we dat de effectiviteit ervan wat te wensen overlaat, mede omdat we een toezichthouder hebben die te weinig middelen heeft om effectief toezicht te kunnen houden. Dat zijn lessen die we moeten trekken uit de AVG en waar we wat mee moeten op het moment dat we weer een toezichthouder gaan instellen op het gebied van kunstmatige intelligentie.
De heer Meijer: U bedoelt te zeggen: die moet meer middelen hebben dan nu.
Mevrouw Benaissa: Ja, inderdaad. Er moet effectief toezicht zijn. Dat bereik je niet als er onvoldoende middelen zijn. Daarnaast is het belangrijk dat organisaties, instanties en overheden – dit geldt dus ook voor de politie – die gebruik willen maken van deze technologie aangesproken worden op het moment dat zij dit, ondanks allerlei goede bedoelingen, op een verkeerde manier doen. Dat hebben we nu gezien bij de Belastingdienst. Maar het heeft jaren geduurd voordat we voldoende informatie kregen – denk aan de zwartgelakte dossiers – om te begrijpen wat daar überhaupt gaande was. Die organisaties moeten ook uitgedaagd worden om zich aan de wet te houden, ook omdat ze verantwoordelijk worden gehouden op het moment dat ze dat niet doen.
De heer Karakus: Even terug naar de organisaties. Je hebt algoritmes, die worden ergens bepaald, je krijgt data en vervolgens moeten de uitvoerders op straat daarmee aan de slag. Ze moeten controle uitoefenen, mensen aanhouden of preventief controleren. Waar ligt die verantwoordelijkheid en wie bepaalt nou hoe de mensen op straat het werk moet uitvoeren? Hoeveel ruimte krijgen die mensen op straat? Hoeveel handelingsvrijheid hebben ze daarin? Heeft u daar enig zicht op?
Mevrouw Benaissa: Dat is een hele goede vraag. Ik zou zeggen dat die verantwoordelijkheid niet alleen bij individuen ligt en niet alleen bij de mensen op straat, maar dat zij zeker een signaleringsfunctie en -taak hebben. Dat is altijd aan de verantwoordelijken binnen een organisatie, meestal de leidinggevenden of de bestuurders, die deze verantwoordelijkheid daadwerkelijk dragen. Maar juist in het toeslagenschandaal hebben we gezien dat er binnen de Belastingdienst zo veel mensen zijn geweest die hebben gezegd: dit gaat niet goed; dit is in strijd met de wet, met wat we zouden moeten willen in onze maatschappij. Die signalen zouden echt serieuzer genomen moeten worden, maar er moet ook ruimte zijn binnen organisaties om die signalen te delen. Het ging net al even over de politie als werkomgeving. Daarvan weten we ook dat het niet altijd voor iedereen een hele veilige werkomgeving is. Dat geldt voor meerdere organisaties. Dat corrigerend vermogen zou er moeten zijn, maar daar zal ook ruimte voor moeten zijn. Dat is heel makkelijk gezegd en veel moeilijker te bewerkstelligen, want er zal een cultuuromslag moeten plaatsvinden. Maar het lijkt me zeker voor verantwoordelijken binnen organisaties een hele waardevolle investering.
De heer Karakus: Oké, maar ik probeer ook even bij de vertaalslag naar de uitvoering, de politieagent op straat, de politieorganisatie, te blijven. Die moet daarmee werken. Ziet diegene het als een opdracht en denkt hij of zij: ik moet zwart-wit redeneren et cetera? Of zit daar nog handelingsvrijheid in? Daar ben ik even naar op zoek.
Mevrouw Benaissa: Ik hoop dat zo'n politieagent, die een hele opleiding heeft doorlopen om politieagent te worden, zich niet alleen laat sturen door wat een computer of zelfs een leidinggevende zegt. Dus ik hoop dat zo'n politieagent, op het moment dat hij met een opdracht de straat op gaat, het vermogen heeft om daar kritisch naar te kijken. Je zou willen dat politieagenten op die manier worden opgeleid en zo hun loopbaan doorlopen. Maar de vraag is – dat is wat ik bedoelde in mijn eerdere antwoord – of daar binnen organisaties ook voldoende waardering voor is. Dat is een beetje die cultuuromslag waar ik het over had.
De heer Karakus: Nou, geef daar eens antwoord op, want daar zijn we ook naar op zoek.
Mevrouw Benaissa: Ik denk het niet. Ik denk niet dat die ruimte er voldoende is. Er zijn zeker vanuit de politie al signalen geweest dat die ruimte er niet voor iedereen is geweest. Het is zelfs zo dat politieagenten die misstanden hebben aangekaart, zijn ontslagen. Dat is ook het geval in andere organisaties. Dat speelt niet alleen bij de politie. We willen natuurlijk autonome mensen zijn die kritisch vermogen hebben en die de mogelijkheid hebben om af te wijken van opdrachten die niet logisch zijn, of die op z'n minst te bevragen. Maar op het moment dat leidinggevenden dat niet in dank afnemen en mensen, bijvoorbeeld politieagenten of andere werknemers, zich daardoor onveilig gaan voelen, wordt de last voor dat soort mensen eigenlijk te groot. Dan wordt het een hele principiële kwestie: ga ik trouw blijven aan mijn eigen autonomie of ga ik ervoor zorgen dat ik mijn huur of hypotheek kan blijven betalen? Dat is het dilemma waar mensen mee te maken krijgen en waar we op dit moment in heel veel organisaties niet op een goede manier mee omgaan.
De heer Karakus: Mijn punt is ook – mijn collega kaartte dat ook al een beetje aan – het toezicht, onafhankelijk toezicht. Daar heeft u in het begin ook over gesproken. Als we daar een concrete invulling aan zouden moeten geven, gekoppeld aan de wetgeving, wat zou daar dan nog in verbeterd moeten worden?
Mevrouw Benaissa: Op dit moment hebben we nog geen toezichthouder op het gebied van algoritmen en kunstmatige intelligentie. In het regeerakkoord is wel de wil verklaard om de Autoriteit Persoonsgegevens ook toezichthouder te laten zijn op het gebied van algoritmen. Enerzijds is dat een logische redenering. Anderzijds niet, omdat de Autoriteit Persoonsgegevens haar mandaat haalt uit de Algemene verordening gegevensbescherming. Die Algemene verordening gegevensbescherming zegt dat de Autoriteit Persoonsgegevens alleen bevoegd is om toezicht te houden op die wet. Die wet is van toepassing op het moment dat er sprake is van verwerking van persoonsgegevens. Het lastige aan algoritmen en kunstmatige intelligentie is dat er vaak gegevens worden gebruikt die al volledig geanonimiseerd zijn en niet meer herleidbaar zijn tot individuen. Daarvan zegt de AVG: dan is de AVG niet van toepassing. Wij vragen ons af of het kabinet zich daar voldoende bewust van is. Mijn boodschap aan u is: wees daar waakzaam op, want als de Autoriteit Persoonsgegevens die taak opgelegd krijgt, moet er ook een wet zijn waar dat aan ontleend wordt.
Ook in het wetsvoorstel over kunstmatige intelligente dat op Europees niveau voorligt, staat dat er een toezichthouder moet zijn. Daarbij wordt niet automatisch gerefereerd aan dataprotectietoezichthouders, zoals de Autoriteit Persoonsgegevens. Lidstaten mogen dat zelf inkleuren, maar als die toezichthouder er komt – of dat nou de Autoriteit Persoonsgegevens is of een andere toezichthouder – is het in ieder geval van belang dat zo'n toezichthouder voldoende expertise heeft om toezicht te kunnen houden en natuurlijk ook voldoende middelen om effectief te kunnen zijn.
De voorzitter: We gaan bijna naar een afronding toe. Zijn er nog dringende vragen?
De heer Karakus: Nog een laatste vraag. We hebben het over een heel belangrijke, cruciale zaak, maar ook over onafhankelijkheid. Stel dat u het artikel van de nieuwe wetgeving mag schrijven, wat zou u dan vanuit uw expertise inbrengen?
Mevrouw Benaissa: Op het gebied van toezicht of breder?
De heer Karakus: Wat betreft het toezicht, ja.
Mevrouw Benaissa: In ieder geval dus een toezichthouder die echt voldoende middelen heeft. Misschien moet op Europees niveau worden bepaald wat dan voldoende is. Ook in de AVG wordt gezegd: er moeten voldoende middelen zijn.
De heer Karakus: Is «middelen» geld of regels?
Mevrouw Benaissa: Het is eigenlijk breed: zowel geld als een kantoor, voldoende personeel en voldoende ruimte om onderzoek te kunnen doen. Dat is enorm belangrijk. De toezichthouder moet zich kunnen bewegen en moet proactief kunnen onderzoeken. Daarnaast moet hij klachten die hij ontvangt, kunnen opnemen. Dat zien we echt misgaan bij de Autoriteit Persoonsgegevens. Dus dat moet misschien op een hoger niveau geregeld worden, zodat lidstaten daar minder ruimte in hebben. Ik denk dat de afgelopen jaren in ieder geval duidelijk hebben gemaakt dat het niet per definitie goed komt als we dat te veel aan lidstaten overlaten. Er moeten ook voldoende peer reviews zijn, waarbij voldoende expertise wordt geraadpleegd uit het veld. Dat kunnen andere mensenrechtenorganisaties, technici en ontwikkelaars zijn, die met toezichthouders kunnen meedenken, zonder dat de onafhankelijkheid natuurlijk in het gedrang komt, maar waar zo'n toezichthouder wel van zou kunnen leren, zodat hij niet op een eilandje te werk gaat, als het ware.
De heer Karakus: Dank u wel.
De voorzitter: Dank. Ik heb in de afronding nog een tweetal vragen die ik u zou willen voorleggen. Er is al gesproken over de risico's van kunstmatige intelligentie en data. U zei, ook in reactie op een vraag van collega Meijer: het is niet allemaal negatief; er zitten ook wel positieve kanten aan. De vraag die ik u nog zou willen stellen, is: zouden we kunstmatige intelligentie ook kunnen inzetten om discriminatie tegen te gaan? Dan wordt het dus niet zozeer neutraal, maar zet je het echt positief in om discriminatie tegen te gaan.
Mevrouw Benaissa: Dat is een hele leuke vraag. Ik ben er heel blij mee dat u dat vraagt. Dat is iets waar zeker over nagedacht wordt, door wetenschappers en door mensenrechtenorganisaties. Bits of Freedom is er daar één van. Er zijn dus al wel wat mensen die daarover nadenken. We geloven dat dat mogelijk is. Ik zweef een beetje tussen pessimisme en optimisme wat dit betreft. Dat zit ’m heel erg in het feit dat het technisch gezien mogelijk zou moeten kunnen zijn. Dat zit ’m heel erg in dat verhaal van die data. Het gaat erom dat je zelf aan de knoppen zit op het moment dat je die data gaat uitkiezen. Net zoals je negatief gekleurde data gebruikt, kun je ook corrigerend vermogen inbrengen. Het pessimisme waar ik tegen aanloop, zit ’m in het feit dat het uiteindelijk mensen zijn die aan de knoppen zitten en die bepalen wat voor effect ze zouden willen hebben.
De voorzitter: Als ik een voorbeeld mag geven: vanmorgen ging het er onder andere over dat bewustwording binnen de politieorganisatie een groot goed is. Een wilde gedachte. Stel je nou eens een systeem voor waarin allerlei dingen worden geregistreerd. Een politieagent voert daarin in: ik heb die-en-die staande gehouden, met dit-en-dat verhaal. Stel dan dat de computer op een gegeven moment zegt: op grond van die-en-die gegevens stel ik vast dat dit al de vierde is van hetzelfde type die u vandaag heeft aangehouden. Zou dat niet een kritische vraag kunnen zijn die vanuit de kunstmatige intelligentie gesteld kan worden in het kader van de bewustwording?
Mevrouw Benaissa: Ja. Dat is eigenlijk het korte antwoord. Dat zou heel goed kunnen. Nogmaals, het pessimisme zit ’m eigenlijk alleen in het feit dat mensen opdracht moeten geven voor het gebruik van zo'n toepassing of correctie. Soms komen die ook voort uit goede bedoelingen die dan toch weer een negatief effect kunnen hebben. Dus ook daar moeten we voor oppassen en ook daar moeten we voorafgaand zo'n mensenrechtentoets doen. Maar we geloven zeker dat dat mogelijk is.
De voorzitter: Dank. Met het woord «mensenrechten» komt u bij mijn andere vraag. Die gaat over toepassingen. Zou die mensenrechtentoets ook al bij wetgeving moeten worden ingevoerd?
Mevrouw Benaissa: Bij elke wetgeving, bedoelt u?
De voorzitter: Nou ja, dat is dan een beetje de vraag. Wij hebben onze taak als Kamerlid in het toetsen van wetgeving. Hoe doen wij dat dan op een goede manier? Welke elementen zouden daar dan in moeten zitten om dit beter te borgen?
Mevrouw Benaissa: Dat denk ik wel. Ik had het net al even over bijvoorbeeld die SyRI-wetgeving. Als je je echt inbeeldt wat zo'n wet teweeg zou kunnen brengen en wat voor effecten die zou kunnen hebben op bepaalde groepen mensen of individuen, dan kun je eigenlijk al vrij snel aanvoelen dat dit een negatieve impact zou kunnen hebben op verschillende mensenrechten. Het is nu teruggefloten op het privacyrecht, maar het is eigenlijk breder. Dus ja, het zou goed zijn als dat standaard gebeurt bij wetten. Ik weet eigenlijk te weinig van hoe jullie dat op dit moment doen, maar ik dacht dat het een vast onderdeel zou moeten zijn.
De voorzitter: Daar zijn we natuurlijk precies naar op zoek. We zoeken naar hoe we dat in het proces kunnen borgen op de juiste momenten en op de juiste manieren. Vandaar dat wij erg blij zijn met deze gesprekken, want die helpen ons om precies die vraag scherper te krijgen: hoe zouden wij dit als Kamerleden kunnen doen?
Mevrouw Benaissa: Als ik nog één vraag zou mogen stellen: klopt het ook dat jullie toetsen aan de Grondwet?
De voorzitter: Zeker.
Mevrouw Benaissa: Ja. Dan had ik het toch goed.
De voorzitter: De Grondwet en ook internationale verdragen zijn voor ons belangrijke kaders voor het toetsen van wetgeving: is het wel een legitieme wet? Kunnen we die op deze manier wel aannemen? Dat is zeker een van onze kernvragen, naast haalbaarheid en uitvoerbaarheid.
Zijn er nog andere vragen die wij niet gesteld hebben, maar die u toch heel graag zou willen beantwoorden? Of heeft u kunnen zeggen wat voor u van belang was?
Mevrouw Benaissa: Ik zou hier uren over door kunnen praten, maar ik denk dat we de kern vandaag wel geraakt hebben.
De voorzitter: Dank. Het is duidelijk dat u ons vanuit uw kennis heel veel hebt geboden, maar ook nog veel meer had kunnen bieden. Mocht zich in de komende tijd nog iets aandienen waarvan u denkt «het is toch belangrijk dat jullie dat echt weten», dan staan we daar zeker open voor. Dan weet u ons te vinden. Voor nu heel veel dank voor het gesprek, voor de openheid en voor de inzichten die u ons gegeven heeft. Wij nemen dat mee in onze overwegingen, in ons eindrapport en in onze aanbevelingen. Dat werk ligt nu voor ons als commissie. Dank voor uw bijdrage daaraan.
Mevrouw Benaissa: Veel dank voor de uitnodiging.
De voorzitter: Daarmee sluit ik deze zitting.
Sluiting 14.32 uur
Kopieer de link naar uw clipboard
https://zoek.officielebekendmakingen.nl/kst-CXLVI-F.html
De hier aangeboden pdf-bestanden van het Staatsblad, Staatscourant, Tractatenblad, provinciaal blad, gemeenteblad, waterschapsblad en blad gemeenschappelijke regeling vormen de formele bekendmakingen in de zin van de Bekendmakingswet en de Rijkswet goedkeuring en bekendmaking verdragen voor zover ze na 1 juli 2009 zijn uitgegeven. Voor pdf-publicaties van vóór deze datum geldt dat alleen de in papieren vorm uitgegeven bladen formele status hebben; de hier aangeboden elektronische versies daarvan worden bij wijze van service aangeboden.