Kamerstuk
| Datum publicatie | Organisatie | Vergaderjaar | Dossier- en ondernummer |
|---|---|---|---|
| Eerste Kamer der Staten-Generaal | 2021-2022 | CXLVI nr. L |
Zoals vergunningen, bouwplannen en lokale regelgeving.
Adressen en contactpersonen van overheidsorganisaties.
U bent hier:
| Datum publicatie | Organisatie | Vergaderjaar | Dossier- en ondernummer |
|---|---|---|---|
| Eerste Kamer der Staten-Generaal | 2021-2022 | CXLVI nr. L |
Vastgesteld 28 februari 2022
De parlementaire onderzoekscommissie effectiviteit antidiscriminatiewetgeving heeft op 11 februari 2022 een openbaar gesprek gehouden over antidiscriminatiewetgeving in het domein van de sociale zekerheid.
Van dit gesprek brengt de commissie bijgaand geredigeerd woordelijk verslag uit.
De voorzitter van de parlementaire onderzoekscommissie antidiscriminatiewetgeving, Ganzevoort
De griffier van de parlementaire onderzoekscommissie antidiscriminatiewetgeving, Van der Bijl
Voorzitter: Ganzevoort
Griffier: Van der Bijl
Verder zijn aanwezig de leden van de commissie Ganzevoort, Karakus en Prins.
Gesprek met:
– de heer Sennay Ghebreab (neuro-informaticus, Universiteit van Amsterdam),
– mevrouw Jacqueline Nieuwstraten (Advokatenkollektief Rotterdam).
Aanvang 14.58 uur
De voorzitter: Goedemiddag. Ik open deze zitting en heet de aanwezigen hier in de zaal van harte welkom, alsook de mensen die het gesprek via de livestream volgen. Het is vandaag de tweede dag van de openbare gesprekken van de parlementaire onderzoekscommissie. Daarbij staat de effectiviteit van antidiscriminatiewetgeving voor ons centraal en daarbinnen het domein van de sociale zekerheid. Aan tafel zitten de commissieleden Hamit Karakus en Greet Prins. De onderzoekscommissie bestaat verder uit de leden Martine Baay-Timmerman, Paul Frentrop, Henk Jan Meijer, Petra Stienen, en mijn naam is Ruard Ganzevoort.
De commissie onderzoekt de kloof tussen enerzijds de wet op papier, artikel 1 van de Grondwet tegen discriminatie, de Algemene wet gelijke behandeling et cetera, en anderzijds de praktijk, waar discriminatie op allerlei manieren nog steeds voorkomt. Wij proberen te vinden wat daarin de mechanismen zijn die dat veroorzaken en wat wij zouden kunnen veranderen om dat te verbeteren. Vanuit het vooronderzoek naar de verschillende domeinen zijn een aantal vragen opgesteld, die door de commissieleden zullen worden voorgelegd aan onze genodigden voor dit gesprek. Dat zijn er twee: Sennay Ghebreab, neuro-informaticus van de Universiteit van Amsterdam, en Jacqueline Nieuwstraten van het Advokatenkollektief Rotterdam.
De thema's van het gesprek zijn de volgende. We willen het graag hebben over aan de ene kant de balans die in sociale zekerheid nodig is tussen de zorg voor de mensen die behoefte hebben aan sociale zekerheid en wat wij hen kunnen bieden, en aan de andere kant de repressieve kant: hoe voorkom je nou fraude? Tussen die twee gebieden zit een spanning. Hoe kan dat goed worden vormgegeven, zonder dat dat in zichzelf tot discriminatie gaat leiden?
Een tweede thema is de toegang tot sociale zekerheid. Hoe voorkomen we dat mensen tussen wal en schip vallen? Hoe voorkomen we vooral dat de een meer kans heeft tussen wal en schip te vallen dan de ander? Het derde thema gaat over wat de rol van algoritmen in dit geheel is. Die worden natuurlijk in toenemende mate gebruikt op allerlei terreinen. Hoe kunnen we dat op een manier doen zodat het geen discriminatie veroorzaakt?
De focus van het gesprek willen we met name leggen op wat het betekent voor de mensen die dit aangaat: de mensen die behoefte hebben aan sociale zekerheid, aan ondersteuning van de overheid; dat zijn de cliënten. Het gaat om de kloof tussen hun ondersteuning aan de ene kant en de strengheid van de handhaving aan de andere kant.
Dat zijn de vragen en thema's van vandaag. We hebben daar ongeveer een uur voor. Het gesprek wordt gestart door mevrouw Prins.
Mevrouw Prins: Dat hadden wij zo afgesproken, meneer de voorzitter. Mevrouw Nieuwstraten, als u vanuit uw praktijk kijkt naar de balans tussen de sociale zekerheid, de zorgplicht aan de ene kant en het voorkomen van fraude aan de andere kant, heeft u dan het gevoel dat de wet- en regelgeving u daarbij de juiste handvaten biedt?
Mevrouw Nieuwstraten: Vanuit mijn praktijk is mijn ervaring dat het zwaartepunt met name bij de repressie ligt – dus de kant van het onderzoek, de beoordeling of mensen wel of niet frauderen – en veel minder bij de zorgplicht. Dat begint nu een heel klein beetje te komen.
Mevrouw Prins: Ligt dat dan aan de wetten of ligt dat aan de manier waarop met die wetten wordt omgegaan?
Mevrouw Nieuwstraten: Deels ligt dat aan de wetten, omdat sommige wetten minder ruimte bieden aan bestuursorganen om maatwerk te verrichten. Maar ik denk ook dat er in de uitvoeringspraktijk best mogelijkheden zijn om dat op een andere manier aan te vliegen. Ik weet niet of het handig is dat ik een voorbeeld geef?
Mevrouw Prins: Hartstikke graag.
Mevrouw Nieuwstraten: Ik heb de laatste tijd heel veel geprocedeerd over artikel 17 van de Participatiewet, de inlichtingenplicht. Die wordt uitgelegd als een hele open norm. Iedere burger moet dus eigenlijk aan zijn theewater voelen wat dat inhoudt, wat je moet melden aan de gemeente. Maar de ervaring leert dat heel veel mensen niet begrijpen wat ze moeten melden. De belangrijkste dingen weten ze. Als je samenwoont, moet je dat melden. Als je gaat werken, moet je dat melden. Maar als jij bijvoorbeeld in een gokgelegenheid geld pint, dan moet je dat ook melden. Als jij boodschappen doet voor je buurvrouw en van die buurvrouw geld terugkrijgt voor die boodschappen, dan moet je dat ook gaan melden. Ik denk dat dat een gat is in de informatievoorziening aan burgers. Dat wordt dan uitgelegd als schending van de informatieplicht, dus feitelijk als fraude. Mensen moeten daardoor eigenlijk geld gaan terugbetalen dat van hen is. Daardoor wordt ze de pas afgesneden van bijvoorbeeld een schuldenregeling, omdat het om een fraudeschuld gaat. Het levert financiële stress op. Het levert stress op, omdat ze als fraudeur worden gezien, terwijl ze dat nooit bedoeld hebben en nooit wilden doen.
Dat is dus wat je ziet. Ik denk dat de zorgplicht van de overheid is, dat als iemand bijstand komt aanvragen, je aan diegene uitlegt wat nou de aard van de bijstandswetgeving is. Wat willen wij daar, als Nederland, als gemeenschap nou mee? Wat is ons doel daarbij? Als je dat aan mensen uitlegt – dat doe ik inmiddels, als ze bij mij komen met een besluit, in mijn spreekkamer – dan snappen ze het en dan zeggen ze: ik wist dat niet; als ik dat geweten had, had ik het niet gedaan of had ik iets anders gedaan. Ik denk dat je veel persoonlijk leed kunt voorkomen, wanneer je goede informatie aan je burgers verschaft. Dat gebeurt in mijn optiek te weinig.
Mevrouw Prins: Als we dan kijken naar die goede informatie, is het dan niet te veel of te complex of is dat, als u het doet, op dat moment helder? Of zit er dan toch nog iets in ... Ik moet denken aan het volgende. Als je naar de huisarts gaat en je krijgt een slechtnieuwsgesprek, dan hoor je maar de helft. De andere helft is wel gezegd, maar niet gehoord. Mag ik zo'n vergelijking maken of juist helemaal niet? Als u nee zegt, dan is het goed.
Mevrouw Nieuwstraten: Ik heb de laatste tijd een aantal gesprekken met mensen van de gemeente Rotterdam gevoerd over dit soort dingen, omdat ik op een gegeven moment dacht: met de rechter kom ik er niet uit, want die kijkt toch alleen maar naar wat de bandbreedte is van een overheidsorgaan en niet wat die van de burger is. Dat gebeurt in mijn optiek veel te weinig. Ik ben daarover in gesprek gegaan met mensen van de gemeente Rotterdam. Zij zeggen ook dat ze misschien bij de eerste aanvraag niet die hele lawine van informatie moeten gaan verschaffen, want die mensen zitten nog in de stress of ze wel of geen uitkering krijgen. Misschien moet je het op een later moment doen. Maar ik denk dat het essentieel is dat je de kern van de regelgeving, bijvoorbeeld van de bijstandswet en de Participatiewet, wel degelijk op dat moment goed uitlegt aan de burger, zodat de burger weet wat er van hem of haar verwacht wordt en de overheid ook weet dat zij aan haar informatieplicht voldaan heeft. Ik vind het een informatieplicht. Dat vinden rechterlijke organen minder. Die zeggen: je kan niet alles uitleggen. Ik denk dat dat nonsens is. Natuurlijk kan dat, maar je moet het wel willen.
De heer Karakus: Mevrouw Nieuwstraten, dank voor dit inzicht. Ik wil het even nog een tandje scherper hebben. U heeft het over de informatie, maar we hebben ook wetgeving die zegt dat we het hier wel over een sociale zekerheid voor mensen hebben. Als we naar de praktijk kijken, dan zegt u dat het ingewikkeld is en dat mensen soms niet begrijpen waar het over gaat. Maar ik wil het even nog een tandje scherper hebben door te vragen: heeft de overheid dan niet de plicht om die zorgplicht op zich te nemen en desnoods nog actiever te handelen dan ze nu doet?
Mevrouw Nieuwstraten: Ja, ik vind van wel.
De heer Karakus: Hoe zou dat moeten? Waar zit het element in? Daar zijn we natuurlijk naar op zoek. Welke mechanismes in het systeem, het handelen, het handhaven, kunnen tot discriminatie of het gevoel van discriminatie leiden? Kunt u dat even toelichten?
Mevrouw Nieuwstraten: Ik heb een zaak gehad waarbij in het dossier stond dat er sprake was van big data. De gemeente Rotterdam heeft ... Ik kan weinig over andere gemeentes zeggen, want mijn werkgebied ligt voornamelijk bij de gemeente Rotterdam, omdat ik daar de meeste cliënten vandaan heb. Op het moment dat iemand via big data wordt geselecteerd, kan ik niet achterhalen wat de elementen zijn die daar gebruikt zijn en waarom mijn cliënt komt bovendrijven. Dat heeft niks met de informatieplicht te maken. Dat heeft te maken met het feit dat een overheidsorgaan mag controleren of een bijstandsuitkering rechtmatig wordt verstrekt. Daar heb ik geen moeite mee. Ik vind dat als je belastinggeld gebruikt, je moet controleren of dat op een rechtmatige, doelmatige manier wordt uitgegeven. Bij een aantal cliënten per jaar moet beoordeeld worden of zij die uitkering rechtmatig ontvangen.
Dat gebeurt op verschillende manieren. Dat gebeurt aselect, via fraudesignalen, via bepaalde doelgroepen en via big data. Ik krijg dan heel veel alleenstaande mannen met een niet-Nederlandse achtergrond in mijn spreekkamer. Op een gegeven moment ga je daar vragen over stellen: hoe kan het dat ik altijd alleenstaande mannen met een niet-Nederlandse achtergrond krijg? Dat kan natuurlijk zijn omdat er bepaalde selectiemethodes zijn, waarbij in een bepaalde wijk mensen met een bijstandsuitkering worden geselecteerd. Dat kan, maar ik kan dat niet controleren. Als je in een bepaalde wijk een hogere populatie van mensen met bijstand hebt, kan het namelijk zo zijn dat daardoor meer mensen geselecteerd worden met bepaalde kenmerken, maar ik kan dat niet controleren. Op het moment dat ik daar dan om vraag, is het best lastig om die informatie boven te krijgen.
Mevrouw Prins: Ik wil hier graag even een reactie op van meneer Ghebreab, omdat dat eigenlijk ook een deel van zijn werkterrein is. Als u dit zo hoort, wat zou dan het advies zijn vanuit uw kant, meneer Ghebreab?
De heer Ghebreab: Wat ik hier hoor, is heel herkenbaar. Big data, AI en algoritmes worden steeds meer gebruikt door de overheid. Die worden natuurlijk ook door anderen gebruikt, door bedrijven et cetera, maar zeker ook door de overheid. Daarbij gaat er weleens wat mis, om het zacht uit te drukken. Een van de grootste problemen die ik zie, is dat er geen transparantie wordt geboden door overheidsdiensten die algoritmes inzetten, terwijl dat de essentie is van lerende algoritmes, namelijk: elke keer data verfijnen, de technologie achter AI en algoritmes verbeteren, transparantie en openheid bieden, fouten toegeven, en burgers meenemen in het verbeteren van big data en de achterliggende algoritmes. Dat is essentieel. Dat gebeurt te weinig.
Ik merk wel heel duidelijk een verschil tussen de private sector en de publieke sector in dezen, waarbij de private sector meer openheid en transparantie geeft, meer accountability, dus verantwoording, geeft, en ook meer bereid is om fouten toe te geven en aan de hand daarvan systemen te verbeteren en ook de dienstverlening aan klanten te verbeteren. In de publieke sector is dat veel minder aanwezig. Zeker bij de overheid is er veel minder openheid en wil om te reageren op fouten en om fouten te corrigeren. Dat is, denk ik, een zorgwekkende ontwikkeling, waar nog een hoop aan gedaan moet worden.
Mevrouw Prins: Heeft u er een verklaring voor dat de overheid daar wat meer beperkt mee omgaat?
De heer Ghebreab: Ik heb daar geen verklaring voor. Het zou zo kunnen zijn omdat de overheid bezig is met burgers, dus niet met bepaalde groepen of klanten. De uitwerking van fouten die de overheid maakt met algoritmes hebben dus een veel grotere weerslag. Het zou zo kunnen zijn dat dat ook een bepaalde mate van reservering, angst, voor transparantie met zich meebrengt. De overheid werkt ook met kwetsbare groepen, juist met de groepen die nu worden benadeeld door algoritmes. Het kan zijn dat dat ook weer een soort verlamming teweegbrengt bij de overheid. Ik weet het niet. Er zullen ongetwijfeld meer aspecten een rol spelen, maar mijn constatering is dat de overheid, de publieke sector, wat flexibeler en opener moet zijn.
Mevrouw Prins: Wij hadden zojuist ook iemand hier die vertelde dat het uitdrukkelijk ging om de gedragskenmerken. Die gedragskenmerken hield men op zich geheim, omdat daar anders weer te makkelijk mee gesjoemeld kon worden. Zou dat een reden kunnen zijn, of zegt u: dat herken ik helemaal niet?
De heer Ghebreab: Nee, dat herken ik niet zodanig als een reden.
Mevrouw Prins: Is dat vanuit uw vakgebied een reden die u zou kunnen begrijpen, in die zin dat u zegt: het is goed dat men dat niet weet, want dan kan men zijn gedrag daarop aanpassen, als men zaken invult?
De heer Ghebreab: Wat bedoelt u daarmee? Het niet opnemen van ...
Mevrouw Prins: Op een bepaald moment gaat het alleen maar om de gedragskenmerken. Die worden gebruikt voor het inschatten bij wie je wel moet gaan controleren en bij wie je niet moet gaan controleren. Bij wie heb je risico en wie kun je dus beter begeleiden dan de ander, waarbij je geen risico hebt? Dat gaat dan dus uitdrukkelijk niet meer om het geslacht of de leeftijd of wat dan ook, maar om het gedrag. Men zegt: die gedragskenmerken willen wij niet delen, vanwege mensen die er kwaad mee willen. Een klein percentage mensen zou dat willen, is even het idee. Is dat vanuit uw expertise een logische conclusie?
De heer Ghebreab: Nee, ik vind dat geen logische conclusie. Het zegt mij meer over het mensbeeld dat heerst bij organisaties. Het niet delen van informatie omdat anders anderen, burgers, criminelen, daar gebruik van kunnen maken, zegt heel veel over de wijze waarop men bij de overheid met algoritmes aan het werk gaat. Het zegt veel meer daarover dan over de manier van werken of de technologie en algoritmes zelf. Ik merk dat bij overheden, nationaal en internationaal, AI en algoritmes historisch vooral zijn ingezet met het idee van veiligheid en bescherming: fraudeurs en criminelen oppakken. Dat heeft een tendens gecreëerd waardoor je, als je met zo'n bril naar de maatschappij en naar mensen kijkt, in deze discussies eindigt: of je dit wel of niet moet doen.
Ik denk dat er veel breder naar gekeken moet worden. Ik denk dat er met een ander perspectief gekeken moet worden, waarbij we ons afvragen hoe we burgers kunnen helpen in plaats van hoe we potentiële boeven, burgers, kunnen oppakken. Dat geeft een hele andere dynamiek. Dat is ook wat ik hier graag wil benadrukken: het gaat vaak niet om algoritmes of de technologie zelf; het gaat vaak om de organisatie, de samenleving waarin die algoritmes ontwikkeld, toegepast en gemonitord worden. Algoritmes zijn voor mij op z'n minst een reflectie, een weerspiegeling, van datgene wat er in de maatschappij plaatsvindt, en daarmee eigenlijk ook een kans: een mooi middel om te kwantificeren wat er nou fout gaat. Dat helpt ons dan namelijk om de fouten te corrigeren. Ik hoop dat vanuit de overheid en ook in de wetgeving veel meer vanuit dit perspectief, deze bril, naar algoritmes gekeken zal worden, en misschien minder vanuit de negatieve consequenties van algoritmes voor bepaalde mensen of bevolkingsgroepen.
De heer Karakus: Houd dat even vast, alsjeblieft, want ik kom daar zo op terug. Nu ga ik even terug naar mevrouw Nieuwstraten. We willen hier nu eigenlijk zien of de discriminatie, de kans op discriminatie of het gevoel van discriminatie nou in de systemen, de uitvoering, de wetgeving, de regelgeving of het handelen zit. We zijn op zoek naar het antwoord daarop en naar wat we zouden kunnen doen om dat te voorkomen. Die vraag ga ik straks ook aan u stellen, maar misschien kunt u daar even vanuit uw praktijk iets over zeggen. U heeft een aantal dingen genoemd, zoals dat zaken niet-transparant zijn. Daarmee kunt u het volgende zeggen: ik kan niet opkomen voor de belangen van mijn cliënt, want het is niet transparant; ik weet niet hoe. Ik vul het even voor u in. Waar zit dan de discriminatie in en waar zou een risico tot discriminatie in kunnen zitten? Daarnaar ben ik even op zoek.
Mevrouw Nieuwstraten: Ik heb daar ook over gesproken. Men is in Rotterdam tot een bepaalde manier van selectie gekomen vanuit de gedachte dat je mensen niet overmatig wil belasten met heronderzoeken. Dan vraag ik me alleen af: wat is je referentiekader en wat is je doel bij heronderzoeken? Is dat fraude boven water halen? En ga je er dan van uit dat er in bepaalde bevolkingsgroepen meer fraude plaatsvindt, bijvoorbeeld in die zin dat er bij alleenstaande mannen meer fraude plaatsvindt dan in gezinnen? Wat is nou je criterium bij de selectie voor die heronderzoeken? Ik geef het volgende voorbeeld, namelijk een uitspraak van de Centrale Raad die ik ooit gebruikt heb. In Den Haag hadden ze de groep alleenstaande mannen onderzocht om te kijken of die rechtmatig een uitkering ontvingen. Daarvan heeft de Centrale Raad destijds gezegd: dat mag niet, want dat is één bepaalde groep; dat is discriminerend. Ik heb dat gebruikt in Rotterdam, maar daar zegt men: we bekijken daarnaast ook de alleenstaande vrouwen en andere groepen. En daarvan zei de Centrale Raad: dat mag dan, want Rotterdam zegt dat ze verschillende groepen gaan bekijken; dan is er dus geen sprake van discriminatie. De vraag is of dat zo is.
De heer Karakus: U heeft zo veel ervaring. In alle oprechtheid, vindt u dat er discriminatie plaatsvindt? Of heeft het met het systeem te maken? Wij willen, gebruikmakend van uw ervaring, in alle oprechtheid weten hoe we dat kunnen voorkomen. U schetst een aantal dingen, maar even wat dieper.
Mevrouw Nieuwstraten: Ik kan de vinger niet op discriminatie leggen. Daar ben ik gewoon eerlijk in. Als ik dat aanvoel en zeg dat ik denk dat er sprake is van discriminatie, dan moet ik dat gaan aantonen. Dat kan ik niet. Voor een groot deel heeft het dus ook te maken met het systeem. Hoe vlieg je bepaalde zaken aan? Wat is daarbij je gedachte? Wat zijn je uitgangspunten? Wat zijn je verwachtingen?
De heer Karakus: Wat doet dat met uw cliënten? Wat hoort u dan terug?
Mevrouw Nieuwstraten: De cliënt vindt het erg dat hij een onderzoek krijgt en dat ze tegen hem zeggen dat hij gefraudeerd heeft. Dat zegt de cliënt.
Mevrouw Prins: Zeggen ze dat gelijk bij het begin van het onderzoek?
Mevrouw Nieuwstraten: Als ze bij mij komen met de beschikking, dan gaan we daarover praten. Dan gaan we kijken wat er is gebeurd, wat er is gedaan. Niet vaak zegt een cliënt dat er sprake is van discriminatie, maar ik zie een groter geheel – ik heb meerdere cliënten – waardoor ik af en toe denk: hè, hoe kan dit? Neem de toeslagenaffaire. Ik heb ontzettend veel alleenstaande moeders in Rotterdam bijgestaan die, voordat de toeslagenaffaire zo werd genoemd, bedragen moesten terugbetalen. Dat waren bijna altijd mensen met een niet-Nederlandse achtergrond. Ik heb me weleens afgevraagd hoe dat kan. Maar ik heb er nooit bij stilgestaan dat de Belastingdienst blijkbaar algoritmes heeft gebruikt om dat te doen.
Ik geef nog een ander voorbeeld. Een alleenstaande vrouw krijgt een uitkering van rond de € 1.075. Op het moment dat jij huwt en je partner niet in Nederland woont, dan wordt je uitkering verlaagd met ongeveer € 300, omdat jij dan een gehuwde bent met een niet-rechthebbende partner. Ik vraag mij oprecht af of dat geen discriminatie is. Want wat zegt de overheid dan? De memorie van toelichting zegt: ja, wij willen niet dat dat geld bij die huwelijkspartner terechtkomt. Dan denk ik: toen zij alleen was, mocht zij met € 1.075 doen wat ze wilde. Nu is ze gehuwd en moet ze maar toe met € 300 minder. Wat is daar nou de rechtvaardigingsgrond van? Je merkt dat het qua discriminatie in de sociale zekerheid vaker over dat soort dingen gaat: worden verschillende groepen gelijk behandeld of ongelijk behandeld, en mag dat volgens de vaak ook Europese regelgeving? Maar het is heel lastig om de vinger te krijgen achter discriminatie in de zin van populaties. Dan moet je haast allerlei Wob-verzoeken doen om populaties naast elkaar te gaan zetten. Daar heb ik als advocaat geen tijd voor.
De heer Karakus: Een van de punten die werden aangesneden, was bewijslast. Daar heeft u het ook over. Wat zou daarover moeten veranderen in de wetgeving?
Mevrouw Nieuwstraten: Als iemand stelt dat hij gediscrimineerd is op bepaalde gronden, dan vind ik eigenlijk dat het overheidsorgaan moet aantonen dat dat niet zo is.
De heer Karakus: Dus de bewijslast moet bij de overheid liggen?
Mevrouw Nieuwstraten: Ja. Ja. Ja. Want de burger kan zijn vinger niet achter discriminatie krijgen.
De heer Karakus: Helder.
Mevrouw Prins: U gaf net als voorbeeld de partnertoets. Daar zou mogelijk een discriminerende werking in zitten.
Mevrouw Nieuwstraten: Dat is mijn mening, hè.
Mevrouw Prins: Ja, ik zeg ook «mogelijk» discriminerende werking. Zijn er meer wetten die bedoeld dan wel onbedoeld – want ik denk dat het vaak onbedoeld is – een discriminerende werking hebben in de praktijk?
Mevrouw Nieuwstraten: Weet ik niet. Ik zie bijvoorbeeld dat een Sociale Verzekeringsbank bij die partnertoets eerder geneigd is om de alleenstaandennorm toe te kennen aan een alleenstaande met een niet-rechthebbende partner dan dat dat bij gemeentes gebeurt. Maar ik heb daar geen cijfers van, dus ik kan dat niet controleren. Dat weet ik niet.
Mevrouw Prins: Betekent dat dat u in de praktijk weinig mensen tegenkomt waarvan u het gevoel heeft dat daar een discriminerend effect is geweest?
Mevrouw Nieuwstraten: Ik hoor weinig mensen zeggen: ik vind dat ik gediscrimineerd ben.
Mevrouw Prins: Vindt u dat dan ook niet? Want dat zijn twee verschillende dingen.
Mevrouw Nieuwstraten: Nou ja, dat weet ik dus niet. Als ik heel veel dezelfde soort mensen op mijn spreekuur krijg vanwege terugvorderingen van de sociale dienst, die bijna allemaal uit de arme wijken van Rotterdam komen en die bijna allemaal een niet-Nederlandse achtergrond hebben, dan zou ik wel willen weten hoe dat komt. Er hoeft geen sprake te zijn van een discriminerend element, maar als ik daar vragen over stel, dan zou ik daar graag wel een eerlijk en duidelijk antwoord op willen hebben. Want ik vind dat iedereen die in de bijstand zit in gelijke mate recht heeft op een heronderzoek, waarbij niet alleen gekeken wordt naar het controleren, maar ook naar wat de overheid voor jou kan betekenen. Die zorgplicht: hoe kunnen wij jou helpen om zelf in je levensonderhoud te voorzien zonder dat wij daar altijd alleen maar repressie voor gebruiken? Nou chargeer ik misschien een beetje maar ...
De heer Karakus: Dank u wel. Meneer Ghebreab, aan u dezelfde vraag. U had het over big data en algoritmes. U koos daarbij een woord. U zei: mensen worden benadeeld. Wat bedoelt u daarmee? En laten we dan gelijk de stap maken naar dezelfde problematiek: hoe kunnen we risico's uitsluiten en voorkomen? Hoe zou u daarmee kunnen omgaan? Wat is uw advies qua wet- en regelgeving? Misschien kunt u dat kort samenvatten.
De heer Ghebreab: Misschien mag ik nog even terugkomen op een eerder punt. Het toeslagenschandaal is een heel mooi voorbeeld. Het is een extreme situatie, een ongewenste situatie, maar wel een heel mooi voorbeeld van hoe de overheid data en algoritmes gebruikt, al weten wij in dit geval niet welke. Als je daarop doorvraagt, zie je via de gebruikte data hoe de overheid naar burgers kijkt. Nu blijkt hoe de Belastingdienst het heeft gedaan: men heeft gekeken naar een man van een bepaalde leeftijd van een bepaalde etnische afkomst. Hoe expliciet wil je systemische of institutionele discriminatie op je bord krijgen? Een explicietere vorm van institutionele discriminatie, in dit geval via data en algoritmes, is er bijna niet. Als dit al een reden is voor de overheid om heel voorzichtig te zijn met het benoemen van het probleem, van de oorzaken, dan zegt dat heel veel over hoe de overheid en instituties omgaan met het identificeren van discriminatie, het accepteren van de praktijk en mechanismes, en het denken over oplossingen. Dat werd al een paar keren benoemd, maar dat wilde ik nog even benadrukken.
Dan is de vraag waar het gebruik van data en algoritmes potentieel leidt tot discriminatie, wanneer het risico daarop intreedt. Ik maak zelf onderscheid in vijf dimensies die van belang zijn om ervoor te zorgen dat AI, algoritmes, inclusief zijn, niet discriminerend zijn. De eerste dimensie is: wat is nou plan and purpose? Wat is de intentie? Dat moet duidelijk zijn. Dat is vaak helemaal niet zo duidelijk. Dat werd net ook genoemd, geloof ik. Als je algoritmes gebruikt, maak dan expliciet wat de intenties zijn. Vaak zijn de intenties «we willen processen optimaliseren» of «we willen kosten minimaliseren». Het is van belang om ook burgerrechten en menselijke waarden meer als doelen en intenties erin te bakken. Het moet dus niet alleen maar gaan om het optimaliseren van kosten of het minimaliseren van kosten, maar ook om de vraag: als we algoritmes maken met specifieke intenties en doelen, kunnen we aan die doelen dan ook nog andere menselijke waarden koppelen, zoals non-discriminatie of gelijke behandeling, en ze dus echt een onderdeel maken van de algoritmes zelf?
De tweede dimensie is die van people and perspectives, de mensen die werken aan algoritmes. Als je dat niet in groepsverband doet, als je de ontwikkeling, toepassing, monitoring en correctie van algoritmes niet doet in teams van mensen met verschillende professionele en persoonlijke achtergronden, dan creëer je het risico dat je blind spots ontwikkelt. Hier spelen diversiteit en inclusiviteit ook een rol. Dat gaat dus om mensen en perspectives.
Een andere dimensie is de data, past and present. Gebruik data uit het verleden, maar corrigeer die data ook en pas ze aan aan de situatie nu en aan de lokale situatie. Het moet dus representatief zijn qua tijd en qua locatie en omgeving. Data uit het verleden is niet per se representatief voor mensen nu.
De heer Karakus: Is dat goed in de wetgeving geborgd? Uiteindelijk gebruik je gegevens om data te bundelen, en uiteindelijk kun je daarmee algoritmes bepalen. Maar vindt u het verstandig dat daar wetgeving over komt, en als er wetgeving komt, wat zou je dan aan gegevens moeten meegeven om wel of niet te gebruiken?
De voorzitter: U ging vijf punten noemen. Deze vraag moet zeker beantwoord worden, maar de laatste twee punten kunt u misschien nog wel even noemen, anders raken we ze kwijt in het gesprek.
De heer Ghebreab: Ik zal de laatste twee even noemen. Je hebt processen en procedures, dus verantwoording afleggen en transparantie. Dat gaat veel meer over de processen. Het laatste punt, misschien wel het meest belangrijke, is representation and participation: hoe neem je burgers mee in dit alles? Burgers zijn uiteindelijk het zelfreinigend vermogen als het gaat om data en algoritmes. Die moet je mee kunnen nemen in de hele pijplijn van het ontwerp, de ontwikkeling en de toepassing van algoritmes. Dat zijn de vijf dimensies.
De voorzitter: Dank. Dan gaan we terug naar de heer Karakus.
De heer Ghebreab: En uw vraag was of de data en de wetgeving...
De heer Karakus: Moet er wetgeving komen, en wat zou dan minimaal in die wetgeving opgenomen moeten worden?
De heer Ghebreab: Er is al wetgeving. Er zijn al allerlei privacyregels et cetera. Privacy is natuurlijk belangrijk, maar ik denk dat het misschien nog belangrijker is dat je mensen op een juiste manier representeert. Er is soms data nodig, misschien zelfs wel meer data dan nu. Dat gaat een beetje in tegen wat de common gedachte is. Ik denk dat hoe meer en hoe betere data je gebruikt, van mensen, van bevolkingsgroepen en van gemeenschappen, met het doel om die data te gebruiken om de sociaaleconomische positie van mensen te versterken, des te beter het is. Er is nu een bepaalde mate van angst: ik wil mijn data niet delen. Dat is vaak terecht en geboren uit de angst dat de overheid of andere organisaties de data gaan gebruiken voor repressieve doeleinden. Maar als je beseft dat je data juist ook kunt gebruiken om groepen in de samenleving die kwetsbaar zijn, bijvoorbeeld vluchtelingen, te helpen in hun sociaaleconomische status – daarmee kom ik terug op mijn eerste punt – dan zou wetgeving eigenlijk op gericht moeten zijn op de vraag: hoe representeer ik mensen het best?
De heer Karakus: Voor mijn beeldvorming: je kan in de wetgeving regelen dat je algoritmes en data alleen maar mag gebruiken om mensen te ondersteunen en niet voor repressie. Dat zou je zo kunnen regelen. Houdt u daar een pleidooi voor? Of zegt u iets anders?
De heer Ghebreab: Waar ik een pleidooi voor houd, is dat als je data gaat gebruiken voor repressie, voor fraudeopsporing et cetera, je dan heel voorzichtig moet zijn met welke data je gebruikt. Als je data gaat gebruiken om de positie van mensen juist te versterken, dan mag je wat vrijer zijn in je data. Dat vergt natuurlijk nogal wat, maar ik denk dat er ruimte nodig is voor dat spectrum, ook in de wetgeving.
Mevrouw Prins: Stel dat we met data omgaan vanuit die purpose die u net aangaf, en met alle andere dimensies erbij. Op een bepaald moment gebeurt er natuurlijk wat, niet alleen met machine learning, maar zeker met deep learning, waarvan je de uitkomsten niet weet. In hoeverre loop je dan toch nog het risico dat er uiteindelijk weer een discriminerend effect naar voren komt? Je weet wat je erin hebt gestopt, maar je weet niet altijd wat je eruit krijgt.
De heer Ghebreab: Ja. Daarom is er die laatste dimensie van burgers meenemen. Het is in mijn ogen niet mogelijk om een systeem te ontwikkelen dat vanaf het begin doet wat het doet. Er zullen altijd fouten gemaakt worden. Maar als je openheid geeft over die fouten, en als je burgers meeneemt in het corrigeren van die fouten, dan kom je in een zelflerend, zelfreinigend proces. Dat is wat je wilt. Fouten zullen altijd worden gemaakt.
Mevrouw Prins: Dat snap ik, maar je weet soms niet dat het een fout is. Als ik een handeling uitvoer, dan weet ik dat ik een fout heb gemaakt. Ik heb niet geremd, dus ik heb een botsing. Dat is even een simpel voorbeeld. Als we alle data erin stoppen, weten we tegenwoordig niet meer wat uiteindelijk de uitkomst is. Dat kunnen wij op het laatst niet meer controleren. Dus hoe weet je dan dat het een fout is?
De heer Ghebreab: In dit geval zijn het je burgers die signaleren wat fout gaat. Het luisteren naar de burger en het meenemen van de burger in het hele ontwikkelingsproces en toepassingsproces is essentieel, door te signaleren, door burgers een stem te geven en de processen en middelen te geven om hun input te geven, mochten ze benadeeld worden, en ze er ook inzicht in te geven hoe hun input wordt verwerkt. Dat is wat ik voorstel.
Mevrouw Prins: Ik merk dat ik daar toch een beetje tegen aanhik, omdat ik aan het zoeken ben. Er zijn heel veel goedwillende burgers, veel meer dan we soms denken, maar er zijn ook een aantal wat meer kwaadwillende burgers. Die hebben we ook in onze samenleving. Als die groep zegt dat het niet klopt, hoe weet je dan of wat zij zeggen wel of niet correct is? Je weet namelijk niet wat er in die grote black box gebeurd is.
De heer Ghebreab: Ik maak even onderscheid tussen de repressieve aanpak – dat heeft misschien een andere aanpak nodig – en de niet-repressieve aanpak. In dit geval kan ik me voorstellen dat je inderdaad andere mechanismes creëert die je inzicht geven in wat nou werkt en waar het misgaat, en dat niet bij de burger neerlegt.
Mevrouw Prins: Eigenlijk zegt u daarmee dus dat je verschillende systemen zou moeten hebben, afhankelijk van de purpose?
De heer Ghebreab: Ja.
Mevrouw Prins: Hoor ik u dat zeggen?
De heer Ghebreab: Zeker. Dat is de ruimte die nodig is. Je kunt alles gaan dichttimmeren, omdat er dingen fout zijn gegaan. Je kunt ook zeggen: laten we ruimtes creëren, ook in de wetgeving, om te experimenteren met data en systemen die burgers kunnen versterken. Die ruimte is nodig.
Mevrouw Prins: Ik begrijp uit het feit dat u dit zo zegt dat die ruimte er in de huidige wet- en regelgeving niet is?
De heer Ghebreab: Nee, ook in de huidige publieke opinie en het publieke debat ligt de focus vooral op de fouten die er gemaakt worden door data en algoritmes.
Mevrouw Prins: U pleit bijna voor een soort positieve discriminatie, want eigenlijk hoor ik u zeggen: voor betere dienstverlening vanuit de overheid hebben we meer data nodig met behulp van de burgers. Wat betekent dat voor de huidige wet- en regelgeving? Waar zouden dingen in aangepast moeten worden om een impact te hebben?
De heer Ghebreab: Ik constateer een verschuiving van het recht op gelijke behandeling naar het recht op ongelijke behandeling. De maatschappij verandert. Er komen steeds meer diverse groepen, die allemaal hun eigen talenten en behoeftes hebben, die zich straks misschien ook gaan beroepen op oplossingen voor die groepen die anders zijn dan voor andere groepen. Een verschuiving van het recht op gelijke behandeling naar het recht op ongelijke behandeling zal zich, is mijn vermoeden, dus steeds meer manifesteren, onder druk van demografische en technologische veranderingen. Ook technologie biedt steeds meer kansen op maatwerk. Er wordt heel veel gepraat over maatwerk bij beleidsvorming en bij regelgeving, maar hoe lever je maatwerk? Maatwerk is niet makkelijk.
Aan de andere kant zie je grote technologische bedrijven nu oplossingen creëren, namelijk personalisatie en maatwerk, maar niet altijd met goede bedoelingen, niet altijd met de burger als target. Je ziet steeds meer technologische mogelijkheden voor maatwerk ontstaan. Daarmee zul je ook zien dat er steeds meer een beroep wordt gedaan op het gebruik van die technologische middelen om mensen, bepaalde groepen, anders te behandelen zodat ze eerlijkere kansen krijgen in de maatschappij. Het recht op gelijke behandeling is nu de default. Hoe die ruimte gaat ontstaan voor recht op ongelijke behandeling weet ik niet. Die flexibiliteit moet opgezocht worden.
Mevrouw Prins: Ik zou wel graag een reactie van mevrouw Nieuwstraten willen hebben op deze omschakeling van het recht op gelijke behandeling naar het recht op ongelijke behandeling.
Mevrouw Nieuwstraten: Ik heb ondertussen instemmend zitten knikken, omdat ik zie dat er verschillende groepen in de samenleving zijn die andere dingen nodig hebben. Daar kan ik me echt wel iets bij voorstellen. Alleen, als je mij concreet vraagt hoe ik dat zie, dan vind ik het lastig om daar handen en voeten aan te geven.
Ik heb nog wel een puntje dat ik graag naar voren zou willen brengen. Dat heeft ook te maken met algoritmes die bijvoorbeeld bij de Dienst Uitvoering Onderwijs worden gebruikt. Die gaat controleren of mensen al dan niet terecht een uitwonendenbeurs krijgen. Ik merk daarbij dat ook weer veelal mensen met een niet-Nederlandse achtergrond bij mij op het spreekuur komen, omdat een van de selectiecriteria is hoever je bij je ouders en bij de onderwijsinstelling vandaan woont. Ik begrijp best dat dat vragen oproept, alleen speelt er dan ook weer een cultureel element mee, namelijk dat meisjes uit bepaalde bevolkingsgroepen niet alleen op kamers mogen in een andere stad, omdat men dat niet prettig vindt. Maar die mogen dus wel op kamers bij familie, bekenden of vrienden. Dan is de vraag: wat is de maatstaf, de meetlat, waaraan je gaat meten of iemand wel of niet uitwonend is en voldoet aan de voorwaarden die de overheid stelt om die uitwonendenbeurs te verstrekken?
Ik zie soms dat daar dingen wringen, omdat er gedacht wordt: jij bent uitwonend als jij in een andere stad gaat wonen, als je lid wordt van een studentenvereniging bijvoorbeeld, zoals het vroeger in mijn tijd ging en nu nog steeds natuurlijk wel. Maar je ziet dat andere bevolkingsgroepen daar op een andere manier mee omgaan en dat die eigenlijk misschien achterlopen. Nou ja, «achterlopen» ... Ik weet niet of je het zo mag zeggen. Ze geven daar een andere invulling aan. Misschien gaan die meiden over tien jaar ook wel in Utrecht studeren en op kamers, maar dat is op dit moment niet zo. Toen ik deze uitnodiging kreeg, moest ik heel erg denken: soms spelen culturele aspecten ook een rol bij keuzes om dingen anders te doen dan de overheid misschien verwacht.
De heer Karakus: Daar wat verder op inzoomend heb ik nog een vraag over transparantie. U gaf aan dat u er ontzettend last van heeft dat het niet transparant is. Hoe zou u dat transparant kunnen maken? Zou een algoritmeregister daar bijvoorbeeld een oplossing voor kunnen zijn? Dat is één vraag die ik aan u heb, maar ik wil ook nog even verder vragen naar de culturele aspecten. Wij hebben ons ook afgevraagd of diversiteit in een organisatie helpt. Hoe zit u daarin?
Mevrouw Nieuwstraten: Ik denk dat dat zeker helpt. Zoals ik ook in de gesprekken met Rotterdam over controles op stortingen en bijschrijvingen op rekeningen heb aangegeven, denk ik dat je moet weten welke burger je voor je neus hebt, dat je moet begrijpen hoe die burger in elkaar zit en wat zijn referentiekader is om te snappen of iemand wel of niet verkeerde bedoelingen heeft gehad. Ik denk dat het helpt als je een team hebt waarin mensen van verschillende culturele achtergrond zitten, die vanuit die culturele achtergrond een beeld hebben van hoe dingen wel of niet kunnen zijn. Dat was mijn idee: je moet niet alleen maar witte Nederlanders neerzetten die bepaalde dingen moeten doen. Je zult een doorsnee van de samenleving moeten hebben, mensen met allerlei culturele en religieuze achtergronden om er een zo mooi mogelijke mix van te kunnen maken. Zo kijk ik ertegen aan.
De heer Karakus: Daarop doorgaand: heb je mensen nodig met diversiteit of heb je mensen nodig die die diversiteit beter kunnen handelen? Dat zijn twee verschillende dingen. Is een organisatie echt geholpen met mensen met diverse culturele achtergronden of heb je juist mensen nodig die met een diverse samenleving kunnen omgaan?
Mevrouw Nieuwstraten: Ik denk beide. Het is belangrijk dat mensen met een diverse samenleving kunnen omgaan, maar je moet daar ook allerlei verschillen in kunnen betrekken. Het hoeft elkaar niet uit te sluiten, denk ik.
De heer Karakus: Helder. Dit is een mooi brugje denk ik, maar voordat ik naar u ga, meneer Ghebreab, nog een andere vraag. U zegt dat u alleen maar iets kan vinden van de gemeente Rotterdam, maar u haalde ook Den Haag aan. Als u naar de uitvoering van de wet kijkt, de interpretatie, ziet u daar dan verschillen in? Hoort u van uw collega's dat er veel verschil is tussen gemeenten?
Mevrouw Nieuwstraten: Ik zie daar wel verschillen in. Ik heb ook wel ervaring met andere gemeenten. Dan zie ik dat op sommige vlakken de ene gemeente het zus doet en de andere zo. Dus er is wel verschil in. Over selectiecriteria kan ik niet veel zeggen, wel over de accenten die men legt in het onderzoek naar de rechtmatigheid. Daar zie je wel verschil in.
De heer Karakus: Zou op dat punt nog wetgeving van belang zijn? Ziet u daar nog mogelijkheden in?
Mevrouw Nieuwstraten: Voor rechtmatigheidsonderzoeken zul je kaders moeten hebben. Het is de vraag of dat dan landelijk of per gemeente geregeld moet worden. Ze kijken toch heel vaak naar wat de VNG aan voorbeeldreglementen aandraagt. Ik denk dat je kaders waarbinnen je bepaalde onderzoeken gaat doen, je meetlat, transparant moeten zijn. Het moet duidelijk zijn waar je mee aan de slag gaat. Je moet niet naar een bepaald resultaat willen toewerken. Soms denk ik weleens als ik de stukken lees: jij bent bezig geweest om jouw standpunt bevestigd te krijgen aan de hand van de stukken. Ik mis pro- en contra-elementen in zo'n onderzoek. Als je alleen maar richting fraudeonderzoek gaat, dan ga je ook fraude vinden, want bepaalde elementen die je tegenkomt, bevestigen dan bepaalde denkbeelden van jou.
De heer Karakus: Transparantie, meneer Ghebreab.
De heer Ghebreab: U refereerde net aan een algoritmeregister. Ik denk dat dat een goede eerste stap is. Ik zeg «een eerste stap» omdat alleen een algoritmeregister hebben niet voldoende is. Dat is een heel passieve manier van transparantie. Het is ook van belang dat er inzicht komt in de impact van zo'n algoritme op een burger, op een gemeenschap, in het effect van interventies. Er moet ook transparantie zijn over interventies. Wat als burgers klagen, input geven, feedback geven, over hoe een algoritme hun dagelijks leven beïnvloedt? Wordt daar dan wat mee gedaan? Een algoritmeregister is een goed startpunt. Dan weten burgers welke algoritmen er gebruikt worden. Vervolgens moet je ook transparantie bieden over wat er gedaan wordt met een algoritme, met feedback van burgers op algoritmes of van andere organisaties, van civil society. Er ligt nu best veel nadruk op algoritmeregisters – heel goed – maar het moet breder getrokken worden.
De heer Karakus: Zijn daar goede voorbeelden van in het buitenland? Kent u ze?
De heer Ghebreab: Ik merk dat er in het buitenland heel veel wordt nagedacht over partijen bij elkaar brengen: overheid, burgers zelf, burgerrepresentaties, instituties en wetenschappers. Ik denk dat dat in Amsterdam ook tot op een bepaalde hoogte gedaan wordt. Er wordt in cocreatie gewerkt aan algoritmes, waar ook lokale en nationale overheden betrokken bij raken. Er zijn in het buitenland vrij veel voorbeelden, ook in Europa maar vooral in Amerika, van een soort cocreatie-aanpakken rondom algoritmes. Dat begint in Nederland een klein beetje te leven. Ik denk dat dat mooie ontwikkelingen zijn voor de toekomst.
Mevrouw Prins: Ik wil toch nog een vraag aan u stellen, mevrouw Nieuwstraten. We kijken nu naar de bedoelde en onbedoelde, met name onbedoelde, discriminerende werking van wetten. Heb ik het goed begrepen dat u eigenlijk zegt dat de issues niet in de wetten zelf zitten maar in de uitvoering, met name op het gebied van onderzoek? Of doe ik u nu tekort?
Mevrouw Nieuwstraten: Ik gaf net het voorbeeld van de niet-rechthebbende partner. Zo'n element zit wel in de wet. Ik weet nog niet wat de Centrale Raad ervan vindt, maar ik neig ernaar om te vinden dat zo'n onderscheid niet zou mogen. En de manier waarop de sociale dienst die hercontroles doet en mensen selecteert voor heronderzoek, de keuzes die worden gemaakt, heeft te maken met de uitwerking. Heronderzoek mag. Dat moet juist, denk ik. Je moet controleren of je gemeenschapsgeld op een goede manier besteedt. Maar in dat opzicht heeft het te maken met de keuzes die je als overheidsorganisatie maakt. Dat geldt bijvoorbeeld ook bij de Dienst Uitvoering Onderwijs. Die moet ook controleren of het geld op een goede manier gebruikt wordt. Maar hoe je dat gaat doen, wat de elementen zijn waarop je gaat selecteren en wanneer je vindt dat iets wel of niet volgens de regels is, heeft voor een groot deel met de uitvoering te maken.
Mevrouw Prins: Is uw ervaring dat mensen die recht hebben op ondersteuning vanuit de sociale zekerheid, die ook daadwerkelijk krijgen?
Mevrouw Nieuwstraten: Ik vind dat een heel moeilijke vraag. Als u hem stelt, zit ik naar mijn zakenkast te kijken om te kijken of mensen daadwerkelijk de sociale zekerheid krijgen waar ze recht op hebben. Als ik naar de heronderzoeken kijk, dan denk ik dat het recht op bijstand bij sommige cliënten ten onrechte is afgenomen. Dat heeft voor een deel te maken met hoe de wet in elkaar zit, hoe de informatieplicht in elkaar zit en hoe je daar als overheid met de burger over communiceert.
Mevrouw Prins: Dank u wel.
De heer Karakus: Een nieuwsgierigheidsvraagje: hoeveel zaken spelen zich af op Rotterdams niveau? Ik snap dat het heel ingewikkeld is, hoor, maar ik ben ook benieuwd naar de verhouding. In welke zaak richting de gemeente heeft de gemeente gelijk gekregen? Kunt u daar een inschatting van maken om een gevoel te krijgen bij dit soort zaken?
Mevrouw Nieuwstraten: Ik ben niet zo van de cijfers. Ik hou dat niet zo bij, maar ik weet dat er in Trouw een onderzoek is gepubliceerd naar de uitspraken bij de Centrale Raad van Beroep in 2021. Daar kwam ik bovendrijven als advocaat die de meeste zaken had tegen de gemeente Rotterdam. Dat heeft voor een heel groot deel te maken gehad met het feit dat Rotterdam als speerpunt had om 6.000 heronderzoeken in een bepaalde periode te doen. Die mensen vonden de weg naar ons kantoor. Ik denk dat ik zo'n 150 zaken in mijn kast heb hangen, waarvan meer dan de helft wel te maken heeft met bijstand en voor een heel groot deel ook met Rotterdam. Dat zijn verschillende punten. Maar Rotterdam heeft natuurlijk ook een grote populatie van mensen in de bijstand.
De heer Karakus: Dank u wel.
De voorzitter: Wij gaan richting een afronding. Een van de belangrijke dingen die u heeft gezegd, mevrouw Nieuwstraten, is: ik zie individuele gevallen; per geval kan ik misschien niet zeggen dat het discriminatie is, maar ik zie ook patronen als ik al die zaken langs zie komen. Het ging net even over een algoritmeregister, maar dat roept ook de vraag op of het nodig of nuttig zou kunnen zijn om indirecte etnische discriminatie, om dat even als voorbeeld te nemen – je kan er meer bedenken – achteraf vast te stellen door te kijken hoe patronen nou eigenlijk uitspelen en wat daarvoor nodig is. Een van de signalen die wij krijgen, is dat het door allerlei wetten rond gegevensbescherming voor gemeenten eigenlijk heel ingewikkeld is. Ze mogen niet controleren, kunnen niet controleren of wat dan ook. Hoe zou dat kunnen? Hebben wij daar een externe waakhond voor nodig? Hebben we daar een ombudsfunctie voor nodig? Ik zit even te zoeken. Als daar een toegenomen risico is op populatieniveau, wat zouden we dan nodig hebben om dat aan te pakken? Dat is een vraag aan u beiden.
De heer Ghebreab: Ik denk dat dit weer teruggrijpt op wat ik net zei. Privacy wordt dan een beetje een limiting factor, omdat je dit soort dingen juist mee wil pakken. Misschien zou een waakhond in een beschermde omgeving de uitwerking op populaties, etniciteit et cetera kunnen meenemen.
De voorzitter: Of zouden wij een uitzondering op de AVG moeten maken?
De heer Ghebreab: De vraag is of de AVG voldoet aan de noden van de toekomst. Ik persoonlijk denk het niet. Dat is dan weer zoeken naar de flexibiliteit. We hebben het over de kloof tussen wetgeving en praktijk. Aan de ene kant heeft de kloof tussen wetgeving en praktijk nodig dat wet- en regelgeving de rechten van individuele burgers waarborgt en handhaaft. Aan de andere kant moet wet- en regelgeving voldoende flexibiliteit en aanpassingsvermogen bezitten om innovatie een kans te geven, maar ook om als overheid het gat te kunnen dichten tussen wetgeving, theorie, en een veranderende maatschappij.
De voorzitter: Mevrouw Nieuwstraten?
Mevrouw Nieuwstraten: Van die AVG heb ik wel heel veel last als advocaat, maar dan niet zozeer vanwege discriminatie, maar gewoon in de uitvoering van mijn werk. Als ik met een cliënt zit en even moet bellen, mag ik eigenlijk niks vragen en mag men niks tegen mij zeggen. Ik moet het via de mail doen. Dat vind ik op zich geen probleem, want dat weet ik dan wel, maar dat maakt het wel veel lastiger.
Er is nog een ander puntje. Ik ben een advocaat die toeslagen doet. Als we aan de Raad voor Rechtsbijstand vragen om ons gegevens door te geven van alle advocaten die in het systeem zitten en die toeslagen doen, mag dat niet vanwege de AVG. Dat werkt in sommige dingen dus heel erg belemmerend.
De voorzitter: Ja, dat is een bredere ervaring met de AVG. Daar hebben we het op dit moment niet precies over, maar het is inderdaad goed om eens goed na te denken over hoe dat uitpakt. Voor onze commissie gaat het natuurlijk om de vraag hoe dit uitpakt op het terrein van discriminatie.
Heel veel dank. Wij komen tot een afronding. U heeft heel veel van onze vragen beantwoord, maar wellicht had u nog graag gezien dat wij een vraag gesteld hadden waarop u ook had willen antwoorden. Zijn er punten die u niet kwijt kon en die voor u van groot belang zijn? Of heeft u kunnen zeggen wat voor u belangrijk was?
Mevrouw Nieuwstraten: Een van de punten was de zorgplicht van de overheid en het doenvermogen van mensen. Dat stond op zich eigenlijk ook op de agenda. Ik doe al vanaf 1998 bijstandszaken of sociale zekerheid. Vroeger had je informatie in verschillende talen. Dat doen we niet meer, want iedereen moet een inburgeringscursus doen: je doet het maar in het Nederlands. Je merkt dat daardoor toch wel heel veel mensen moeite hebben met het begrijpen van dingen en met de taal. Dan denk ik: de kortste klap is om toch weer informatie in andere talen beschikbaar te stellen, omdat je mensen dan veel beter bereikt. Een andere optie is om overheidsinformatie op een lager taalniveau te delen met mensen. Je wil zo graag dat mensen snappen waar ze mee bezig zijn. Ik neem daar de tijd voor in de spreekkamer. Ik probeer het dus uit te leggen, maar ik vind niet dat ik degene ben die dat zou moeten doen.
De voorzitter: U geeft eigenlijk nog wat meer achtergrond bij wat u al eerder zei over de noodzaak dat mensen snappen wat in de wet staat, wat er van hen verwacht wordt en ook wat de grenzen daarvan zijn. Daar is taal een element in.
Mevrouw Nieuwstraten: Ja, taal is daar volgens mij ook een onderdeel van.
De voorzitter: Dank voor het onderstrepen daarvan. Heeft u kunnen zeggen wat u wilde zeggen, meneer Ghebreab?
De heer Ghebreab: Ja, ik heb kunnen zeggen wat ik had willen zeggen.
De voorzitter: Heel veel dank. Wij ronden dit gesprek af. Heel veel dank voor uw inzichten die u vanuit verschillende kanten bij ons heeft gebracht. Ik denk dat juist de combinatie van de twee elementen die in uw deskundigheden aan bod komen – enerzijds de deskundigheid op het terrein van algoritmen en alles wat daarbij hoort en anderzijds de concrete praktijk van mensen die ook tegen het systeem aanlopen – heel vruchtbaar is voor onze reflectie op waar het fout gaat en wat er beter zou moeten. We zullen uw bijdragen natuurlijk zeker meenemen in ons eindrapport en in onze verdere reflecties en aanbevelingen. Dank voor vandaag.
Sluiting 16.02 uur
Kopieer de link naar uw clipboard
https://zoek.officielebekendmakingen.nl/kst-CXLVI-L.html
De hier aangeboden pdf-bestanden van het Staatsblad, Staatscourant, Tractatenblad, provinciaal blad, gemeenteblad, waterschapsblad en blad gemeenschappelijke regeling vormen de formele bekendmakingen in de zin van de Bekendmakingswet en de Rijkswet goedkeuring en bekendmaking verdragen voor zover ze na 1 juli 2009 zijn uitgegeven. Voor pdf-publicaties van vóór deze datum geldt dat alleen de in papieren vorm uitgegeven bladen formele status hebben; de hier aangeboden elektronische versies daarvan worden bij wijze van service aangeboden.