Vragen van het lid Dekker-Abdulaziz (D66) aan de Minister van Justitie en Veiligheid over het voorspellend algoritme van de politie (ingezonden 28 augustus 2023).

Antwoord van Minister Yeşilgöz-Zegerius (Justitie en Veiligheid) (ontvangen 13 oktober 2023). Zie ook Aanhangsel Handelingen, vergaderjaar 2023–2024, nr. 3.

Vraag 1

Wat is uw reactie op de risico’s en de twijfels over de effectiviteit die in het artikel worden aangehaald, die gepaard gaan met het gebruik van een dergelijk voorspellend algoritme?1

Antwoord 1

De politie zet algoritmes in als ondersteuning van het politiewerk, bijvoorbeeld in toepassingen voor het doorzoeken van in beslaggenomen gegevensdragers op afbeeldingen met beeldherkenning. Het gebruik van algoritmes versnelt het werk van rechercheurs en maakt het werk effectiever en efficiënter.

Ook het Risico Taxatie Instrument Geweld (hierna: RTI-G) werd ingezet ter ondersteuning van het politiewerk. Het RTI-G werd nooit op zichzelf gebruikt en werd altijd door politiemedewerkers geduid (human in the loop), waarbij het doel was om te signaleren- en te adviseren om aan de voorkant van het probleem te komen en geweld tegen te gaan.

Ik vind het belangrijk dat de menselijke tussenkomst bij het gebruik van algoritmes voldoende geborgd is in de organisatie, zodat risico’s zoals die in het artikel worden aangehaald gemitigeerd kunnen worden. Indien de effectiviteit van een algoritme twijfelachtig is zou dat algoritme niet gebruikt moeten worden. De politie heeft de inzet van het algoritme RTI-G recent opnieuw tegen het licht gehouden. Omdat nut, noodzaak en kwaliteit hiervan onvoldoende te onderbouwen zijn, heeft de politie het gebruik van RTI-G gestopt.

Vraag 2

In hoeverre was dit een zelflerend algoritme?

Antwoord 2

Het RTI-G was geen zelflerend algoritme.

Vraag 3

In hoeverre deelt u het standpunt dat wanneer zaken als geslacht en leeftijd meespelen in een risicoprofiel, er sprake kan zijn van een discriminerende werking?

Antwoord 3

In algoritmes (en ook in bijvoorbeeld het maken van handmatige selecties) die consequenties hebben voor individuele personen bestaat de mogelijkheid van een discriminerende werking, ook als er andere factoren dan geslacht en leeftijd worden gebruikt. Het is daarom belangrijk dat er doorlopende controle en evaluatie plaatsvindt op het algoritme om te bezien of (soms ongemerkt) sprake is van directe of indirecte discriminatie. Belangrijk daarbij is de manier waarop een algoritme wordt ingezet, en bijvoorbeeld de wijze waarop menselijke tussenkomst geborgd is.

Vraag 4

Kunt u reflecteren op hetgeen bekend staat als de confirmation bias in relatie tot dit algoritme? Klopt het volgens u dat als mensen uit armere wijken een verhoogd risico krijgen toebedeeld, die vooringenomenheid bevestigd wordt?

Antwoord 4

De politie heeft bij mij aangegeven dat er geen onderzoek is gedaan naar in hoeverre er sprake zou kunnen zijn van confirmation bias in het RTI-G. Omdat het niet meer in gebruik is, zal er geen onderzoek meer plaatsvinden.

Vraag 5

In welke mate is het algoritme, het Risicotaxatie Instrument Geweld (hierna: RTI-G), recentelijk nog gebruikt? Kunt u aangeven hoeveel personen in de laatste jaren een risico indexatie hebben gekregen en hoeveel vervolgstappen daaruit voortvloeiden?

Antwoord 5

De politie heeft geen gegevens om deze vragen te beantwoorden. Het gebruik van het RTI-G is gestopt.

In de periode dat het RTI-G werd gebruikt, werden rapportages opgesteld die geraadpleegd konden worden, maar niet werden vastgelegd in de politiesystemen.

Vraag 6

Kunt u toezeggen dat dit algoritme onafhankelijk wordt getoetst (bijvoorbeeld door het College voor de Rechten van de Mens) of mensenrechten op de juiste manier worden gewaarborgd, middels een IAMA of een vergelijkbaar instrument?

Antwoord 6

De politie heeft aangegeven inmiddels met het gebruik van RTI-G te zijn gestopt.

Vraag 7

In hoeverre deelt u de opvatting dat dit algoritme in strijd is met artikel 1 van de Grondwet (recht op gelijke behandeling, vrij van discriminatie op basis van bijvoorbeeld geslacht)?

Antwoord 7

Voor zover bekend is niet uit te sluiten dat hiervan sprake is geweest voor 2017. Afkomst of etniciteit mag niet meewegen in een risico-taxatie gericht op geweldpleging. De factor etniciteit is in 2017 uit het algoritme gehaald. Sindsdien wordt deze variabele niet meer gebruikt. De politie is inmiddels gestopt met het gebruik van RTI-G.

Vraag 8 en 10

Hoe kunnen burgers zich verdedigen tegen het risicoprofiel waarin het algoritme van de politie hen heeft ingedeeld, met alle gevolgen van dien?

Bent u bereid om de wet/het beleid aan te passen zodat mensen een bezwaar kunnen aanmaken en dat de aannames en scores van het algoritme altijd gecommuniceerd worden met diegene waarover het gaat?

Antwoord 8 en 10

Personen kunnen zich niet altijd verzetten of verdedigen tegen de inzet van een specifiek middel door de politie. Dat geldt in principe voor veel middelen die de politie inzet, waaronder het gebruik van een algoritme maar ook bijvoorbeeld het vorderen door een agent van een identiteitsbewijs ter controle, of het gebruik van camera’s op straat. Dit is niet mogelijk omdat het zou betekenen dat een verdachte gedurende het opsporingsonderzoek geïnformeerd moet worden over het feit dat hij of zij verdacht wordt. Wanneer een onderzoek naar een persoon naar de rechter gaat, is er wel mogelijkheid tot verzet tegen algoritmes die zijn ingezet.

Op het moment dat er gestart werd met de persoonsgerichte aanpak, waarnaar verwezen wordt in het artikel, zijn de betrokken personen daarover geïnformeerd.

Vraag 9

Kunt u toezeggen dat het algoritme stop wordt gezet, tot de resultaten van de beoordeling door de politie bekend zijn?

Antwoord 9

De politie heeft aangegeven inmiddels met het gebruik van RTI-G te zijn gestopt.

Toelichting:

Deze vragen dienen ter aanvulling op eerdere vragen terzake van het lid Temmink (SP), ingezonden 24 augustus 2023 (vraagnummer 2023Z14242).

Naar boven