Vragen van het lid El Abassi (DENK) aan de Minister van Justitie en Veiligheid over het artikel «Politie stapte in stilte af van algoritme dat kans op misdaad in buurten zou voorspellen» (ingezonden 26 februari 2026).

Antwoord van Minister Van Weel (Justitie en Veiligheid) (ontvangen 30 maart 2026). Zie ook Aanhangsel Handelingen, vergaderjaar 2025–2026, nr. 1376.

Vraag 1

Bent u bekend met het NRC-artikel «Politie stapte in stilte af van algoritme dat kans op misdaad in buurten zou voorspellen»?1

Antwoord 1

Ja.

Vraag 2

Op basis van welke wettelijke grondslag werd dit predictive-policing-systeem toegepast en kunt u aangeven welke specifieke bevoegdheden hierdoor feitelijk werden uitgebreid?

Antwoord 2

Het Criminaliteits Anticipatie Systeem (hierna: CAS) vergaarde zelf geen gegevens. De gegevens waren afkomstig van eerder gedane aangiften van burgers en ondernemers. Daarnaast werd tot en met 2022 gebruik gemaakt van omgevingsvariabelen2 van het CBS. De omgevingsvariabelen van het CBS waren geaggregeerd op wijkniveau en bevatten geen persoonsgegevens.

De wettelijke basis voor het verkrijgen van aangiftegegevens door de politie is vastgelegd in het Wetboek van Strafvordering (Sv). Artikel 161 Sv geeft iedere burger de bevoegdheid om aangifte te doen van een begaan strafbaar feit. Artikel 163 Sv verplicht de politie om de aangifte van een burger in ontvangst te nemen. De politie verkrijgt de gegevens dus op basis van deze wettelijke ontvangstplicht.

Artikel 8 van de Wet politiegegevens vormde de grondslag voor de verwerking van bovenstaande gegevens met het oog op de uitvoering van de dagelijkse politietaak.

Er is daarom geen sprake geweest van uitbreiding van bevoegdheden.

Vraag 3

In hoeveel gevallen zijn burgers gecontroleerd of benaderd zonder concrete verdenking maar uitsluitend vanwege een verhoogd risicogebied of risicoscore?

Antwoord 3

De uitkomsten van het CAS gaven een waarschijnlijkheidsindicatie op een criminaliteitsthema in een gebied, nooit op een persoon of bevolkingsgroep.

Bovendien vereisen individuele controles een eigen wettelijke grondslag en kunnen deze niet op alleen een risicoscore worden gebaseerd. Er was dus altijd een concrete aanleiding, op basis van aanvullende en actuele informatie en een menselijk oordeel nodig, voordat dit leidde tot concrete inzet van de politie.

Vraag 4

Klopt het dat bij het criminaliteitsanticipatiesysteem (CAS) geen eenduidige doelen, meetbare succescriteria en formele kwaliteitsstandaarden waren vastgesteld? Zo ja, waarom is het systeem, en daarmee predictive policing als methode, desondanks langdurig gebruikt om de aanpak van veelvoorkomende criminaliteit in bepaalde buurten te verbeteren?

Antwoord 4

In het algemeen geldt dat het moeilijk is om de resultaten van preventieve maatregelen te meten. CAS is destijds ingezet vanuit de verwachting dat de beschikbare politiecapaciteit gerichter kon worden ingezet als er meer informatie beschikbaar was over veelvoorkomende criminaliteit in een bepaalde woonwijk. CAS heeft daar in verschillende teams een positieve bijdrage aan geleverd. Er was echter onduidelijkheid over de exacte operationele meerwaarde van CAS.

Anderhalf jaar geleden is de politie gestart met de verdere professionalisering van haar AI-Governance, waaronder de doorlopende toetsing van de kwaliteit (juridisch, technisch en ethisch) van haar algoritmes en AI-systemen. Na zorgvuldige afweging en volgens de genoemde professionaliseringsslagen binnen de politie is gebleken dat de voor CAS geformuleerde criteria niet meer voldeden aan de normen die tegenwoordig worden gehanteerd. Er is daarom geconcludeerd dat de benodigde inspanningen voor het oplossen van de tekortkomingen niet opwegen tegen de baten. In de laatste alinea van mijn antwoord op vraag 10 geef meer uitleg over deze professionaliseringsslag.

Vraag 5

Zijn er vanuit betrokken partijen, zoals bijvoorbeeld mensenrechtenorganisaties of burgers, bij de inzet van het CAS signalen gekomen dat dit systeem discriminatie in de hand werkt? Zo ja, welke signalen waren dat?

Antwoord 5

De politie heeft geen signalen ontvangen dat er daadwerkelijk sprake was van discriminatie. Er zijn wel zorgen geuit. Zo waarschuwde Amnesty International er voor dat CAS bestaande vooroordelen in de maatschappij zou kunnen overnemen en versterken. Ook vond Amnesty dat het onduidelijk was hoe het systeem tot bepaalde voorspellingen kwam, dat het koppelen van grote hoeveelheden data uit verschillende bronnen een vorm van onrechtmatige massasurveillance is en dat het onduidelijk was wat deze vorm van «predictive policing» daadwerkelijk bijdroeg aan de veiligheid.

Vraag 6

In hoeverre kunt u uitsluiten dat in bepaalde wijken waarbij een relatief hoog percentage bewoners met migratieachtergrond woont vaker onderwerp zijn geweest van toezicht door dit systeem?

Antwoord 6

CAS was geen toezichtsysteem maar ondersteunde de basisteams bij het in kaart brengen van criminaliteit in hun werkgebied. Het is wel mogelijk dat de uitkomst van de analyses van CAS aanleiding heeft gegeven voor intensiever toezicht in een bepaalde woonwijk. Het aantal aangiften van strafbare feiten en het soort strafbare feiten vormden de basis voor de waarschijnlijkheidsindicatie op een bepaald criminaliteitsthema in die wijk.

Vraag 7

Bent u ervan op de hoogte dat mensenrechtenorganisaties, waaronder Amnesty International, al geruime tijd ernstige zorgen uiten over de discriminatoire en mensenrechtelijke risico’s van predictive policing-systemen? Zo ja, waarom is er desondanks voor gekozen om dit systeem gedurende tien jaar in stand te houden?3

Antwoord 7

Ja, daar ben ik van op de hoogte. Er is voor gekozen het CAS te gebruiken om gerichtere inzet tegen veelvoorkomende criminaliteit mogelijk te maken. Het CAS heeft daar in verschillende teams een positieve bijdrage aan gegeven door de informatiepositie rondom de inzet van mensen en middelen te versterken. Zoals aangegeven in mijn antwoord op vraag 3 gaven de uitkomsten van het CAS een waarschijnlijkheidsindicatie op een criminaliteitsthema in een gebied, nooit op een persoon of bevolkingsgroep.

In die periode van 10 jaar is, mede naar aanleiding van die geuite zorgen, het algoritme meerdere malen aangepast. In mijn antwoord op vraag 4 omschrijf ik uitgebreider wat de overwegingen van de politie waren om te stoppen met CAS.

Vraag 8

Deelt u de opvatting dat predictive-policing-systemen die racisme of discriminatie in de hand werken, uitgesloten moeten zijn binnen de Nederlandse politie?

Antwoord 8

Ja.

Vraag 9

Kunt u garanderen dat dergelijke algoritmische systemen die leiden tot etnisch profileren of indirecte discriminatie niet worden ingezet?

Antwoord 9

Etnisch profileren is verboden. De inzet van systemen die (in)directe discriminatie veroorzaken is niet toegestaan. Toepassing van algoritmische systemen vereist aantoonbare rechtmatigheid en noodzakelijkheid, voorafgaande risicoanalyses, toetsing op vooringenomenheid en strikte waarborgen. Mocht in de praktijk blijken dat een bepaald algoritme toch tot vertekende, oneerlijke of zelfs discriminerende uitkomsten leidt, dan is de verwerking onrechtmatig.

Vraag 10

Bent u bereid maatregelen te nemen om het gebruik van dergelijke systemen te beperken of te verbieden? Zo nee, waarom niet?

Antwoord 10

De Europese AI-verordening (2024) biedt een specifiek en duidelijk wettelijk kader als het gaat om AI-systemen. Ik zie op dit moment geen noodzaak om aanvullend op dit wettelijk kader maatregelen te nemen. De AI-verordening kent een risicogebaseerde aanpak waarbij AI-systemen worden onderverdeeld in een aantal categorieën, onder andere de «hoog risico» categorie en de «onaanvaardbaar risico» categorie. Toepassingen die in de laatstgenoemde categorie vallen zijn op basis van de AI-verordening verboden.

De inzet van systemen voor risicobeoordelingen van natuurlijke personen met het oog op het plegen van strafbare feiten, uitsluitend op basis van profilering van de persoon of op basis van een beoordeling van persoonlijkheidseigenschappen en kenmerken, valt in de «onaanvaardbaar risico» categorie. De politie mag zo’n systeem dus niet gebruiken.

Systemen die bedoeld zijn om het plegen van een strafbaar feit of recidive te voorspellen, vallen in de hoog risico categorie. Aan systemen in deze categorie worden extra, zeer strenge eisen gesteld en de inzet van zo’n systeem moet omkleed worden met waarborgen. Hierbij valt te denken aan eisen met betrekking tot risicobeheer, kwaliteit en relevantie van datasets, technische documentatie en registratie, transparantie, menselijk toezicht, nauwkeurigheid en beveiliging.

De politie toetst de kwaliteit van haar algoritmes en AI-systemen via een intern kwaliteits- en risicoproces. Hiermee verkrijgt zij inzicht in eventuele risico’s en de maatregelen die hierop te treffen zijn. De politie voert dit proces uit op al haar algoritmes en AI-systemen die (hoog) risicovol zijn. Dit voert de politie ook getrapt uit voor oudere algoritmes en AI-systemen. De trajecten waarin dit al heeft plaatsgevonden en die openbaar kunnen worden, staan gepubliceerd in het Algoritmeregister.


X Noot
1

NRC, 24 februari 2026, Politie stapte in stilte af van algoritme dat kans op misdaad in buurten zou voorspellen (https://www.nrc.nl/nieuws/2026/02/24/politie-stapte-in-stilte-af-van-algoritme-dat-kans-op-misdaad-in-buurten-zou-voorspellen-a4921336).

X Noot
2

Voorbeelden hiervan zijn de inkomensverdeling per wijk, de bevolkingsopbouw (leeftijd, huishoudsamenstelling) en de sociaaleconomische status van buurten.

X Noot
3

Amnesty International, 17 januari 2025, Automated Racism (https://www.amnesty.org.uk/knowledge-hub/all-resources/automated-racism/).


X Noot
1

NRC, 24 februari 2026, Politie stapte in stilte af van algoritme dat kans op misdaad in buurten zou voorspellen (https://www.nrc.nl/nieuws/2026/02/24/politie-stapte-in-stilte-af-van-algoritme-dat-kans-op-misdaad-in-buurten-zou-voorspellen-a4921336).

X Noot
2

Voorbeelden hiervan zijn de inkomensverdeling per wijk, de bevolkingsopbouw (leeftijd, huishoudsamenstelling) en de sociaaleconomische status van buurten.

X Noot
3

Amnesty International, 17 januari 2025, Automated Racism (https://www.amnesty.org.uk/knowledge-hub/all-resources/automated-racism/).

Naar boven