26 643 Informatie- en communicatietechnologie (ICT)

32 761 Verwerking en bescherming persoonsgegevens

Nr. 652 BRIEF VAN DE MINISTER VAN JUSTITIE EN VEILIGHEID

Aan de Voorzitter van de Tweede Kamer der Staten-Generaal

Den Haag, 3 december 2019

De ontwikkeling van artificiële intelligence (AI) heeft de afgelopen jaren een vlucht genomen. Daarmee is ook de aandacht voor dit onderwerp gegroeid. Op Europees niveau is er een Coordinated Plan on Artificial Intelligence ontwikkeld1 en ook het Nederlandse kabinet heeft recent haar Strategisch Actieplan AI gepubliceerd.2 Hierin wordt aangegeven dat AI oplossingen kan bieden voor maatschappelijke uitdagingen. Een van de domeinen waarvoor dit geldt betreft Veiligheid.

De verwachting is dat de politie steeds vaker in de uitvoering van haar taken gebruik zal maken van AI. Dat gebeurt, afhankelijk van het type taak, in afstemming met het Openbaar Ministerie. De korpschef en ik hechten er waarde aan dat de toepassing van artificiële intelligentie bij de politie transparant gebeurt en dat hierover ook open wordt gecommuniceerd. Met deze brief informeer ik uw Kamer daarom over de wijze waarop de politie AI ontwikkelt en inzet, en hoe het toezicht daarop geregeld is.

Artificiële intelligentie

AI wordt vaak in één adem genoemd met algoritmes. Maar niet alle algoritmes zijn artificiële intelligentie. Een willekeurige spreadsheet bevat bijvoorbeeld tal van (simpele) algoritmes, helder is dat hier geen bijzonder beleid voor nodig is. Algoritmes die feitelijk een beslisboom zijn worden al vele jaren gebruikt door de politie voor o.a. risicotaxaties. Hierbij wordt gebruik gemaakt van vaststaande regels of feiten om zo een selectie te kunnen maken in politiegegevens. Pas als het gaat om algoritmes waarbij systemen intelligent gedrag kunnen vertonen en in meer of mindere mate zelfstandig kunnen leren en acties kunnen ondernemen, gaat het over AI.

Een voorbeeld van een AI-toepassing bij de politie is de keuzehulp die wordt ingezet bij meldingen van internetoplichting. Hierbij is het voor de burger mogelijk in natuurlijke tekst een melding te doen. Met AI wordt de melding geanalyseerd op volledigheid en krijgt de burger gerichte aanvullende vragen om zo de melding te verbeteren of completer te maken. De melder krijgt vervolgens direct advies of er mogelijk sprake is van een misdrijf zodat melding doen relevant is, of dat beter andere acties kunnen worden genomen zoals het bevragen van het Juridisch Loket. Dit geeft burgers snel duidelijkheid en gericht advies hoe te handelen, het scheelt onterechte meldingen en vermindert de werklast voor de politie mede omdat het de kwaliteit van de melding verbetert

In het strategisch actieplan AI van het kabinet worden drie sporen onderscheiden die ook voor de politie van belang zijn. Het gaat om het benutten van de kansen van AI, het scheppen van de juiste voorwaarden en het versterken van de fundamenten. De politie pakt deze drie sporen op.

AI en de kansen voor de politie

De politietaak is de afgelopen jaren veranderd, bijvoorbeeld door digitalisering en internationalisering van criminaliteit. AI en algoritmes bieden kansen voor een betere uitvoering van de politietaak. Zo kunnen bepaalde toepassingen criminele verbanden in opsporingsonderzoeken zichtbaar maken die voor een mens moeilijk, tijdrovend of zelfs helemaal niet te vinden zijn. Daarnaast kan met AI grote hoeveelheden data worden doorzocht, georganiseerd en gefilterd, zodat een politiemedewerker gerichter een analyse kan uitvoeren. Voorbeelden zijn het inzichtelijk maken van communicatiestromen, criminele netwerken of -markten aan de hand van metagegevens en/of woordindexering, het automatisch doorzoeken van duizenden foto’s of videomateriaal en het herkennen van locaties of voorwerpen op kinderpornografisch materiaal.

De politie ontwikkelt en gebruikt AI niet alleen omdat dit het mogelijk maakt om bestaande taken en diensten efficiënter en effectiever uit te voeren. AI kan de politie ook in staat stellen om strafbare feiten te onderzoeken en bloot te leggen die zonder AI geheel buiten beeld zouden blijven. Criminaliteit wordt steeds complexer vanwege bijvoorbeeld de verwevenheid van onder- en bovenwereld en internationalisering. Dit verschijnsel zien we onder andere bij ondermijning. Daarnaast verplaatst criminaliteit zich naar het digitale domein. Het gebruiken van AI is daarom geen luxe, maar een noodzaak om effectief te kunnen blijven optreden.

Goede kennis over de werking van AI is ook nodig om onderzoek te kunnen doen naar strafbare feiten die worden gepleegd met behulp van zeer geavanceerde algoritmes en AI. Het AI-gebruik zit dan aan de zijde van de dader, en de politie moet in staat zijn om dat volledig te onderzoeken en doorgronden. Daarbij is het belangrijk dat de politie niet te afhankelijk wordt van andere partijen die dit soort kennis en belangrijke technologieën leveren. Mede omdat door de politie toegepaste technieken en technologie waar mogelijk (kijkend naar het te beschermen opsporingsbelang en het risico op ingecalculeerd gedrag) transparant en auditeerbaar moeten zijn.

Om de kansen die AI als sleuteltechnologie biedt te benutten is het van belang dat de politie experimenteert met toepassing ervan binnen haar werkprocessen, binnen de juiste voorwaarden waarbij publieke waarden centraal staan. In het vervolg ga ik in op deze aspecten.

Zorgvuldigheid voorop

Het ontwikkelen van algoritmes, AI toepassingen en ook de inzet daarvan voor het politiewerk moet zorgvuldig gebeuren. Datzelfde geldt voor het gebruik maken van data. De Minister voor Rechtsbescherming is algemeen en systeemverantwoordelijk voor (normering rond) transparantie, toetsbaarheid en rechtsbescherming in het kader van AI en algoritmes. Vanuit die verantwoordelijkheid heeft hij op 8 oktober 2019 richtlijnen voor het toepassen van algoritmes door overheden met uw Kamer gedeeld.3 Vanuit mijn verantwoordelijkheid voor de politie vind ik het daarbij extra belangrijk dat AI en algoritmes die worden ingezet ten behoeve van de politietaak transparant zijn voor zowel de politie zelf, het gezag, in het strafrechtproces en voor de toezichthouders. De kwaliteit van de gebruikte algoritmes en de uitkomsten daarvan moeten kunnen worden gecontroleerd en gevalideerd. Afhankelijk van de mate waarop een AI toepassing of algoritme meer ingrijpende gevolgen voor de burger kan hebben zijn er strengere waarborgen nodig voor de inzet daarvan. Dat is niet anders voor bestaande onderzoeksmethoden en technieken.

Net als dat menselijke beoordelingen of afwegingen een foutmarge kennen, is die er ook bij AI. Hoewel het inmiddels al zo is dat AI op specifieke taken tot betere resultaten komt dan een mens dat zou kunnen, aandacht voor foutmarges belangrijk is. Een foutmarge bij een aanbeveling van een webwinkel is hoogstens vervelend voor de klant. Voor de politie ligt dat vanzelfsprekend anders. Hierbij geldt dat het type proces, de actie maar met name het potentiële gevolg bepalend is voor de acceptatie van de marge van fouten van een AI toepassing. Voor ingrijpende processen zal AI in principe politiemedewerkers slechts ondersteunen in hun taak. Het uitgangspunt is dat er bij het gebruik van AI altijd sprake is van een menselijke tussenkomst bij het nemen van besluiten («human in the loop»). Desalniettemin is ook bij besluitondersteuning door AI zorgvuldigheid geboden.

Wijze van ontwikkelen bij de politie

Het bovenstaande laat zien dat een doordachte aanpak nodig is om de kansen van AI gebruik bij de politie op een verantwoorde wijze te gaan realiseren. De politie heeft hiertoe onder meer het Nationaal Politielab AI opgericht om het onderzoek en de verdere ontwikkeling van AI binnen de organisatie te stimuleren. Dit lab is een structureel meerjarig samenwerkingsverband van politie en Universiteiten in het ICAI (Innovatie Centrum voor Artificiële Intelligentie4) verband. Hier wordt onderzocht hoe AI op de juiste wijze kan bijdragen aan de effectiviteit van de politie nu en in de toekomst. Door de samenwerking met de wetenschap wordt hoogwaardige kennis binnen gehaald. In het Politielab worden stapsgewijs concepten ontwikkeld op het gebied van AI, die toegepast kunnen worden binnen diverse processen of voor diverse onderwerpen. Daarbij wordt zorgvuldig afgewogen op welke processen AI een nuttige toevoeging kan zijn en welke waarborgen daar voor nodig zijn. Een voorbeeld is het AI-concept achter de eerder genoemde meldingen van internetoplichting, waarin natuurlijke tekst wordt geanalyseerd en wordt doorgevraagd op missende elementen. Dit concept wordt klein gestart op alleen internetoplichting maar kan, als de ervaringen positief zijn en geleerde lessen zijn toegepast, ook breder worden gebruikt voor het (semi)automatisch afhandelen van meldingen van andere onderwerpen. Het voordeel van het op deze wijze in huis hebben van de beste technische expertise is dat de toepassing die wordt ontwikkelt past bij de organisatie die de politie wil zijn. Zo heeft men in het genoemde voorbeeld gekozen om de informatie-extractie uit natuurlijk tekst, de juridische toetsing van de melding en de optimalisatie van de vraagvolgorde los van elkaar te bouwen. Dit voorkomt één grote black box waar niet transparant is wat de relatie is tussen de tekst van de melding en de aanvullende vragen of het getoonde advies. Het systeem laat zien wat de basale observaties uit tekst waren en hoe deze juridisch zijn geïnterpreteerd. De meeste kant en klare oplossingen van externe leveranciers bieden deze transparantie niet.

Ook worden er diverse onderzoeken uitgevoerd naar nieuwe vraagstukken die opkomen wanneer er AI toepassingen worden ingezet. Zo doet het lab onderzoek naar uitlegbare en transparante AI en naar de ethische aspecten van AI toepassing binnen de politiefunctie. Er is daarnaast aandacht voor sociale aspecten, zoals de vraag hoe AI politiemensen kan ondersteunen in hun taakuitvoering en wat de impact daarvan is op de werkbeleving. Over de uitkomsten van onderzoek op het gebied van AI dat bij de politie wordt gedaan wordt in wetenschappelijke tijdschriften gepubliceerd.5 Dit draagt bij aan transparantie en het maatschappelijke debat.

Naast de genoemde intensieve samenwerking met de wetenschap zoekt de politie samenwerking met andere partijen, onder andere op het gebied van ethische richtlijnen. Zo werkt de politie met diverse internationale partners, neemt de politie deel in het ECP, Platform voor Informatiesamenleving en is de politie op 8 oktober 2019 aangesloten bij de Nederlandse AI Coalitie. De politie neemt verder deel aan de pilot Ethics guidelines for trustworthy AI 6 van de High-Level Expert Group on AI van de Europese Commissie en aan het Transparantielab van het Ministerie van Binnenlandse Zaken.

Kwaliteitskader big data – versterken van de fundamenten

Voor de politie is het vertrouwen van de maatschappij in het gebruik van algoritmes en AI door de politie een belangrijk uitgangspunt. Zorgvuldige ontwikkeling en toepassing van concepten met aandacht voor privacy, technische ontwikkelstandaarden (waaronder de bescherming en veiligheid van het ontwikkelde algoritme of AI) en ethische aspecten zijn daarbij van belang. De richtlijnen voor het toepassen van algoritmes door de overheid uit de brief van 8 oktober 20197 komen bij de politie terug in het interne kwaliteitskader big data dat de politie samen met het OM in het kader van het programma Toekomstbestendig Opsporen en Vervolgen recent heeft opgesteld. Het kwaliteitskader kan gezien worden als een instrument dat zorgdraagt voor een zuivere ontwikkeling en toepassing (zowel juridisch als technisch) van algoritmes en data analysemethoden in de opsporingsketen. Het kwaliteitskader zal na het doorlopen van het interne proces van goedkeuring in uitvoering worden gebracht. De werkwijze van de politie op het gebied van het ontwikkelen en toepassen van algoritmes en AI wordt de komende tijd conform dit kwaliteitskader ingericht. Deze werkwijze zal doorlopend worden geëvalueerd en verbeterd indien nodig.

In het kwaliteitskader wordt aandacht besteed aan de vraag wie verantwoordelijk is voor de AI-toepassing en op basis van welke wettelijke en juridische grondslagen de ontwikkeling wordt gedaan. Er moet gemotiveerd worden waarom en welke data er wordt gebruikt en er moet gekeken worden naar de kwaliteit van de gebruikte data. Daarbij komt bijvoorbeeld ook de vraag naar voren of kan worden volstaan met geanonimiseerde data en op welke wijze privacy by design wordt toegepast. Verder wordt nadrukkelijk aandacht besteed aan de noodzaak om bias te verminderen, of om in het gebruik rekening te houden met de kans dat er bias aanwezig is. Bij de inzet van AI toepassingen wordt binnen de werkwijze van het kwaliteitskader daarnaast gekeken naar ethische en juridische vraagstukken en dilemma’s die naar voren kunnen komen. Ik zal deze gebruiken bij het opstellen van de beleidskaders voor de herziening en modernisering van de Wet politiegegevens.

Daarnaast wordt aangesloten bij nationale en internationale ontwikkelingen op het gebied van richtlijnen en kaders in verband met mogelijke geschiktheid voor toepassing binnen de politie.

Toezicht op AI-inzet bij de politie

Het politiewerk is leidend bij (data-gedreven) AI toepassingen binnen de politie. AI is een technologisch hulpmiddel waarmee dat werk beter, sneller of effectiever kan worden gedaan. Het toezicht op de ontwikkeling en de inzet van AI bij de politie is dan ook geregeld zoals gebruikelijk bij toezicht op de politie. Uitgangspunt daarbij is dat de politie haar eigen strengste criticaster is. Zoals gemeld in mijn brief van 5 december 2018 hanteert de politie een «three lines of defence»-model in haar interne toezicht, waarbij de eerste lijn wordt vervuld vanuit het lijnmanagement, de tweede lijn door de korpscontroller en de derde lijn door de afdeling Concernaudit.8 Dit interne toezicht arrangement geldt ook voor toepassingen die gebruik maken van AI.

Ook de externe toezichthouders op de politie spelen een rol bij het toezicht op inzet van AI door de politie. Voor een uitgebreid overzicht van het toezicht en waarborgen die geregeld zijn voor de politieorganisatie verwijs ik u naar mijn brief van 5 december 2018.9 Specifiek relevant voor de inzet van AI is dat de Inspectie JenV toezicht houdt op de taakuitvoering van de politie. Indien er bij de taakuitvoering AI toepassingen worden ingezet valt deze inzet daarmee onder het mandaat van de Inspectie.

Voor zover AI toepassingen gebruik maken van persoonsgegevens oefent de Autoriteit Persoonsgegevens de toezichthoudende rol uit ten aanzien van de zorgvuldige omgang met deze data. In de Algemene Verordening Gegevensbescherming, Wet politiegegevens en Wet justitiële en strafvorderlijke gegevens is op hoofdlijnen aangegeven wanneer een Data protection impact assessment (DPIA), ook wel Gegevensbeschermingseffectbeoordeling (GEB), verplicht is. Een DPIA wordt uitgevoerd voorafgaand aan de gegevensverwerking ten behoeve van de ontwikkeling en implementatie van een toepassing. Ten slotte kan de Auditdienst Rijk door mij worden gevraagd om audits uit te voeren op het beheer van de politie. Daarmee kan ik de Auditdienst Rijk vragen om een audit uit te voeren waarbij ook AI toepassingen kunnen worden betrokken.

Het is zaak voor de politie om gebruik te maken van de kansen die door AI geboden worden voor betere opsporing, handhaving, dienstverlening en bedrijfsvoering, maar ook omdat criminelen geavanceerde AI gebruiken voor het plegen van strafbare feiten. Dat moet zorgvuldig gebeuren. Ik geloof daarbij in de aanpak die wordt gekozen in het Nationaal Politielab AI, waarbij de verdere ontwikkeling van AI-toepassingen binnen de politie wordt gestimuleerd en er ook stapsgewijs nieuwe concepten worden ontwikkeld in nauwe samenwerking met de wetenschap. Ook internationaal wordt gekeken naar de wijze waarop de politie in Nederland de ontwikkeling van AI toepassingen en het onderzoek naar de ethische aspecten daarvan vormgeeft. Het is zaak dat de politie op dit vlak een voorloper blijft.

De Minister van Justitie en Veiligheid, F.B.J. Grapperhaus


X Noot
1

Europese Commissie, Coordinated Plan on Artificial Intelligence, COM (2018), 795.

X Noot
2

Bijlage bij Kamerstukken 26 643 en 32 761, nr. 640

X Noot
3

Bijlage bij Kamerstukken 26 643 en 32 761, nr. 641.

X Noot
5

In de bijlage bij deze brief vindt u een aantal van de titels van gepubliceerd onderzoek. Raadpleegbaar via www.tweedekamer.nl.

X Noot
7

Bijlage bij Kamerstukken 26 643 en 32 761, nr. 641.

X Noot
8

Bijlage bij Kamerstuk 29 628, nr. 835.

X Noot
9

Idem.

Naar boven