Kamerstuk

Datum publicatieOrganisatieVergaderjaarDossier- en ondernummer
Tweede Kamer der Staten-Generaal2019-202026643 nr. 669

26 643 Informatie- en communicatietechnologie (ICT)

32 761 Verwerking en bescherming persoonsgegevens

Nr. 669 LIJST VAN VRAGEN EN ANTWOORDEN

Vastgesteld 20 februari 2020

De vaste commissie voor Justitie en Veiligheid heeft een aantal vragen voorgelegd aan de Minister van Justitie en Veiligheid over de brief van 3 december 2019 inzake artificiële intelligentie bij de politie (Kamerstukken 26 643 en 32 761, nr. 652).

De Minister heeft deze vragen beantwoord bij brief van 18 februari 2020. Vragen en antwoorden, voorzien van een inleiding, zijn hierna afgedrukt.

De voorzitter van de commissie, Van Meenen

De adjunct-griffier van de commissie, Burger

Inleiding

Hierbij doe ik u, mede namens de Minister voor Rechtsbescherming, de antwoorden toekomen op de schriftelijke vragen over de kamerbrief «Artificiële intelligentie bij de politie»1 die de vaste commissie voor Justitie en Veiligheid op 10 februari 2020 aan mijn ministerie heeft gericht. Ik dank de commissie voor de interesse en belangstelling die uit de 82 gestelde vragen blijkt.

Ik maak graag van de gelegenheid gebruik om eerst in het algemeen de ontwikkeling en toepassing van artificiële intelligentie (AI) bij de politie toe te lichten.

Algoritmes worden al decennia gebruikt bij de politie voor vele politieprocessen. In de basis is een algoritme een serie van instructies in een workflow om een wiskundig probleem op te lossen. Niet elk algoritme (en ook niet elke data science toepassing) is AI. Pas als het gaat om algoritmes waarbij systemen intelligent gedrag kunnen vertonen en gemaakt zijn om in meer of mindere mate zelfstandig te kunnen leren en acties te kunnen ondernemen spreken we van AI.

In de praktijk betekent dit dat veel van de data science toepassingen die de politie gebruikt, waaronder het Criminaliteit anticipatie systeem (CAS), geen AI component hebben. Ook niet als deze meer complexe algoritmes bevatten dan voorheen of gebruik maken van technieken die ook voor AI gebruikt worden. Het gaat in die gevallen vaak om het gebruik van meer eenvoudige algoritmes of algoritmes die eenvoudig zijn te verklaren. Deze meer eenvoudige algoritmes zijn reeds geruime tijd in gebruik bij de politie. Het CAS is daar een goed voorbeeld van. De zogenoemde hotspot benadering, waar op basis van bestaande data wordt bepaald waar het waarschijnlijk is dat bepaalde vormen van openbare orde verstoring of criminaliteit voorkomt, wordt al vele jaren gebruikt. Het CAS is daar de meest recente en geavanceerde versie van. CAS geeft een verwachting voor een bepaald gebied en geen output die tot personen te herleiden zijn.

Hoewel het helder is dat veel vormen van gebruik van data geen AI zijn, is het minder eenvoudig om exact te stellen wanneer er wel sprake is van AI.

Slechts in een aantal gevallen ontwikkelt en gebruikt de politie op dit moment AI. Dit aantal zal in de toekomst gaan groeien. Zoals ik in genoemde brief uiteen heb gezet is het gebruik van AI bij de politie geen luxe maar noodzaak om effectief te kunnen blijven optreden. De verwachting is dat AI uiteindelijk tot een breed geaccepteerde en gebruikte techniek zal uitgroeien. Zoals bij meer nieuwere vormen van techniek is het van groot belang om de ontwikkeling zorgvuldig vorm te geven. In mijn brief en uit de antwoorden van onderstaande vragen blijkt dat dit bij de politie voorop staat.

Om de beantwoording van vragen gestructureerd vorm te geven heb ik er voor gekozen om de vragen per onderwerp te clusteren. Ik zal eerst starten met de beantwoording van vragen over toepassingen van AI bij de politie.

Toepassingen van AI

17.

Kunt u, zo nodig vertrouwelijk, een overzicht geven welke AI toepassingen op dit moment in bedrijf of in ontwikkeling zijn bij de politie?

37.

Voor welke werkprocessen bouwt de politie op dit moment aan AI-toepassingen binnen de politieorganisatie?

42.

Bij welke van haar taken wordt er reeds AI toegepast door de politie?

Antwoord vragen 17, 37 en 42:

Er zijn momenteel nog slechts een beperkt aantal toepassingen van AI in de zin dat systemen intelligent gedrag vertonen en in meer of mindere mate zelfstandig kunnen leren en acties kunnen ondernemen. Er zijn bijvoorbeeld toepassingen die het werk van politiemedewerkers vergemakkelijken maar die geen aanmerkelijke gevolgen voor burgers hebben. Daarbij kan gedacht worden aan het doorzoeken van in beslaggenomen gegevensdrager op afbeeldingen met beeldherkenning om een bepaald object te vinden. Dit versnelt het werk van rechercheurs en maakt het werk effectiever en efficiënter. De uitkomst van de analyse heeft dezelfde gevolgen voor burgers als wanneer deze analyse handmatig was uitgevoerd, en is bovendien slechts een van de vele aanwijzingen in het totale onderzoek. Een ander voorbeeld is de in mijn brief van 3 december 2019 reeds genoemde keuzehulp die wordt ingezet bij meldingen van internetoplichting.

Op de meeste terreinen wordt op dit moment dus nog geen gebruik gemaakt van AI. AI is een technologisch hulpmiddel waarmee diverse werkprocessen beter, sneller of effectiever kunnen worden uitgevoerd. AI biedt daarom voor de toekomst kansen indien het breder wordt toegepast om politiemedewerkers te ondersteunen bij hun werk. In potentie kan AI uiteindelijk bij alle politieprocessen worden ingezet.

Er wordt op dit moment vooral gewerkt aan naar de ontwikkeling van concepten en toepassingen die meerwaarde hebben in het ondersteunen van politiemensen in hun werk. Het gaat bijvoorbeeld om:

  • spraak naar tekst (bv. mutaties via spraak opnemen in het systeem om bureauwerk te verminderen)

  • beeldherkenning (bv. zoeken van afbeeldingen in grote bestanden)

  • (natuurlijke) tekstanalyse (bv. keuzehulp internetoplichting)

  • dialoogsystemen (bv. chatbot voor dienstverlening)

  • explainable AI (bv. uitlegbare beeldherkenning)

43.

Zijn er terreinen binnen het politiewezen waar nu nog geen gebruik wordt gemaakt van AI, maar die wel kansen bieden voor het gebruik van AI?

Antwoord op vraag 43:

Echte AI toepassingen in de zin dat systemen intelligent gedrag vertonen en in meer of mindere mate zelfstandig kunnen leren en acties kunnen ondernemen komen binnen de politie nog beperkt voor. Op de meeste terreinen wordt op dit moment nog geen gebruik gemaakt van AI. AI is een technologisch hulpmiddel waarmee diverse werkprocessen beter, sneller of effectiever kunnen worden uitgevoerd. AI biedt daarom voor de toekomst kansen indien het breder wordt toegepast om politiemedewerkers te ondersteunen bij hun werk. In potentie kan AI uiteindelijk bij alle politieprocessen worden ingezet.

44.

Kan meer duidelijkheid worden gegeven over hoe wordt bepaald welke taken zullen worden uitgevoerd door de politie met hulp van AI?

Antwoord op vraag 44:

Op dit moment worden AI toepassingen vooral op kleine schaal ontwikkeld en toegepast dicht bij de uitvoering, waar een operationele behoefte ligt en collega’s actief meewerken in proeftuinen. Naarmate de conceptontwikkeling verder is gevorderd en toepassingen breder beschikbaar komen, worden hiervoor ook op tactisch en strategisch niveau richtinggevende kaders gegeven, in aansluiting met de bij de politie in ontwikkeling zijnde innovatiestrategie waarin AI als sleuteltechnologie een belangrijke rol heeft.

4.

Hoe wordt AI toegepast op het gebied van de financiële misdaad?

Antwoord vraag 4:

Zoals reeds gemeld komen echte AI toepassingen in de zin dat systemen intelligent gedrag vertonen en in meer of mindere mate zelfstandig kunnen leren en acties kunnen ondernemen binnen de politie nog zeer beperkt voor. Op dit moment wordt binnen de politie AI nog niet toegepast op het gebied van de financiële misdaad.

46.

Bij welke politietaken wordt AI reeds gebruikt in het kader van de aanpak van ondermijning? Is er ruimte binnen dit domein om meer AI te gebruiken? Hoe wordt dit getoetst?

Antwoord vraag 46:

Er is ruimte om binnen alle politieprocessen te onderzoeken in hoeverre AI toepassingen meerwaarde hebben en hiermee te experimenteren. Ook binnen de aanpak van ondermijning. Hiervoor gelden dan dezelfde uitgangspunten zoals aangegeven in de brief. In het nieuw in te richten MIT team worden enkele Data Scientists opgenomen om de aanpak van ondermijning te versterken.

8.

Wordt overwogen of al geëxperimenteerd met het gebruiken van het Criminaliteits Anticipatie Systeem (CAS) voor misdrijven die buiten de categorie van High Impact Crimes vallen?

Antwoord vraag 8:

Sinds enkele jaren wordt in Nederland de term «high impact crimes» (HIC) gebruikt om delicten aan te duiden die een grote impact op het slachtoffer, diens directe omgeving en het veiligheidsgevoel in de maatschappij hebben. Onder de klassieke HIC-delicten worden (gewelddadige) vermogensdelicten geschaard, om precies te zijn woninginbraak, straatroof en overvallen. Het Criminaliteits Anticipatie Systeem (CAS) wordt gebruikt ter voorkoming van diefstal/inbraak woning, straatroof, diefstal van personenauto’s of uit personenauto’s, zakkenrollerij, diefstal van snor/brom/fiets, diefstal uit bedrijf of kantoor, overlast jeugd, vernieling, openbare schennis der eerbaarheid en verdovende middelen / drugshandel. De aanwezigheid van de politie op plekken waar een verhoogde kans is op deze en andere soorten delicten kan bijdragen aan de voorkoming ervan. CAS wordt dus al gebruikt voor high impact crimes maar is niet beperkt tot deze categorie. Een regionale eenheid binnen het politiekorps kan op basis van lokaal gedefinieerde speerpunten en voldoende beschikbare data, een gewenste categorie in CAS opnemen. Wanneer er geen duidelijk patroon wordt gevonden, wordt dit niet op de kaart getoond. Daarnaast wordt de uitkomst van CAS altijd door een analist beoordeeld en al dan niet meegenomen in het geheel van de informatiepositie. Overigens hecht ik er aan om op te merken dat het CAS geen AI bevat.

30.

In hoeverre wordt AI nu al toegepast door de politie als het gaat om het beoordelen van meldingen van oplichting? Is hetgeen te zien is in het tv-programma TROS Radar maatgevend voor hoe AI functioneert? Klopt het dat meer dan de helft van de opgelichte mensen van de politie het advies krijgt om een advocaat in de arm te nemen, en dat de politie de aangifte niet wil opnemen, omdat het civiele zaken zou betreffen en geen strafrechtelijke zaken? In hoeverre kan AI werken, als de menselijke beoordeling van oplichtingszaken nu al niet werkt? Wordt de toepassing van AI dan niet een foutenfestival in het kwadraat?

Antwoord vraag 30:

AI wordt ingezet voor het adviseren van burgers over meldingen van internetoplichting. Internetoplichting is een vorm van oplichting die de laatste jaren is opgekomen en waar in toenemende mate melding van wordt gedaan. De grens tussen wanneer er sprake is van oplichting (misdrijf in het Wetboek van Strafvordering) en wanneer er sprake is van bijvoorbeeld een wanprestatie (die moet worden opgelost via het civiel recht) is niet altijd even duidelijk voor burgers. Dat zorgde er voor dat er veel meldingen werden gedaan van feiten die niet strafbaar zijn, namelijk een wanprestatie. De keuzehulp geeft burgers die melding willen doen van internetoplichting een advies over welke route waarschijnlijk het meest kansrijk is. Als het voorval waarover de burger melding wil doen mogelijk een strafbaar feit betreft dan is melding (en aangifte) de geëigende weg. Als het bijvoorbeeld gaat om een wanprestatie dan is de route via de civiele rechter de juiste route. Dit is dan het advies dat de burger krijgt. Het staat de burger altijd vrij om bij de politie melding of aangifte te doen. Het gegeven advies is dus geen dwingend advies en kan door de melder worden genegeerd. Op elk moment gedurende de interactie met het systeem kan deze interactie afgebroken worden en de aangifte direct worden gedaan, zonder enig gevolg voor de behandeling van de aangifte.

Het blijft wel zo dat de politie alleen een melding in behandeling neemt als er ook daadwerkelijk sprake is van een mogelijk strafbaar feit. De politie heeft niet tot taak om civielrechtelijke geschillen op te lossen.

38.

Hoe wordt bepaald of de toepassing van AI-technologie daadwerkelijk leidt tot een reductie van administratieve lasten?

Antwoord vraag 38:

Het verlagen van administratieve lasten is niet altijd het doel van de toepassing van AI. Naast vermindering van administratieve lasten kan AI ook leiden tot andere effecten zoals sneller, effectiever of efficiënter optreden of een zorgvuldigere analyse. Om te bepalen of nieuwe toepassingen van AI effect hebben, vindt voordat van bredere uitrol sprake is, een beoordeling van het effect plaats.

60.

In hoeverre bestaat er oefenruimte voor de politie om te kunnen experimenteren met AI?

Antwoord vraag 60:

De politie kan, binnen de grenzen van de wet, experimenteren met AI. Daarvoor kan bijvoorbeeld een proefomgeving worden gebruikt. Een mogelijke drempel is dat in het kader van de gegevensbescherming in een ontwikkelomgeving gewerkt moet worden met dummy-data of synthetische data, terwijl geavanceerde AI systemen beter werken als ze getraind worden met operationele data. Dit heeft mijn aandacht bij de herziening van de Wpg.

64.

Op welke manier zijn de informatie-extractie, de juridische toetsing en de optimalisatie van de vraagvolgorde uit elkaar te houden? Deze hangen toch allemaal met elkaar samen?

Antwoord vraag 64:

De diverse taken zijn opgenomen in verschillende modules, die los van elkaar informatie-extractie, juridische toetsing en de keuze van de volgende vraag voor hun rekening nemen. De verbanden tussen deze modules zijn hoofdzakelijk op ontwerpniveau van belang. De juridische toetsing wordt niet beïnvloed door de manier waarop observaties gemaakt worden, of hoe de vergaring van de missende informatie geoptimaliseerd wordt. En hoewel de juridische toetsing bepaalt welke observaties bekeken worden en kijkt welke informatie nog mist, heeft de toetsing zelf geen invloed op hoe deze observaties gemaakt worden of op bepaling van de vraagvolgorde. Door de modules op deze wijze van elkaar te scheiden blijft elke afzonderlijke stap beheers- en toetsbaar en wordt het geheel meer transparant.

Juridische en ethische kaders

5.

Op welke wijze wordt de naleving van het legaliteitsbeginsel bij de inzet van AI door de politie gegarandeerd?

Antwoord vraag 5:

AI wordt door de politie ontwikkeld en toegepast als technisch hulpmiddel voor taken waar zij reeds op grond van de wet toe bevoegd is. Zoals voor alle vormen van taakuitoefening door de politie geldt, dient er, conform het legaliteitsbeginsel, altijd een wettelijke grondslag te zijn voor het handelen van de politie. Dat geldt dus ook voor taakuitvoering die wordt ondersteund door artificiële intelligentie.

20.

Kent u de bijlage «Toelichting op typen data-analyses waarvoor wettelijke waarborgen zullen gaan gelden» (bijlage 2 bij Kamerstukken 26 643 en 32 761, nr. 641, d.d. 8 oktober 2019)? Wat betekent het in deze bijlage geformuleerde voornemen om tot wettelijke waarborgen voor twee typen data-analyse te komen, profilering en gebiedsgebonden analyse, voor de ontwikkeling van AI binnen de politie? Behoren niet juist deze twee typen data-analyse tot de kern van het politiewerk en dreigt hiermee niet een rem te ontstaan op innovaties?

Antwoord vraag 20:

Het voornemen om mogelijk tot wettelijke waarborgen te komen heeft tot doel om bepaalde risico’s die zich voor kunnen doen bij data-analyse zoals profilering en gebiedsgebonden analyse tot een minimum te beperken. Er is geen sprake van een potentieel verbod, dus een voornemen tot wettelijke waarborgen betekent niet dat het onmogelijk wordt om van deze typen data analyse gebruik te maken.

Zowel ikzelf, alsook de korpschef, vinden het heel belangrijk dat innovatie altijd gebeurt met voldoende zorgvuldigheid en oog voor eventuele risico’s. Wettelijke waarborgen en richtlijnen zoals de bij voornoemde brief opgenomen «richtlijnen voor het toepassen van algoritmen door overheden» van de Minister voor Rechtsbescherming, kunnen er daarbij voor zorgen dat er een duidelijk kader geldt waarbinnen geëxperimenteerd, geïnnoveerd en gewerkt kan worden. Daarmee kunnen dergelijke waarborgen zelfs bijdragen aan innovatie.

21.

Is er, gezien het feit dat uit de brief duidelijk wordt dat ethiek in de ontwikkeling van AI toepassingen binnen de politie een belangrijke rol speelt, sprake van een politie-specifiek ethisch document of een ethische guideline aan de hand waarvan AI toepassingen worden ontwikkeld en getoetst? Welk houvast hebben ontwikkelaars, leidinggevenden, interne en externe toezichthouders bij het beoordelen en toetsen van de voortgang van projecten? Wordt hier de hulp ingeroepen van externe deskundigen?

Antwoord vraag 21:

Op het gebied van ethische richtlijnen zoekt de politie samenwerking met diverse partners, zoals het ECP, platform voor Informatiesamenleving en is de politie aangesloten bij de Nederlandse AI coalitie. De politie neemt verder deel aan de pilot «Ethics Guidelines of Trustworthy AI» van de High Level Expert Group on AI van de Europese Commissie en aan het Transparantielab van het Ministerie van Binnenlandse zaken.

Vanwege het belang van privacy en ethiek voor het politiewerk is binnen de politie recent een specifieke portefeuillehouder privacy en ethiek aangesteld. Daarnaast is er in opdracht van de politie onderzoek gedaan naar ethische afwegingen voor verantwoordelijk gebruik van AI binnen de politie.2

53.

Wordt er een juridisch en ethisch kader opgesteld voor de toepassing van AI?

Antwoord vraag 53:

Voor de toepassing van AI gelden de gebruikelijke wettelijke kaders, waaronder de Wet politiegegevens (Wpg). De Minister voor Rechtsbescherming heeft daarnaast op 18 oktober 2019 «richtlijnen voor het toepassen van algoritmen door overheden» naar uw Kamer gestuurd. Zoals reeds aangekondigd in zijn brief van 18 oktober 2019 wil het kabinet toewerken naar waarborgen die in wetgeving kunnen worden opgenomen.3 Deze richtlijnen komen bij de politie terug in het interne Kwaliteitskader Big Data waarin aandacht wordt besteed aan de vraag wie verantwoordelijk is voor de AI-toepassing en op basis van welke wettelijke en juridische grondslagen en ethische toetsing de ontwikkeling wordt gedaan. Daarnaast is er in opdracht van de politie onderzoek gedaan naar ethische afwegingen voor verantwoordelijk gebruik van AI binnen de politie.4

57.

Wordt bij elke nieuwe toepassing van een AI techniek ook een nieuwe juridische en ethische toetsing gedaan?

Antwoord op vraag 57

De politie dient zich bij de inzet van technische toepassingen, waaronder AI, te houden aan de bestaande normering. Indien van toepassing, wordt op grond van de WPG het wettelijk kader via het instrument van de DPIA in kaart gebracht, waarbij rekening wordt gehouden met de stand van de techniek, uitvoeringskosten, alsook met de aard, omvang, de context, verwerkingsdoeleinden en risico’s voor de rechten en vrijheden van personen worden meegewogen.

Bij elke nieuwe ontwikkeling van het Nationaal Politielab AI worden juridisch, ethische en sociale aspecten mee genomen en beoordeeld vooraf, gedurende de ontwikkeling en tijdens de experimenten. Hierbij wordt tevens gebruik gemaakt van het Kwaliteitskader Big Data. De werkwijze van de politie op het gebied van het ontwikkelen en toepassen van algoritmes en AI wordt de komende tijd conform dit kwaliteitskader ingericht.

59.

Welke ethische standaarden zijn er uit het onderzoek van het Nationaal Politielab AI gekomen en welke daarvan worden ook echt toegepast?

Antwoord op vraag 59:

Uit onderzoek van het Nationaal Politielab AI, onder andere in een whitepaper5, komt naar voren dat, om AI verantwoord in te zetten algemene en abstracte principes moeten worden omgezet naar concrete vereisten op technisch, individueel en maatschappelijk gebied. De verkregen inzichten worden op dit moment geanalyseerd en waar nodig opgenomen in de verdere planvorming met betrekking tot de AI ontwikkeling binnen de politie.

Gegevensbescherming en rechten van burgers

19.

Hoe gaat de politie, specifiek als het gaat om AI toepassingen, om met de «Richtlijnen inzake publieksvoorlichting over data-analyses» (bijlage 1.2 bij Kamerstukken 26 643 en 32 761, nr. 641, d.d. 8 oktober 2019)? Klopt het dat deze richtlijn als uitgangspunt heeft een actieve informatieverstrekking vanuit de betrokken overheidsorganisatie aan het publiek, inclusief expliciete vermelding in een privacystatement op de eigen website van in dit geval de politie? Deelt u de observatie dat dergelijke informatie op dit moment niet te vinden is op de website van de politie? Gaat hier op korte termijn verandering in komen?

Antwoord vraag 19:

De «Richtlijnen inzake publieksvoorlichting over data-analyses» richten zich, zoals in deze richtlijnen zelf ook is aangegeven, voornamelijk op gegevensverwerkingen die vallen onder de reikwijdte van de Algemene Verordening Gegevensbescherming (AVG). De verwerking van persoonsgegevens door de politie valt echter grotendeels buiten de werking van deze verordening maar onder de werking van de Wet Politiegegevens, waarin de Richtlijn (EU) 2016/680 inzake gegevensbescherming opsporing en vervolging is geïmplementeerd. Het feit dat voor de uitvoering van de politietaak een apart gegevensbeschermingsregime geldt, is gelegen in de bijzondere positie waarin de politie als handhavings- en opsporingsinstantie verkeert. In aanvulling op hetgeen ik eerder aan uw kamer heb gemeld (bijlage bij Kamerstukken 26 643 en 32 761, nr. 426, d.d. 11 november 2016) geldt dat het voor de politie in voorkomende gevallen noodzakelijk is om (delen van) de gegevensverwerking niet inzichtelijk te maken. Dit kan nodig zijn om te voorkomen dat personen zich kunnen onttrekken aan een effectieve taakuitoefening door de politie. Inzicht in de gebruikte analysemethode kan immers aanleiding zijn om het gedrag bewust zodanig aan te passen dat men in de gegevensanalyse buiten zicht blijft. Daarnaast kan geheimhouding nodig zijn omdat inzicht in de gegevensverwerking raakt aan de nationale veiligheid.

Dat neemt niet weg dat de politie zoveel als mogelijk zal aansluiten bij de onderhavige richtlijnen en dus ook in dit kader uitvoering zal geven aan de actieve informatieplicht die op de politie rust. Dit zal op termijn, en met de voornoemde kaders en beperkingen, leiden tot aanvulling van de informatie op de website van de politie.

Bijvoorbeeld bij de keuzehulp internetoplichting worden de burgers actief geïnformeerd over het feit dat de keuzehulp geautomatiseerd is, en er dus geen sprake is van contact met een politiemedewerker tijdens het invullen van de keuzehulp.

77.

Kunnen burgers inzien welke data van hen gebruikt worden door AI bij de politie?

Antwoord vraag 77:

De politie verwerkt bij de toepassing van AI politiegegevens zoals bedoeld in de Wpg. Een ieder heeft, op grond van artikel 25 Wpg, recht op inzage in de gegevens die over hem worden verwerkt door de politie, dus ook die door AI toepassingen worden gebruikt. Vanwege de in het antwoord op vraag 19 genoemde bijzondere positie van de politie geeft de Wpg (art. 27) hierop wel een aantal uitzonderingen Het recht op inzage wordt bijvoorbeeld beperkt ter bescherming van de openbare en nationale veiligheid of indien inzage nadelige gevolgen heeft voor het opsporingsonderzoek. Deze uitzonderingsgronden wijken enigszins af van die van de AVG.

55.

Hoe zijn op dit moment de rechten van inwoners beschermd die deel uitmaken van een experiment, proeftuin of pilot?

56.

Worden inwoners adequaat geïnformeerd over de gevolgen voor hun privacy-rechten? Zo ja, hoe worden zij geïnformeerd? Zo nee, waarom niet?

Antwoord vragen 55 en 56:

De politie dient in het geval van (operationele) experimenten, proeftuinen of pilots binnen hetzelfde wettelijke kader te opereren als wanneer er geen sprake is van een experiment. De rechten van inwoners die deel uitmaken van een experiment, proeftuin of pilot zijn dus op eenzelfde wijze beschermd als normaal gesproken. Het wettelijk kader dat van toepassing is op de vorm van de toepassing (is er bijvoorbeeld sprake van opsporing of van preventie van criminaliteit) bepaalt mede in welke mate de politie gegevens kan delen.

Zoals reeds opgemerkt in mijn antwoord vraag 19 is het niet altijd mogelijk om op eenzelfde wijze transparant te zijn over het gebruik van data door de politie als bij AVG data. Zoals gemeld in mijn antwoord op vraag 78 hebben burgers, op grond van artikel 25 Wpg, recht op inzage in de gegevens die over hen worden verwerkt door de politie, dus ook die door AI toepassingen worden gebruikt. Vanwege de in het antwoord op vraag 19 genoemde bijzondere positie van de politie geeft de Wpg (art. 27) hierop wel een aantal uitzonderingen die enigszins afwijken van die van de AVG.

Bijvoorbeeld bij de keuzehulp internetoplichting worden de burgers actief geïnformeerd over het feit dat de keuzehulp geautomatiseerd is, en er dus geen sprake is van contact met een politiemedewerker tijdens het invullen van de keuzehulp.

Data

18.

Als in de brief gesproken wordt over (big) data, wordt dan enkel gedoeld op databestanden die de politie zelf aanhoudt en grotendeels vallen onder de werking van de Wet politiegegevens, of wordt dan ook gedoeld op publieke databestanden, hetzij van andere overheden hetzij publieke data die via internet benaderbaar zijn? Klopt het beeld dat de politie nu al gebruik maakt van data-mining? Kunt u, zo nodig vertrouwelijk, een overzicht geven van de toepassing van data-mining binnen en door de politie?

Antwoord vraag 18:

Alle persoonsgegevens die de politie verkrijgt in het kader van de uitoefening van haar taak (minus de bestuursrechtelijke taken) zijn politiegegevens. Dus ook gegevens verstrekt uit samenwerkingsverbanden of door samenwerkingspartners en de gegevens die de politie verzamelt bijvoorbeeld tijdens een opsporingsonderzoek uit open bronnen zoals Kadastergegevens en voor internetgegevens. Ten aanzien van dat laatste spreken we conform het advies van de Commissie Koops liever van publiektoegankelijke en gesloten bronnen dan van open bronnen.

De politie maakt al langere tijd gebruik van datamining, in de afgelopen jaren is dit getransformeerd naar het interdisciplinaire vakgebied data science, Waar datamining zich doorgaans meer richt op beschrijvende analyses, biedt data science ook mogelijkheden om predictief en prescriptief acties te kunnen ondernemen. Data science kan zowel voor de kerntaken als voor specifieke taken van de politie worden ingezet. Daarbij kan o.a. worden gedacht aan de ontwikkeling van (risicotaxatie)modellen, het herkennen van patronen of anomaliteiten, tekst- en beeldherkenning, het inzichtelijk maken van criminele netwerken en markten, het doorgronden van grote datasets maar ook om de bedrijfsvoering efficiënter te maken.

78.

Worden er enkel data gebruikt van burgers die in contact zijn geweest met justitie, of gaan de data ook over «reguliere» burgers?

Antwoord vraag 78:

De politie verwerkt voor haar taak persoonsgegevens (zogenaamde politiegegevens). Het gaat hier niet enkel om gegevens over de verdachte in een opsporingsonderzoek maar ook over gegevens van personen die een aangifte doen, slachtoffer zijn, getuige zijn van een delict, personen die staande worden gehouden of die bijvoorbeeld een melding doen in het kader van de openbare orde handhaving. Ook deze politiegegevens zijn nodig om de taak goed uit te oefenen. De omvang, aard en indringendheid van deze politiegegevens is vanzelfsprekend niet voor alle categorieën betrokkenen gelijk. De registratie van politiegegevens bij een overlastmelding zijn veel beperkter dan de politiegegevens die worden verzameld over een verdachte van een ernstig strafbaar feit.

Bias

24.

In hoeverre zijn beslisbomen daadwerkelijk altijd neutraal? Kunnen beslisbomen impliciete aannames bevatten, die helemaal niet neutraal zijn?

25.

Klopt het dat beslisbomen niet altijd neutraal zijn, maar vaak impliciete aannames bevatten en in een bepaalde richting kunnen tenderen? Herinnert u zich de beslisboom van het Ministerie van Economische Zaken (EZ) van maart 2000, over marktwerking en privatisering? Klopt het dat het invullen van deze beslisboom in bijna alle gevallen leidde tot het advies om over te gaan tot privatisering en/of marktwerking? Klopt het dat dit een weerspiegeling was van het toenmalige marktdenken op het Ministerie van EZ? Klopt het dat beslisbomen helemaal niet neutraal zijn? Waarom is het dan «helder dat hier geen bijzonder beleid voor nodig is»?

Antwoord vragen 24 en 25:

Het klopt dat algoritmes (waaronder beslisbomen) en dus ook AI bias of fouten kunnen bevatten of gebaseerd kunnen zijn op (onterechte) aannames. Dat geldt evenzo voor beslissingen die alleen door mensen worden gemaakt. Als het gaat om bias en aannames in eenvoudige algoritmes (zoals vergelijkingen in een Excel sheet) en in beslisbomen geldt dat deze eenvoudiger met het blote oog of via standaard controle stappen te herkennen zijn, omdat de redeneerlijn in een beslisboom stap voor stap te volgen is. Voor meer complexe algoritmes is het ontdekken van een aanname of bias minder eenvoudig met het blote oog te doen. Dit onderscheid tussen de complexiteit van algoritmes maakt dat er een grotere noodzaak gevoeld wordt om met specifiek beleid te komen voor bias in complexe algoritmes, dan voor een eenvoudiger algoritme.

9.

Hoe wordt de noodzaak om bias te voorkomen geadresseerd bij het gebruik van kunstmatige intelligentie binnen de politie?

26.

Als de privatiseringsbeslisboom van het Ministerie van EZ van 2000 niet neutraal was, kunt u dan uitsluiten dat de algoritmes, beslisbomen en risicotaxaties van de politie evenmin neutraal zijn? Op welke manier kan een dergelijke vooringenomenheid of bias uitgesloten worden?

47.

Op welke wijze zet de overheid zich in om actief discriminatie te voorkomen in de AI systemen van politie?

Antwoord vragen 9, 26 en 47:

De politie werkt bij het ontwikkelen van AI volgens het principe «ethics by design». Dit betekent dat bepaalde waarden bij de ontwikkeling van een AI systeem al worden meegenomen in het ontwerp. Er wordt dus reeds bij de ontwikkeling van algoritmes en AI aandacht besteed aan de mogelijkheid dat er bias in de trainingsdata zit die effect kan hebben op de werking van het algoritme. Indien bekend wordt dat er bias in de data aanwezig is zijn er mogelijkheden om te compenseren voor deze eventuele bias in de data die worden toegepast. Dit compenseren kan zowel in de data zelf als door hier in het algoritme rekening mee te houden.

28.

Waar ligt de grens tussen intelligent gedrag van systemen en systemen die eerder invoerde aannames uitvoeren? Klopt het dat deze grens niet scherp te trekken is, en er een groot grijs gebied is tussen intelligent gedrag en ingevoerd of geïnduceerd gedrag? Hoe beoordeelt u in dit kader de uitspraak «Het is gevaarlijk als alleen witte mannen algoritmes maken» van dhr. Frans Muller (Forum, «Frans Muller: bedrijven moeten ethisch omgaan met data»)?

29.

Zijn algoritmes en AI niet te vergelijken met een zichzelf bevestigende grabbelton, onder het motto «wat je er in stopt, haal je er ook weer uit»? Lopen AI toepassingen daarmee niet het risico een echoput te worden van vooroordelen en/of vooringenomenheid, waaronder ook racisme en discriminatie? Hoe kunt u dit uitsluiten? Wie of welke instantie toetst hierop? Is er een toetsing denkbaar die analoog is aan de toetsing uit de Sleepwet van 2018, met een commissie die noodzaak en proportionaliteit beoordeelt? Zo nee, op welke manier is dan een toetsing mogelijk?

Antwoord vragen 28 en 29:

Ik beaam dat het belangrijk is om rekening te houden met diversiteit en eventuele bias in de ontwikkeling en toepassing van AI en algoritmes. Een belangrijk aandachtspunt in data science is «garbage in, garbage out», wat grofweg betekent dat het gebruik van slechte, vervuilde of onvolledige data ervoor zorgt dat ook de output slecht, vervuild of onvolledig kan zijn. Tegelijk zijn er in de data science diverse manieren om hiervoor te compenseren.

Zoals ik in mijn brief aan uw Kamer heb aangegeven moet gemotiveerd worden waarom en welke data er wordt gebruikt en er moet gekeken worden naar de kwaliteit van de gebruikte data. Dit is mede de professionele taak van de data scientists binnen de politie om dit voorkomen. Het is daarbij uitermate belangrijk dat er bij de ontwikkeling van AI toepassingen voldoende duidelijk is wat de eventuele gebreken in een dataset zijn, zodat hiervoor kan worden gecompenseerd. Daarbij komt bijvoorbeeld ook de vraag naar voren of kan worden volstaan met geanonimiseerde data en op welke wijze privacy by design wordt toegepast. Overigens is het zo dat de politie zelf ook geen baat heeft bij een slecht werkende AI toepassing. Er wordt daarom doorlopend gecontroleerd of de modellen van voldoende kwaliteit blijven.

Op 20 december 2019 hebben de Ministers van Binnenlandse Zaken en Koninkrijksrelaties en de Minister voor Rechtsbescherming het onderzoek «Toezicht op gebruik van algoritmen door de overheid» aan uw Kamer aangeboden.6 De onderzoekers constateerden op basis van een analyse van wet- en regelgeving geen juridische lacune in de toezichtstaken. In de begeleidende brief is uw Kamer een reactie op de aanbevelingen in dit rapport toegezegd. In de beantwoording van de voorliggende vragen wil ik niet vooruitlopen op die reactie.

48.

Op welke wijze toetst de politie de afwezigheid van discriminatie in AI systemen?

71.

Op welke wijze wordt discriminatie als onbedoeld gevolg van de toepassing van AI voorkomen?

81.

Welke mechanismen worden in werking gesteld op het moment dat discriminatie wordt opgemerkt in het ontwerp, gebruik of de uitkomst van AI systemen?

Antwoord vragen 48, 71 en 81:

Ongewenste effecten van algoritmen, onder andere mogelijk door bias, vereisen een brede aanpak. De basis is professionaliteit bij de ontwikkelaars als het gaat om (datagedreven) AI toepassingen. Het kennisniveau van hen moet daarom bij blijven bij de laatste ontwikkelingen. De politie organiseert daarom bijv. colloquia en meetups, en geeft experts de ruimte om te blijven leren. Sommige effecten openbaren zich pas in het werkproces en zijn niet inherent aan de technologie. Daarom is het belangrijk dat eindgebruikers in contact staan met de ontwikkelaars. Hierdoor kan de technologie waar mogelijk aangepast worden of juist de eindgebruiker waar nodig beterebegrip krijgen van het middel.

Bij de inzet van algoritmes voor het politiewerk wordt doorlopend geëvalueerd en gecontroleerd of de modellen van voldoende kwaliteit blijven. Daarbij is nadrukkelijk aandacht voor bias, zowel in de data als in de modellen, en ook in de uitkomst.

De monitoring op de toepassing van AI (ook wel intern toezicht) wordt ingevuld door middel van het «three lines of defence»-model waarbij de eerste lijn wordt vervuld vanuit het lijnmanagement, de tweede lijn door de korpscontroller en de derde lijn door de afdeling Concernaudit.7

Indien bekend wordt dat er bias in de data aanwezig is zijn er mogelijkheden om te compenseren voor deze eventuele bias in de data die worden toegepast. Dit compenseren kan zowel in de data zelf als door hier in het algoritme rekening mee te houden.

82.

Welke stappen zijn er ondernomen om te voorkomen dat de AI systemen van de politie voornamelijk worden gericht op gemarginaliseerde groepen in de samenleving? Hoe vindt de evaluatie van dit soort waarborgen plaats?

Antwoord vraag 82:

Voor al het politiewerk geldt dat het niet de bedoeling is dat dit specifiek wordt gericht op bepaalde gemarginaliseerde groepen in de samenleving. Dat geldt dus ook voor het toepassen van AI. Bij de politie wordt er veel aandacht besteed aan het voorkomen van discriminatie en etnische profilering in den brede. Ik heb u hierover onder andere geïnformeerd in mijn brief van 12 december 2019.8 Deze aanpak geldt ook voor het gebruiken van het ondersteunende middel AI.

Specifiek voor technische hulpmiddelen zoals AI geldt dat er daarnaast ook al tijdens de ontwikkeling van de toepassing aandacht worden besteed aan het voorkomen van bias, door te ontwikkelen volgens het principe van «ethics by design».

Bij de inzet van algoritmes voor het politiewerk wordt doorlopend geëvalueerd en gecontroleerd of de modellen van voldoende kwaliteit blijven. Daarbij is nadrukkelijk aandacht voor bias, zowel in de data als in de modellen, en ook in de uitkomst. Zie hiervoor ook het antwoord op vragen 48, 71 en 81.

SyRI

16.

Wat voor invloed heeft de SyRi-uitspraak op de manier waarop de politie AI toepast?

Antwoord vraag 16:

De uitspraak omtrent SyRI is pas zeer recentelijk gepubliceerd. Zowel mijn departement als de politie zullen de uitspraak zeer zorgvuldig bestuderen, en bezien op eventuele consequenties voor de toepassing van AI door de politie.

Verantwoording en toezicht

1.

Wordt aan de Tweede Kamer inzicht verschaft over de toepassing van artificiële intelligentie (AI) door de politie en zo ja, hoe en wanneer?

69.

In hoeverre wordt de Tweede Kamer geïnformeerd over de uitkomsten van onderzoek op het gebied van AI bij de politie?

Antwoord vraag 1, 69:

Mijn kamerbrief van 3 december 2019 over AI bij de politie had tot doel het verschaffen van transparantie over AI bij de politie. De korpschef en ik blijven transparant over de toepassing van AI bij de politie. Indien er nieuwe ontwikkelingen zijn op het gebied van AI bij de politie zal ik uw Kamer daarover informeren.

Het wetenschappelijk onderzoek dat wordt uitgevoerd in het Nationaal Politielab AI, door de wetenschappers die daaraan zijn verbonden, wordt gepubliceerd in wetenschappelijke tijdschriften. Daarmee is het openbaar en ook voor Kamerleden te bestuderen indien gewenst. In de bijlage van mijn brief van 3 december jl. heb ik een recent overzicht van het uitgevoerde onderzoek bijgevoegd.

23.

Welke rol speelt de functionaris gegevensbescherming op korpsniveau in het toezicht op de ontwikkeling van AI toepassingen?

Antwoord vraag 23:

De Functionaris voor Gegevensbescherming (FG) is onafhankelijk in zijn advies en toezicht op de naleving van de Wpg en AVG binnen de Politie. De FG kan dus eigenstandig proactief onderzoek doen en toezicht houden op de toepassing van AI binnen de politie, daar waar het de verwerking van persoonsgegevens betreft. Daarbij wordt de FG geïnformeerd wanneer een Gegevensbeschermingseffectbeoordeling (GEB) is opgesteld en kan hij langs die lijn adviseren en toezicht houden.

72.

Waarom stelt u in de brief dat «de politie zijn eigen strengste criticaster is»? Hoe relateert u deze uitspraak aan het functioneren van de politie in de Arnhemse moordzaak, niet alleen in 1998–1999, maar ook nu? Is er in de afgelopen 22 jaar enige vorm van zelfreflectie geweest? Klopt het dat de politie helemaal niet «zijn eigen strengste criticaster» is maar juist het tegenovergestelde? Namelijk dat door een interne angst- en suppressiecultuur geen enkele zelfreflectie mogelijk is, afgezien van een enkeling die inmiddels met pensioen is?

Antwoord vraag 72:

Het stelsel van toezicht en waarborgen op en binnen de politie heb ik in mijn brief van 5 december 20189 toegelicht. Dit start bij intern toezicht binnen de politie, dat het zogenoemde «three lines of defence» model volgt, waarbij de eerste lijn wordt vervuld vanuit het lijnmanagement, de tweede lijn door de korpscontroller en de derde lijn door de afdeling Concernaudit. Basis van het toezicht op de politie is dat de politie het interne toezicht streng en goed op orde moet hebben. Dat wordt er bedoeld met de frase dat de politie zijn eigen strengste criticaster is. Dat betekent niet dat er geen fouten gemaakt worden, maar het uitgangspunt moet zijn dat het interne toezicht van de politie een strenge controleur is. Dit vind ik ook bij AI van groot belang. Hoe beter de politie zelf de waarborgen en het interne toezicht op orde heeft, hoe meer zekerheid de burger heeft dat het optreden van de politie legitiem is.

80.

Bij wie ligt de verantwoordelijkheid voor monitoring van de toepassing van AI bij politietaken? Zit daar een bepaalde evaluatietermijn aan vast?

Antwoord vraag 80:

De monitoring op de toepassing van AI (ook wel intern toezicht) wordt ingevuld door middel van het «three lines of defence»-model waarbij de eerste lijn wordt vervuld vanuit het lijnmanagement, de tweede lijn door de korpscontroller en de derde lijn door de afdeling Concernaudit.10 Dit interne toezicht arrangement geldt ook voor toepassingen die gebruik maken van AI.

27.

Wie of welke instantie beoordeelt de neutraliteit van algoritmes? Welke rol kunnen de Autoriteit Persoonsgegevens (AP), de Koninklijke Nederlandse Akademie van Wetenschappen (KNAW), de Nederlandse Organisatie voor Wetenschappelijk Onderzoek (NWO) en de Algemene Rekenkamer daarbij spelen?

Antwoord op vraag 27:

Op 20 december 2019 hebben de Ministers van Binnenlandse Zaken en Koninkrijksrelaties en de Minister voor Rechtsbescherming het onderzoek «Toezicht op gebruik van algoritmen door de overheid» aan uw Kamer aangeboden.11 De onderzoekers constateerden op basis van een analyse van wet- en regelgeving geen juridische lacune in de toezichtstaken. In de begeleidende brief is uw Kamer een reactie op de aanbevelingen in dit rapport toegezegd. In de beantwoording van de voorliggende vragen wil ik niet vooruitlopen op die reactie.

73.

Op welke manier houdt de Inspectie voor Justitie en Veiligheid toezicht op het gebruik van AI door de politie? Hoeveel fte heeft de Inspectie daarvoor beschikbaar? Heeft de Inspectie daarvoor de benodigde expertise en welke vorm neemt deze expertise aan?

Antwoord op vraag 73:

De Inspectie Justitie en Veiligheid houdt toezicht op de kwaliteit van de taakuitvoering van onder andere de politie. Als bij die taakuitvoering AI wordt ingezet, dan wordt dit betrokken in het toezicht van de Inspectie. Het toezicht is dan gericht op de bijdrage van de techniek aan de uitvoering. Daarnaast wordt de legitimiteit van de inzet van AI bezien en risico’s op ethisch ongewenste effecten, zoals uitsluiting of discriminatie van personen. Tot op heden heeft de Inspectie nog geen onderzoek verricht naar AI. Echter door de toename van het gebruik van AI en gerelateerde technieken zal dit een meer prominente rol in het toezicht gaan innemen. De Inspectie heeft de ambitie om haar toezicht de komende jaren nadrukkelijk te richten op deze technieken.

De totale capaciteit van de Inspectie is ca. 100 FTE. De capaciteit voor toezicht wordt zoveel mogelijk risico gestuurd ingezet op het gehele brede toezichtterrein. Het afgelopen jaar is geïnvesteerd in de werving van medewerkers met kennis van het digitale domein en technologieën, zoals AI. Deze capaciteit zal de komende jaren verder toenemen. Daarnaast investeert de Inspectie in het verder versterken van de kennis door expliciet de verbinding te zoeken met de wetenschap.

75.

Wie controleert de effecten van een Data Protection impact assessment? Welke rol spelen de AP en de Auditdienst Rijk hierin?

Antwoord op vraag 75:

Een Gegevensbeschermingseffectbeoordeling (GEB) wordt voorafgaand aan de start van een hoog risico verwerking opgesteld. Degene die formeel bevoegd is te beslissen of persoonsgegevens worden verwerkt is verantwoordelijk voor het opstellen van de GEB.

De verantwoordelijke wordt hierbij ondersteund door een Privacyfunctionaris bij de Politie. Eventueel kan de Privacyfunctionaris ondersteuning vragen aan de Gegevensautoriteit binnen de Politie. De GEB wordt toegestuurd aan de onafhankelijke Functionaris voor Gegevensbescherming (FG) binnen de Politie en indien nodig wordt de Autoriteit Persoonsgegevens voorafgaand aan de verwerking geraadpleegd. De Auditdienst Rijk heeft geen rol bij een Gegevensbeschermingseffectbeoordeling.

54.

Op welke wijze legt de politie verantwoording af over de wijze hoe AI wordt toegepast?

Antwoord vraag 54:

De politie moet verantwoording afleggen over de taakuitvoering. Afhankelijk van het type inzet van AI en de benodigde data voor de ontwikkeling van de AI wordt op verschillende wijzen verantwoording afgelegd. De politie voert haar taken uit onder de verantwoordelijkheid van het gezag. Indien het gaat om de toepassing van AI in het kader van de opsporing is het bevoegd gezag het Openbaar Ministerie. Als het gaat om vervolging zal deze vervolgens in het strafproces moeten kunnen uitleggen hoe het opsporingsproces is verlopen. Als daar AI bij is gebruikt moet deze voor de rechter toetsbaar zijn.

Daarnaast legt de korpschef voor het gevoerde beheer en de kwaliteit van de taakuitvoering verantwoording af aan mij. Dat omvat ook de inzet en kwaliteit van AI in het algemeen.

70.

Kunt u het interne kwaliteitskader big data dat de politie samen met het OM in het kader van het programma Toekomstbestendig Opsporen en Vervolgen heeft opgesteld zo nodig vertrouwelijk delen met de Tweede Kamer? Hoe verhoudt dit interne kader zich tot de ministerieel vastgelegde «richtlijnen voor het toepassen van algoritmes door overheden» (bijlage 1 bij Kamerstuk, 26 643, nr. 641, dd. 8 oktober 2019)?

76.

Welke externe toezichthouders hebben of krijgen inzicht in het interne kwaliteitskader dat door politie en OM wordt gehanteerd?

Antwoord vraag 70 en 76:

Het interne Kwaliteitskader Big Data dat de politie samen met het OM in het kader van het programma Toekomstbestendig Opsporen en Vervolgen heeft opgesteld bevindt zich momenteel in de afrondende fase van het doorlopen van het interne proces van goedkeuring binnen de politie. De verwachting is dat dit proces begin april 2020 zal zijn afgerond. Na vaststelling door de korpsleiding kan het Kwaliteitskader met Uw Kamer worden gedeeld. Het Kwaliteitskader is een praktische uitwerking van de Richtlijnen voor het toepassen van algoritmes door overheden. De documenten worden bij de implementatie van het Kwaliteitskader Big Data in de politieorganisatie in samenhang met elkaar bekeken. Zodra het Kwaliteitskader Big Data naar Uw Kamer is verzonden is deze openbaar geworden. Uiteraard hebben ook alle toezichthouders die dat wensen inzicht in het Kwaliteitskader.

Verantwoordelijkheid en foutmarges

14.

Wie is er verantwoordelijk voor (eventuele) fouten van AI?

Antwoord vraag 14:

De korpschef is ingevolge artikel 27 Politiewet 2012 belast met de leiding en het beheer van de politie. Voor AI is de verantwoordelijkheid niet anders dan voor alle andere technieken en hulpmiddelen die in de taakuitvoering worden gebruikt. Zie verder het antwoord op vraag 54 over de wijze waarop de politie verantwoording aflegt.

50.

Hoe ziet de foutmarge van AI eruit? Welke gevolgen kunnen foute beslissingen hebben, die genomen worden op basis van AI?

Antwoord vraag 50:

Foutmarges bij AI toepassingen verschillen per toepassing. Het is dus niet mogelijk om in algemeenheid uitspraak te doen over een foutmarge bij AI.

Zoals gemeld in mijn brief van 3 december 201912 is aandacht voor foutmarges bij toepassing van AI door de politie zeer belangrijk. Hierbij geldt dat het type proces, de actie maar met name het potentiële gevolg bepalend is voor de acceptatie van de marge van fouten van een AI toepassing. Voor ingrijpende processen zal AI in principe politiemedewerkers slechts ondersteunen in hun taak.

Het uitgangspunt is dat er bij het gebruik van AI altijd sprake is van een menselijke tussenkomst bij het nemen van besluiten («human in the loop»). Desalniettemin is ook bij besluitondersteuning door AI zorgvuldigheid geboden.

51.

Kan AI ertoe leiden dat onschuldige verdachten worden aangewezen, zoals bij de Arnhemse moordzaak in 1998? Klopt het dat bij de Arnhemse moorzaak in 1998 sprake was van een discriminerende vooringenomenheid, die heeft geleid tot negen personen die onschuldig zijn veroordeeld tot jarenlange gevangenisstraffen, wat bij één persoon heeft geleid tot zelfmoord? Hoe kan het dat de Arnhemse politie op basis van een snipper foutief bewijs in een onvoorstelbare tunnelvisie terecht is gekomen? Kunt u uitsluiten dat juist AI de politie aan foutieve snippers bewijs gaat helpen, dat leidt tot nieuwe tunnelvisies?

Antwoord vraag 51:

AI wordt door de politie gebruikt als ondersteuning van het politiewerk. Daarnaast vereisen de Wpg en de richtlijn (EU) 2016/680 inzake gegevensbescherming opsporing en vervolging, dat er voor geautomatiseerde besluitvorming een wettelijke grondslag is. Er is geen sprake van geautomatiseerde besluitvorming bij de politie, noch is dat bij wet voorzien. De vrees dat AI op zichzelf kan leiden tot uitkomsten in strafzaken, of die nu goed of foutief zijn, is dus ongegrond. Tegelijkertijd is bij elk stuk bewijs, bij elke stap binnen de opsporing zorgvuldigheid geboden. Zoals ik in mijn brief reeds aangaf, moet AI bij de politie toetsbaar zijn voor de rechter. Ook als dit slechts ondersteunend is geweest in het proces. Deze waarborg zorgt ervoor dat in een proces de rechter zelf kan beoordelen wat de invloed van AI in de procesgang is geweest.

Opleiding en competenties

2.

Hoe staat het met de digitale geletterdheid van de politieagenten in Nederland?

Antwoord vraag 2:

De politie investeert op verschillende manieren in de digitale geletterdheid van de organisatie. Sinds de reorganisatie is het aantal digitaal experts in de inrichting toegenomen en het aantal digitaal experts stijgt nog steeds. Zo vindt op dit moment een versterking plaats voor de aanpak van cybercrime met 145 fte. Hiervan is in 2019 ruim 80 fte ingestroomd. De rest volgt in 2020. De cybercrimeteams in de eenheden vormen een vliegwiel voor de aanpak van gedigitaliseerde criminaliteit in de eenheden. Zij leren kennis uit aan de districten, basisteams en aan de intake-en servicemedewerkers. De politie beschikt verder over specialistische teams digitale Opsporing die de opsporing ondersteunen met hun digitale expertise. Verder biedt de politieacademie opleidingen en trainingen aan op het gebied van gedigitaliseerde criminaliteit en opsporing.

45.

In hoeverre is de theorie en toepassing van AI verankerd in de politieopleiding?

Antwoord vraag 45:

De kennis van Data Science en AI ontwikkeling maakt geen onderdeel uit van de politieopleiding. Data science en AI is een specialisme waarvoor de politie in principe hoger opgeleiden van buiten de organisatie aantrekt die de korte opleiding Politiemedewerker Specifieke Inzet volgen, die speciaal gericht is op zij-instromende specialisten in de Politie-organisatie. Dit specialisme is bovendien kennisintensief. Om continu aan te sluiten bij die laatste ontwikkelingen is het Nationaal politielab AI gestart, waarin in ICAI verband wordt samengewerkt met Universiteiten.

Indien een AI toepassing op dit moment in de praktijk wordt toegepast in pilots worden de betrokken collega’s hiervoor opgeleid. Hierbij kan gedachte worden aan het leren wat de uitkomst van de AI betekent en hoe die beoordeeld moet worden. Dit betreft maatwerk, afhankelijk van de toepassing. Indien AI in de toekomst breed ingezet gaat worden ter ondersteuning van werkprocessen is te verwachten dat dit onderdeel wordt van de opleiding.

22.

Welke kennis rond AI en big data is aanwezig bij het lijnmanagement, bij de korpscontroller en bij de afdeling Concernaudit? Kunt u deze vraag specifiek beantwoorden, inclusief verwijzing naar relevante werkervaring en opleidingen?

Antwoord vraag 22:

Bij concernaudit zitten zowel operational auditors als IT auditors. Zowel voor de technische als de operationele aspecten van de toepassing van AI is daarmee in basis kennis aanwezig. Per situatie wordt ingeschat of er aanvullende kennis ingehuurd moet worden.

Bij de korpscontroller en de afdeling Concernaudit is de kennis over AI in opbouw. Deskundigheid wordt deels van buiten aangetrokken en is deels aanwezig bij de zittende mensen of wordt door hen verder ontwikkeld. De inhoudsdeskundigen van de genoemde afdelingen zijn aangehaakt bij de korpsbrede ontwikkeling en toepassing van algoritmes en data analysemethoden.

De implementatie van het Kwaliteitskader Big Data kent een opleidingstraject. Hier kan ook door het lijnmanagement, de korpscontroller en de afdeling Concernaudit gebruik van worden gemaakt.

58.

Hoe worden beslissers bij de politie juridisch en ethisch getraind en opgeleid om verantwoorde besluiten te kunnen nemen op basis van door AI ondersteunde processen? Welke rol moet de Politieacademie vervullen om aan deze vaardigheidseisen te voldoen?

Antwoord vraag 58:

Voor de toepassing van AI gelden de gebruikelijke wettelijke kaders, waaronder de privacywetgeving en WPG Wpg. Deze wettelijke kaders zitten verankerd in het basispolitieonderwijs. Daarnaast informeert de Gegevensautoriteit van politie de medewerkers middels een nieuwsbrief over privacy- en WPG-aangelegenheden.

Politie heeft bijgedragen aan de ontwikkeling van de begeleidingsethiek door bureau ECP, platform voor de informatiesamenleving. Deze methode wordt nu ingevoerd en bestaat er uit dat o.a. de inzet van AI in het politiewerk vanuit diverse perspectieven wordt beoordeeld. De beslissers leren hierdoor de specifieke kenmerken en ethische risico’s van zo’n toepassing in de praktijk te herkennen. Ze leren ook, hoe en waar in de organisatie ze hun vragen of eventuele zorgen neer kunnen leggen.

Ook is de politie aangesloten bij de Nederlandse AI coalitie. De politie neemt verder deel aan de pilot «Ethics guidelines of trustworthy AI». Van de High level expert group on AI van de Europese Commissie en aan het Transparantielab van het Ministerie van Binnenlandse zaken.

Vanwege het belang van privacy en ethiek voor het politiewerk is recent een Politiechef als portefeuillehouder privacy en ethiek aangesteld. Voor de toepassing van AI gelden de gebruikelijke wettelijke kaders, waaronder de Wpg. Deze wettelijke kaders zitten verankerd in het basispolitieonderwijs. Daarnaast informeert de Gegevensautoriteit van politie de medewerkers middels een nieuwsbrief over privacy- en WPG-aangelegenheden.

Tenslotte wordt ook in het Kwaliteitskader big data aandacht besteed aan juridische en ethische aspecten. Bij de implementatie van het kwaliteitskader big data wordt in samenwerking met de politieacademie onderzocht op welke wijze het kwaliteitskader ingebed kan worden in leer- en kwaliteitsprocessen en welke doelgroepen hierbij in aanmerking komen.

63.

In hoeverre zet u het verlagen van de werkdruk in als strategie om de negatieve effecten van AI binnen de opsporing te voorkomen (zie het rapport Beginselen Digitaal (Rapport van een verkennend Onderzoek in opdracht van het WODC, Kamerstuk 29 279, nr. 388, waaruit blijkt dat bij een hoge werkdruk uitkomsten van de computer vaker klakkeloos worden overgenomen)?

Antwoord vraag 63:

Bij het gebruik van AI is het belangrijk dat de menselijke autonomie en de menselijke controle op de AI toepassing die wordt gebruikt betekenisvol is. Dat betekent dat de politiemedewerker voldoende in staat moet zijn om de uitkomst van een AI toepassing kritisch te bezien, en in staat moet zijn om de uitkomst indien nodig naast zich neer te leggen. Daar hoort ook bij dat de medewerker zich niet genoodzaakt voelt de uitkomst van de AI toepassing te accepteren door een verhoogde werkdruk.

Omdat AI een verandering in het werk van de politie teweeg brengt wordt ook in het kader van het Nationaal Politielab AI onderzoek gedaan naar personale en organisatorische consequenties van de toepassing van AI binnen politieprocessen en de randvoorwaarden die daarbij horen.

Predictive policing

10.

Kan predictive policing een opsporingsmethode genoemd worden?

12.

Hoe verhoudt predictive policing zich tot het beginsel dat er sprake moet zijn van een redelijk vermoeden van een strafbaar feit, een verdenking, voordat overgegaan kan worden tot opsporing?

Antwoord vragen 10 en 12:

Predictive policing wordt binnen de politie gebruikt als hulpmiddel om een inschatting te maken of er een (verhoogd) risico is op bepaalde vormen van criminaliteit in een bepaald gebied zodat hierop vooraf kan worden geanticipeerd bij de inzet van de gebiedsgebonden politie. Het is geen opsporingsmethode en wordt ook niet gebruikt voor opsporen. Bij predictive policing is er dus geen sprake van een redelijk vermoeden van een strafbaar feit of een verdenking. Het risico wordt bepaald op basis van historische data, waargenomen trends en patronen waarbij alleen wordt gekeken naar het optreden van een (verhoogd) risico in een bepaald gebied. Het is niet gericht op individuen of groepen.

13.

Wordt overwogen iets te doen aan predictive identification, een vorm van predictive policing waarin personen of groepen aangewezen kunnen worden als potentiële misdadigers of slachtoffers van bepaalde strafbare feiten?

Antwoord vraag 13:

De politie maakt gebruik van (klassieke) risicotaxatiemodellen om inschattingen te kunnen maken ten aanzien van het potentieel gebruik maken van geweld of het optreden van recidive bij personen met antecedenten zoals vastgelegd in de politiesystemen. Het taxatiemodel geeft alleen een inschatting of er een verhoogd risico is op het gebruik van geweld of het optreden van recidive bij een geselecteerde groep personen.

Met betrekking tot het kunnen identificeren van potentiele slachtoffers van bepaalde strafbare feiten zijn modellen ontwikkeld om een inschatting te kunnen maken of er sprake is van discriminatie of kindermishandeling bij het screenen van cases. Daarnaast wordt onderzocht of het mogelijk is om potentieel kwetsbare asielzoekers, mensenhandel of onvrijwillige prostitutie te kunnen herkennen.

Gezichtsherkenning

7.

Wordt overwogen te gaan werken of experimenteren met realtime gezichtsherkenning?

Antwoord vraag 7:

De maatschappij ontwikkelt zich en de politie ontwikkelt daarin mee. Het past in die lijn dat er ook binnen de politie wordt nagedacht over de mogelijkheden van gezichtsherkenning. Ik heb dit ook aan uw Kamer bericht in mijn brief van november 2019.13 Daarin heb ik benadrukt dat de politie uiteraard moet kunnen experimenteren met vormen van gezichtsherkenningstechnologie, maar dat deze niet operationeel mag worden ingezet dan nadat met betrokken partijen inzichtelijk is gemaakt wat het wettelijk kader is, welke waarborgen er getroffen zijn en wat de uitkomst is van de juridisch ethische toets. Op dit moment zijn er binnen de politie geen experimenten met realtime gezichtsherkenning.

11.

Past het gebruik van realtime gezichtsherkenning door voormalig EU-collega Engeland binnen het Coordinated Plan on Artificial Intelligence van de EU?

Antwoord vraag 11:

Het is niet aan mij om te beoordelen of het gebruik van technologie van een voormalige EU lidstaat past binnen het Coordinated Plan on Artificial Intelligence van de EU.

Politielab AI

52.

Op welke manier gaat het wetenschappelijke karakter van het Nationale Politielab AI bewaakt worden? Welke waarborgen heeft u daarvoor ingebouwd? Welke rol gaat het Transparantielab hierbij spelen?

Antwoord vraag 52:

Het Nationaal Politielab AI is een samenwerkingsverband in ICAI-verband tussen de politie en de Universiteit van Amsterdam en de Universiteit Utrecht. Er zijn twee wetenschappelijk directeuren betrokken, die mede de wetenschappelijke standaarden bewaken.

In het Nationaal Politielab AI wordt onderzoek uitgevoerd door promovendi en post docs die onderzoek doen aan Universiteit Utrecht of de Universiteit van Amsterdam, maar die ook (parttime) in dienst zijn van de politie. Op deze wijze wordt een unieke mix van wetenschappelijke kennis en onderzoek en operationele toepasbaarheid gecreëerd.

De politie neemt ook deel aan het Transparantielab van het Ministerie van Binnenlandse Zaken, waar de «richtlijnen voor het toepassen van algoritmen door overheden»14 worden getest.

61.

Hoeveel is reeds begroot voor het opzetten van het Nationaal Politielab AI?

Antwoord vraag 61:

De financiering wordt gerealiseerd vanuit de incidentele gelden voor digitalisering en cybercrime. Indien blijkt dat het Nationaal Politielab AI bijdraagt aan de doelstellingen van de politie op dit gebied zal gekeken worden naar een meer structurele financiering.

62.

In hoeverre werkt het Nationaal Politielab AI samen met het Openbaar Ministerie (OM)?

Antwoord vraag 62:

Voor zover het gaat om het ontwikkelen en toepassen van AI binnen de taakuitvoering dat onder het gezag van het OM plaatsvindt is het OM betrokken bij de wijze waarop dit wordt ingericht.

Ook de ontwikkeling van het Kwaliteitskader Big Data heeft plaatsgevonden in samenwerking tussen het OM en de politie.

65.

Wat voor soort publicaties over AI wil de politie in wetenschappelijke tijdschriften gaan plaatsen? Hoe voorkomt de politie daarbij dat de criminelen meelezen? Of wordt er gemakshalve vanuit gegaan dat criminelen dit niet gaan doen?

Antwoord vraag 65:

Er wordt gepubliceerd over wetenschappelijke inzichten die worden opgedaan in het onderzoek, en niet over operationele informatie. Met de universiteiten is vastgelegd dat de politie het recht heeft niet over te gaan tot publicatie als dit ongewenste inzichten biedt op politietactieken of de staatsveiligheid in gevaar kan brengen.

Betrokkenheid bedrijven en wetenschap

6.

Worden private bedrijven betrokken bij het ontwerp van AI systemen bij de politie en zo ja, welke? Hoever strekt die samenwerking?

49.

Welke externe partijen zoals (universiteiten, bedrijven en individuen werken op dit moment samen met de politie bij het ontwikkelen van AI toepassingen? Kunt u beschrijven op welke wijze deze externe partijen met de politie samenwerken, indachtig de opmerking in de brief dat de politie «niet te afhankelijk» moet worden van andere partijen?

66.

Met welke private partijen werkt de politie samen in het kader van AI? Indien geen private partijen worden betrokken bij de ontwikkeling en toepassing van kunstmatige intelligentie in de politiepraktijk, waarom niet?

67.

Met welke nationale of internationale kennispartners werkt de politie samen? Hoe wordt geborgd dat zij geen veiligheidsrisico kunnen vormen?

68.

Hoe wordt de betrouwbaarheid van kennispartners van de politie getoetst en wordt deze toetsing regulier uitgevoerd?

Antwoord vragen 6, 49, 66, 67, 68:

De politie werkt in het kader van het Nationaal Politielab AI samen met de Universiteit Utrecht en de Universiteit van Amsterdam. Incidenteel wordt er ook samengewerkt met andere universiteiten. Daarnaast werkt de politie op het gebied van AI samen met diverse Europese lidstaten, zowel in Europol verband als ook bilateraal.

In bepaalde gevallen werkt de politie samen met bedrijven bij de ontwikkeling van AI. Daarbij is het wel vereist dat deze bedrijven voldoen aan de ethische vereisten (transparantie, uitlegbaarheid, etc.).

Voor de politie is het van groot belang dat de partners en kennisinstellingen met wie zij samenwerkt betrouwbare partners zijn. Dat geldt niet alleen in het kader van AI, maar algemeen voor samenwerking en kennisuitwisseling van de politie. Voor de beoordeling van de betrouwbaarheid van partners worden de gebruikelijke procedures gevolgd.

Met het wetsvoorstel screening ambtenaren van politie en politie-externen15 dat recentelijk door uw Kamer is aangenomen wordt een wettelijke grondslag gecreëerd voor het screenen van externen en worden de screeningsbevoegdheden van de politie uitgebreid.

36.

Hoe gaat de overheid en dus de politie waarborgen dat men niet te afhankelijk wordt van private partijen die dit soort technologieën leveren?

Antwoord vraag 36:

De politie haalt onder andere in het Nationaal Politielab AI kennis en kunde naar binnen. Promovendi die in dienst zijn van de politie werken gedeeltelijk aan de Universiteit en gedeeltelijk dicht bij de uitvoering om AI toepassingen te ontwikkelen die bijdragen aan de taakuitvoering van de politie. Door de kennis zelf in huis te halen is de politie niet afhankelijk van externe leveranciers. Indien samengewerkt wordt met externe leveranciers moeten zij voldoen aan de ethische vereisten (transparantie, uitlegbaarheid, etc.).

Europa

15.

Kan worden aangegeven waar Nederland staat in vergelijking tot andere Europese landen als het gaat om de ontwikkeling en toepassing van AI?

Antwoord vraag 15:

De politie in Nederland heeft in vergelijking met politiekorpsen in andere landen in Europa relatief veel kennis in huis over AI en is een van de voorlopers in de ontwikkeling van AI. Dat komt onder andere door het samenwerkingsverband in het Nationaal Politielab AI waarbij ontwikkeling van AI binnen de politie plaatsvindt in samenwerking met de wetenschap.

39.

Kan worden aangegeven in hoeverre nu wordt ingezet op kennisuitwisseling met andere Europese landen als het aankomt op AI?

Antwoord vraag 39:

Het is belangrijk om bij te blijven met de nieuwste ontwikkelingen op het gebied van AI, onder andere om ook de ontwikkelingen die in het criminele veld plaatsvinden bij te houden. Daarom wordt door de politie nauw samengewerkt en kennis uitgewisseld in Europol verband, maar ook bilateraal met andere Europese landen. Deze positie is alleen mogelijk omdat de politie over eigen AI experts beschikt. Daarnaast wordt er vanuit de politie en mijn departement deelgenomen aan diverse werkgroepen over AI en nieuwe technologieën in de EU.

Cybercrime

34.

In hoeverre maken criminelen ook gebruik van AI? Gebruiken cybercriminelen ook algoritmes en AI om slachtoffers te kiezen voor hackaanvallen? Op welke manier kan dit tegengegaan worden?

Antwoord vraag 34:

Over het algemeen blijkt dat (cyber)criminelen gebruik maken van nieuwe technologische mogelijkheden voor het plegen van criminaliteit. De politie heeft nog geen concrete indicaties van het gebruik van zelflerende algoritmes om keuzes te maken in het cybercriminele proces. Wel is het zo dat cybercriminelen processen automatiseren, optimaliseren en schaalbaar maken, zowel voor het plegen als het beschermen van cybercrime.

Binnen de industrie wordt gewaarschuwd voor het ontwikkelen van AI-toepassingen voor (cyber)crimineel gebruik, waarbij meestal wordt verwezen naar het ontwikkelen en gebruiken van deepfakes ten behoeve van phishing en fraude. In de praktijk heeft de politie hier in Nederland nog geen voorbeelden van gezien.

35.

Hoe kan de overheid en dus ook de politie de criminelen voor blijven in de technologische wedloop? Kunt u daarbij betrekken wat daarover is gezegd in Nieuwsuur van 5 februari 2020? Deelt u de daarin geuite mening dat het helemaal niet vaststaat dat de overheid deze wedloop gaat winnen van de criminelen

Antwoord vraag 35:

Om criminelen voor te kunnen blijven in de technologische wedloop is het van belang dat de politie ook gebruik kan maken van de nieuwe technologische ontwikkelingen ten behoeve haar taakuitvoering. Ik vind het daarom ook van belang dat de politie de ruimte krijgt om te experimenteren met de inzet van nieuwe technologie, uiteraard binnen de geldende kaders. Het Nationaal Politielab AI is hier een voorbeeld van.

79.

Welke strafbare feiten met behulp van algoritmes en AI worden er gepleegd, en hoe vaak kwamen deze strafbare feiten in 2019 voor?

Antwoord vraag 79:

De politie heeft op dit moment geen aanwijzingen dat in Nederland al strafbare feiten gepleegd worden met AI.

AI Coalitie

40.

Welke partijen nemen naast de overheid nog meer deel aan de Nederlandse AI Coalitie?

Antwoord 40:

Naast overheden gaat om het grootbedrijf, MKB, kennis- en onderwijsinstellingen, brancheorganisaties en ziekenhuizen. U vindt een overzicht van de deelnemende partijen via https://nlaic.com/coalitiepartners

41.

Welke criteria worden gebruikt om partijen te selecteren voor de AI Coalitie?

Antwoord vraag 41:

Van deelnemende partijen worden concrete bijdragen verwacht aan de werkzaamheden van de Coalitie. Het moet gaan om in Nederland gevestigde rechtspersonen (geen privé personen), die aantoonbaar activiteiten hebben of plannen hebben, die bijdragen aan de ontwikkeling van Nederland op AI-gebied.

Overig

3.

Wanneer vindt de evaluatie van de wet Computercriminaliteit III plaats?

Antwoord vraag 3:

Twee jaar na de inwerkingtreding op 1 maart 2019 wordt de wet CCIII geëvalueerd door het WODC.

31.

Wordt ook overwogen om het Juridisch Loket te vervangen door AI? Zal zo'n Juridische Robot een positief of een negatief effect hebben op de kwaliteit van de advisering?

Antwoord vraag 31:

In de tweede voortgangsrapportage van het programma Rechtsbijstand (brief d.d. 19 december 2019, Kamerstuk 31 753, nr. 190) is uiteengezet op welke manier het Juridisch Loket bezig is de eigen dienstverlening dichter bij de burger te brengen. Onderdeel van het programma is ook de verbetering van online informatie en advies. Het einddoel is dat meer mensen terecht kunnen in een betrouwbare, begrijpelijke online omgeving, die met meer functionaliteiten op interactieve wijze helpt om problemen op te lossen. De komende tijd wordt een plan van aanpak gemaakt voor deze online omgeving. De Minister voor Rechtsbescherming sluit niet bij voorbaat uit dat in deze online omgeving ook artificiële intelligentie (AI) wordt ingezet. De inzet van AI en algoritmen in de rechtspleging dient steeds op verantwoorde wijze te geschieden. IJkpunten daartoe heeft de Minister voor Rechtsbescherming geschetst in zijn brief aan de Eerste Kamer.16

Robocop en andere filmverwijzingen

32.

Zijn politieagenten op straat ook te vervangen door AI? Aan welke concrete verschijningsvorm kan daarbij gedacht worden? Moet daarbij gedacht worden aan een variant op Robocop (een figuur uit een Amerikaanse sciencefiction-actiefilm uit 1987 en 2014)?

33.

Wat waren de positieve en negatieve kanten aan het functioneren van Robocop, in uw ogen? Kunt u hierbij ook ingaan op de kwaliteiten van Judge Dredd (een Amerikaanse actiefilm uit 1995)? Valt de Terminator (1984 e.v.) volgens u ook onder de gewenste AI?

Antwoord vragen 32 en 33:

Er is geen sprake van het vervangen van politieagenten op straat door AI. AI wordt gebruikt ter ondersteuning van het politiewerk. Zoals vele organisaties (bijvoorbeeld in de zorg) experimenteert de politie wel op kleine schaal met robotisering. Het is niet aan mij als Minister van Justitie en Veiligheid om in te gaan op de kwaliteiten, positieve en negatieve kanten van fictieve karakters uit Hollywoodfilms.

74.

Klopt het dat het boek «1984» (met daarin Big Brother) uit 1948, en de daarin beschreven surveillancestaat, in China inmiddels een realiteit geworden is? Kunt u uitsluiten dat elementen van zo’n politiestaat in Nederland ingang zullen vinden?

Antwoord vraag 74:

Helder moge zijn dat ik geen surveillance staat voor sta. De ontwikkelingen over AI bij de politie zoals die uit brief blijken geven ook geen aanleiding voor vrees daartoe. De Nederlandse wetgeving, de Europese richtlijnen en het EVRM zijn en blijven leidend bij de verdere ontwikkeling van AI. Ten aanzien van de vraag over China verwijs ik naar de brief van de Minister van Buitenlandse zaken dd. 15 mei jl.17


X Noot
1

Kamerstukken 26 643 en 32 761, nr. 652.

X Noot
3

Kamerstukken 26 643 en 32 761, nr. 641.

X Noot
6

Kamerstuk 26 643, nr. 657.

X Noot
7

Bijlage bij Kamerstuk 29 628, nr. 835.

X Noot
8

Kamerstuk 30 950, nr. 183.

X Noot
9

Bijlage bij Kamerstuk 29 628, nr. 835.

X Noot
10

Bijlage bij Kamerstuk 29 628, nr. 835.

X Noot
11

Kamerstuk 26 643, nr. 657.

X Noot
12

Kamerstukken 26 643 en 32 761, nr. 652

X Noot
13

Kamerstukken 32 761 en 30 821, nr. 152.

X Noot
14

Kamerstuk 26 643, nr. 641.

X Noot
15

Kamerstuk 35 170, nr. 2.

X Noot
16

Kamerstuk 34 775 VI, AH.

X Noot
17

Kamerstuk 35 207, nr. 1.