35 212 Initiatiefnota van het lid Middendorp: Menselijke grip op algoritmen

Nr. 3 BRIEF VAN DE MINISTER VOOR RECHTSBESCHERMING EN DE STAATSSECRETARISSEN VAN BINNENLANDSE ZAKEN EN KONINKRIJKSRELATIES EN VAN ECONOMISCHE ZAKEN EN KLIMAAT

Aan de Voorzitter van de Tweede Kamer der Staten-Generaal

Den Haag, 20 april 2020

Op 6 juni 2019 heeft uw Kamer de Minister voor Rechtsbescherming verzocht om een reactie te geven op de initiatiefnota «Menselijke grip op algoritmen» van het lid van uw Kamer Middendorp.1 In de initiatiefnota wordt de Minister voor Rechtsbescherming verzocht om met betrokken collega’s – in het bijzonder de Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties en de Staatssecretaris van Economische Zaken en Klimaat – te werken aan een aantal deeloplossingen die in de nota worden genoemd.2 In deze brief reageren wij gezamenlijk op de initiatiefnota.

Om de voorstellen in de initiatiefnota te bespreken is het belangrijk om eerst duidelijk te maken wat het kabinet, zowel in algemene zin als in de context van de initiatiefnota, verstaat onder algoritmen en «Artificial Intelligence». Zoals toegelicht in de brief «Transparantie van algoritmen in gebruik bij de overheid» is een algoritme in beginsel een set instructies om een bepaalde taak uit te voeren.3 Er bestaan verschillende typen algoritmen, het ene complexer dan het andere. Simpelere algoritmen, zoals een «beslisboom», worden al jaren ingezet, zo ook door de overheid. Dit gebeurt bijvoorbeeld bij het verlenen van vergunningen.

Dit zijn vaak één-op-één vertalingen van vormen van wetgeving en beleidsregels. Dit is anders bij het gebruik van algoritmen waarbij op basis van eerdere gevallen een voorspelling wordt gedaan. Wanneer systemen intelligent gedrag vertonen en op basis daarvan met een zekere zelfstandigheid acties ondernemen, noemen we dit artificiële intelligentie (hierna: AI). Waar wij in deze reactie het begrip algoritmen gebruiken, valt AI hier dus onder. Het kabinet ziet dat bepaalde risico´s voor de menselijke grip op algoritmen zich voordoen bij alle soorten algoritmen, bijvoorbeeld wanneer er foute informatie in een systeem wordt ingevoerd. Het kabinet wil echter ook benadrukken dat er specifieke risico’s zijn die zich voornamelijk voordoen bij meer intelligente systemen, bijvoorbeeld ten aanzien van de uitlegbaarheid van uitkomsten. Met name bij het gebruik van neurale netwerken zien wij een risico omdat de output daarvan niet altijd goed verklaarbaar is.4 Deze benadering, waarbij aandacht is voor de variërende grootte van de risico´s bij de inzet van algoritmen, ziet het kabinet ook terug in de initiatiefnota.

De initiatiefnota vraagt terecht onze aandacht voor de vraag of we wel voldoende menselijke controle over de inzet van algoritmen hebben en doet een aantal interessante voorstellen om deze controle te bestendigen of vergroten. In algemene zin kunnen wij ons in verregaande mate vinden in de door de indiener voorgestelde oplossingen. Het gebruik van algoritmen kan immers naast positieve ook negatieve effecten op de samenleving hebben. De overheid heeft dan ook de taak om er zorg voor te dragen dat Nederland zowel de economische en maatschappelijke kansen van algoritmen verzilvert als de publieke belangen die daarbij in het geding kunnen zijn, borgt.5 Het kabinet wil dat het verzilveren van kansen en het creëren van waarborgen hand in hand gaan. Hiermee volgt Nederland de Europese aanpak voor «mensgerichte AI».6 Deze ethische benadering van AI moet het vertrouwen van burgers in digitale ontwikkeling versterken en is een unieke propositie voor Europa om zich internationaal mee te onderscheiden in de markt voor AI-toepassingen.7 Deze benadering heeft concreet vorm gekregen in de op 19 februari jl. door de Europese Commissie gepubliceerde Europese digitale agenda, specifiek in het document «White paper on Artificial Intelligence: a European approach to excellence and trust» (hierna: witboek AI).8 Conform de gebruikelijke procedure voor een witboek zal de concept-kabinetsreactie aan de Kamer worden toegezonden en wordt de Kamer in de gelegenheid gesteld daarop te reageren.

Graag wijzen wij erop dat het AI-beleid van het kabinet is neergelegd in de stukken die op 8 oktober 2019 aan uw Kamer zijn gezonden, te weten het Strategisch Actieplan voor AI (SAPAI), de brief van de Minister van Binnenlandse Zaken en Koninkrijksrelaties over «AI, publieke waarden en mensenrechten» en de brief van de Minister voor Rechtsbescherming over «waarborgen tegen risico’s van data-analyses door de overheid» met de bijbehorende «Richtlijnen voor het toepassen van algoritmen door overheden» (hierna: de richtlijnen).9 Met voorliggende brief, waarin ook de reactie van het kabinet op het onderzoeksrapport «Toezicht op algoritmegebruik door de overheid» is opgenomen (zie hierna onder IV en Bijlage 210), wordt het AI-beleid van het kabinet op het terrein van het toezicht op AI verder ingevuld.

De initiatiefnota verzoekt ons te werken aan een aantal deeloplossingen. In deze brief zullen wij puntsgewijs reageren op de afzonderlijke verzoeken.

I. Samenwerking

a) Het nauwgezet en stelselmatig betrekken van maatschappelijke organisaties, bedrijven en mensen uit de praktijk. Dat kan in een nationaal algoritme-samenwerkingsverband waarin het ontwikkelen van ideeën en het agenderen van en het bevorderen van een praktische discussie over de rol van algoritmen in onze samenleving centraal staat.

Het kabinet is net als de indiener van mening dat nauwe samenwerking op dit onderwerp van groot belang is. In SAPAI wordt al benoemd dat publiek-private samenwerking op dit thema essentieel is. Een voorbeeld daarvan is de Nederlandse AI-coalitie, waarin de overheid, het bedrijfsleven, maatschappelijke organisaties en onderzoeksinstellingen samenwerken. In deze coalitie is aandacht voor de «mensgerichte (human-centric) benadering van AI» en «maatschappelijke acceptatie en inclusie». Dit vertaalde zich bijvoorbeeld in het stimuleren van bedrijven en overheden om deel te nemen aan de pilotfase van de ethische richtsnoeren voor AI van de high level expert group die is ingesteld door de Europese Commissie.11 De resultaten van deze pilot hebben gediend als input voor het witboek AI van 19 februari jl. Wij zijn nog in afwachting van het rapport over de opbrengst van de pilot.

Verder heeft het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BZK) in samenwerking met het Ministerie van Justitie en Veiligheid (JenV), de VNG en andere overheidsorganisaties geëxperimenteerd met de richtlijnen uit de brief «waarborgen tegen de risico’s van data-analyse door de overheid», om zo te komen tot voor de praktijk bruikbare en effectieve waarborgen.12 Maatschappelijke acceptatie en vertrouwen zullen immers alleen ontstaan wanneer er voldoende waarborgen bestaan bij het gebruik van AI en algoritmen.

Naast de reeds bestaande samenwerkingsgremia kan er ook nog intensiever worden samengewerkt als het gaat om AI, publieke waarden en mensenrechten. Daarom is er in januari van dit jaar onder leiding van het Ministerie van BZK een samenwerkingsplatform opgericht om de samenhang binnen het op mensenrechten gebaseerde AI-beleid te bevorderen en kennis op het onderwerp AI, publieke waarden en mensenrechten te versterken.13 De eerste bijeenkomst van dit platform is benut om met de onderzoekers van bovengenoemd rapport «Toezicht op algoritmegebruik door de overheid» in dialoog te gaan over hun bevindingen en aanbevelingen.

b) Europese en internationale samenwerking gericht op het veilig inzetten van algoritmen waarbij innovatie niet belemmerd wordt en op een manier die werkt voor grote en kleine bedrijven.

Het kabinet is voorstander van een Europese aanpak om de veilige inzet van AI en algoritmen te borgen en spant zich in om de kabinetspositie over AI, zoals vervat in de drie AI-beleidsbrieven van 8 oktober 2019, ook in Europees verband uit te dragen. In de initiatiefnota wordt opgemerkt dat Europese samenwerking essentieel is, gelet op het grensoverschrijdende karakter van de materie, maar dat er bij Europese initiatieven ook een gevaar bestaat dat er een «one-size fits all» benadering wordt gekozen, met alle negatieve neveneffecten van dien. Het kabinet besteedt in zijn beleid aandacht aan de speciale positie van MKB-ondernemingen.14 Dit zal het ook doen in de uitwerking van de Nederlandse inzet ten aanzien van de op 19 februari 2020 door de Commissie gepresenteerde digitale strategie. Zoals eerder benoemd zal er een concept-kabinetsreactie aan de Kamer worden voorgelegd.

Verder participeren verschillende departementen op het eigen beleidsterrein in internationale en Europese verbanden waar wordt gesproken over de ontwikkeling en het veilige gebruik van algoritmen. In bijlage 1 bij deze brief is een niet uitputtend overzicht van de Nederlandse participatie in dergelijke verbanden opgenomen15.

Voorts wijzen wij u nog graag op het in Nederland gevestigde AI-onderzoeksnetwerk CLAIRE. Deze Europese confederatie van AI laboratoria richt zich op «mensgerichte AI» en werkt aan AI die past binnen de Europese juridische en ethische kaders.16

c) Onderzoeken waar Europese en waar nationale standaarden nodig zijn. Daarbij steeds de Nederlandse kennis en kunde waarborgen. Bijzondere aandacht geven aan die situaties waar algoritmen (potentieel) grote impact op mensen hebben.

In de initiatiefnota wordt er naar het oordeel van het kabinet terecht op gewezen dat het van groot belang is dat de rijksoverheid een actieve positie inneemt in de ontwikkeling van standaarden voor het ontwikkelen en gebruiken van algoritmen, specifiek wanneer deze een grote impact op mensen hebben. Dit om er zorg voor te dragen dat de standaarden de juiste waarborgen bevatten en om te voorkomen dat er een «lappendeken» van standaarden ontstaat. Het kabinet vindt het hierbij belangrijk dat de Nederlandse kennis en kunde over algoritmen wordt vervat in internationaal geharmoniseerde standaarden die recht doen aan de Europese waarden en normen.17

In bijlage 1 bij deze brief wordt een overzicht gegeven van de verschillende standaarden die bij verscheidene nationale en internationale organisaties in ontwikkeling zijn18. Wij volgen deze ontwikkelingen nauwgezet en werken toe naar verdere completering van dit overzicht om bedrijven en overheden te ondersteunen met het krijgen van overzicht op dit punt.

Verder doet het Ministerie van BZK bijvoorbeeld onderzoek naar het operationaliseren van mensenrechten tot systeemprincipes voor AI-ontwikkelaars om discriminatie in systemen te voorkomen. Deze systeemprincipes zullen naar verwachting voor de zomer van dit jaar aan bedrijfsleven en overheid beschikbaar worden gesteld. Tevens ontwikkelt dit ministerie de mogelijkheden om een breder mensenrechten impact assessment voor overheden. Een ander concreet actiepunt is dat het Ministerie van Economische Zaken en Klimaat (EZK) de mogelijkheden verkent om het gebruik van de zogeheten FAIR-principes (Findable, Accesible, Interoperable en Reusable) voor het delen van data voor AI-toepassingen te stimuleren. In de eerste helft van 2020 worden de resultaten verwacht van een opdracht om een certificeringsinstrument te ontwikkelen voor de naleving van de FAIR principes voor data. Meer informatie over deze initiatieven is opgenomen in bijlage 1 bij deze brief.

d) Analyse van de huidige samenwerking tussen gemeenten, provincies en Rijk als het gaat om algoritmen en voorstellen doen voor een kenniscentrum voor algoritmen waar ideeën over het gebruik en regulering kunnen worden uitgewisseld.

Het kabinet wil ervoor zorgen dat de verschillende lagen van de overheid tot gezamenlijke ideeën komen over de inzet en regulering van algoritmen. Het kiest er niet voor om één specifiek kenniscentrum voor algoritmen in het leven te roepen, maar onderneemt een aantal initiatieven om dit te bewerkstelligen.

Zo is er het eerdergenoemde samenwerkingsplatform voor AI, publieke waarden en mensenrechten dat in januari van start is gegaan en waarin ook decentrale overheden participeren. Daarnaast willen wij u graag wijzen op het Leer- en Expertisepunt Datagedreven Werken van het Ministerie van BZK. Dit verband bevordert kennisuitwisseling tussen overheden op het terrein van data-gedreven werken. Het gaat hierbij om het delen van kennis en het ontwikkelen van nieuwe richtlijnen en handreikingen om data en algoritmen op een verantwoorde wijze in te zetten. In samenhang hiermee organiseert het kennisplatform big data van ICTU en I-Interim Rijk kennisbijeenkomsten over onder andere algoritmetoepassing voor beleidsmakers en datawetenschappers.

Een ander voorbeeld van samenwerking tussen overheden betreft het onderzoek door de rijksoverheid en de VNG naar de bruikbaarheid en volledigheid van de richtlijnen uit de brief «waarborgen tegen risico’s van data-analyses door de overheid»19, met name op het punt van transparantie en uitlegbaarheid.20

II. Bewustwording

a) Vergroten van het maatschappelijk bewustzijn over kansen en risico’s van algoritmegebruik en de werking daarvan. Daarbij speciale aandacht voor de rechterlijke macht;

Het kabinet zet in op het vergroten van bewustwording over algoritmen onder burgers, specifiek ten aanzien van de effecten die algoritmegebruik op hen heeft. Wanneer burgers het effect van algoritmegebruik beter overzien, zijn zij ook beter in staat om waar nodig hun rechten uit te oefenen. Er zijn dan ook verscheidene initiatieven geweest om dit bewustzijn te vergroten. Zo organiseerde het Ministerie van BZK bijvoorbeeld dialogen met burgers over AI waarin nader wordt verkend hoe burgers aankijken tegen de gewenste inzet van AI en algoritmen door bedrijven en overheden21, ontwikkelde het een AI-lespakket voor middelbare scholieren over AI en lanceerde het de voorlichtingscampagne «www.blijfkritisch.nl» over bewustwording van gepersonaliseerd nieuwsaanbod. Voorts hebben ook toezichthouders een belangrijke rol in de voorlichting over algoritmen. Zo heeft de Autoriteit Persoonsgegevens recent haar visiedocument «Toezicht op AI & Algoritmes» gepubliceerd waarin zij voorlichting geeft over algoritmes, AI en de Algemene Verordening Gegevensbescherming (AVG).22 Niet alleen wordt geïnvesteerd in campagnes om burgers bewuster te maken van algoritmegebruik, ook zijn er richtlijnen ontwikkeld om burgers beter te informeren over algoritmegebruik, waarmee ook de algemene bewustwording over algoritmen wordt vergroot.23

Niet alleen burgers, maar ook rechters moeten zich bewust zijn van algoritmegebruik.24 Het gebruik van AI is immers snel aan het toenemen in de samenleving, bij ondernemers, maar ook onder bestuursorganen. De rechtspraak zal daardoor bijvoorbeeld vaker oordelen over rechtmatigheid van besluiten die (deels) gebaseerd zijn op toepassing van AI. De uitspraak van de Raad van State in de PAS-zaken is daar een goed voorbeeld van.25 Een ander voorbeeld is de toepassing van AI door de rechtspraak zelf. Denk aan het met gebruik van AI zoeken naar relevante jurisprudentie. De informatiepositie van de onafhankelijke rechter moet op een zitting niet onderdoen voor die van grote advocatenkantoren. Voor toepassing van AI en algoritmen in de rechtspleging zijn bijzondere ijkpunten geformuleerd.26 Transparantie, één van de kernwaarden van de rechtspraak, is daar één van. Met het oog op de bijzondere positie van de rechtspleging in onze samenleving is het uitgangspunt dat ervaring moet worden opgedaan met de toepassing van AI en algoritmen, buiten de context van reële, aanhangige rechtszaken of geschillen. Gelet op dit uitgangspunt ligt het op dit moment niet voor de hand om burgers specifiek over algoritmegebruik bij de rechterlijke macht voor te lichten.

b) Waar mogelijk mensen duidelijk maken wanneer er algoritmen gebruikt zijn bij beslissingen, inclusief een versimpelde uitleg of illustratie

In de initiatiefnota wordt naar het oordeel van het kabinet terecht opgemerkt dat transparantie over de inzet van algoritmen een belangrijk middel is om bewustwording te vergroten. Hier komt bij dat transparantie van groot belang is om burgers controle te geven over het gebruik van hun gegevens. De initiatiefnota signaleert echter ook dat er soms belangen zijn die zich tegen transparantie verzetten. Deze belangenafweging is onder meer verankerd in de Algemene Verordening Gegevensbescherming (AVG). In bijlage 1 is daarom een passage opgenomen waarin het AVG-kader met betrekking tot transparantie- en informatieverplichtingen wordt besproken en waarin een koppeling wordt gelegd met de recente brief over «waarborgen tegen risico’s van data-analyse door de overheid» en de bijbehorende richtlijnen.27 In de richtlijnen worden onder meer extra regels over transparantie en uitlegbaarheid voor overheden gesteld. Eén daarvan is bijvoorbeeld dat overheden als uitgangspunt zouden moeten hanteren dat zij geen algoritmen gebruiken die te complex zijn om redelijkerwijs te kunnen worden uitgelegd. Verder bevatten de richtlijnen regels over het bewust zijn van risico’s, uitlegbaarheid, verantwoording, en toetsbaarheid.28 In bijlage 1.2 bij diezelfde brief wordt een kader gesteld voor transparantie over data-analyse door overheden naar het publiek, dus niet alleen specifiek jegens degenen wier informatie wordt verwerkt. Daar komt bij dat, zoals de indiener al benoemt, bestuursorganen specifieke informatieverplichtingen hebben die onder andere voortvloeien uit de algemene beginselen van behoorlijk bestuur en de Wet openbaarheid van bestuur. Naast voornoemde richtlijnen wil het kabinet ook toewerken naar waarborgen die in wetgeving kunnen worden opgenomen. De waarborgen die het kabinet voor ogen staan, zullen er eveneens op gericht zijn de transparantie over algoritmen naar het publiek toe te vergroten.

Meer specifiek in relatie tot de uitlegbaarheid van beslisregels van een algoritme door de overheid geldt in principe dat alleen algoritmen die verder gaan dan een directe vertaling van wet- en regelgeving verder moeten worden uitgelegd.29 Voorts wordt er door verschillende departementen geëxperimenteerd met het betrekken van datawetenschappers bij het maken van wetgeving. Doel hiervan is om ervoor te zorgen dat wetgeving zo wordt opgesteld dat zij in algemene zin beter te vertalen is tot beslisregels in algoritmen, om daarmee te voorkomen dat een algoritme leidt tot uitkomsten die, in relatie tot de betreffende wet, niet uitlegbaar zijn.30

Bedrijven moeten op grond van de AVG voldoen aan hun informatieverplichtingen wanneer zij persoonsgegevens verwerken, zoals toegelicht in bijlage 1 bij deze brief. Verder vloeit uit de consumentenwetgeving voort dat consumenten een geïnformeerde keuze moeten kunnen maken bij het aanschaffen van een product of dienst, wat in bepaalde gevallen ook betekent dat bedrijven duidelijk moeten zijn over algoritmegebruik. Daar komt bij dat in december 2019 de richtlijn voor betere handhaving en modernisering van de regels voor consumentenbescherming in de Europese Unie gepubliceerd.31 Op grond daarvan moeten consumenten geïnformeerd worden wanneer gepersonaliseerde prijzen op automatische wijze tot stand zijn gekomen. Het kabinet vindt het niet raadzaam dat Nederland zelf verdere aanvullende regels voor bedrijven stelt. Zo nodig zullen deze, gelet op het grensoverschrijdende karakter van veel bedrijfsprocessen, in Europees verband moeten worden vastgesteld.32

c) Onderzoeken hoe onderwijs kan bijdragen aan bewustwording over kansen en risico’s van algoritmen

Op dit moment vindt onder regie van de vertegenwoordigende partijen uit het onderwijs een actualisatie plaats van het curriculum voor primair en voortgezet onderwijs. Hierin vormt digitale geletterdheid een van de negen leergebieden die tot het kerncurriculum gaan behoren, omdat het kennis en vaardigheden betreft die van belang zijn om mee te kunnen doen in de samenleving. Onlangs heeft het kabinet een reactie gegeven op de voorstellen die hiervoor zijn gedaan en hoe een uitwerking kan plaatsvinden naar nieuwe onderwijsdoelen.33 Algoritmen en het gebruik hiervan maken onderdeel uit van deze voorstellen in verschillende fases van het onderwijs, bijvoorbeeld bij hoe digitale processen hiermee kunnen worden ingericht. De beoogde wettelijke verankering vindt in 2022 plaats.

III. Mensen instrumenten geven voor online weerbaarheid

a) In overleg met technologiebedrijven de mogelijkheden onderzoeken om mensen online de mogelijkheid te geven in één keer aan te geven wat ze algoritme gebruikende instellingen willen toestaan en wat niet

Het kabinet onderschrijft dat het belangrijk is om te blijven werken aan de online weerbaarheid van burgers, ook als het gaat om het hebben van controle over persoonsgegevens. We verwijzen daarbij onder meer naar de beleidsbrief Regie op Gegevens van 11 juli 2019.34 In die brief wordt aangegeven hoe burgers de controle op hun gegevens kunnen versterken en wordt tevens een reactie gegeven op de initiatiefnota «Online identiteit en regie op persoonsgegevens» van de leden Middendorp en Verhoeven.35

Zoals in onderhavige brief onder II (a) en (b) benoemd zet het kabinet in op het verbeteren van de bewustwording en het vergroten van transparantie en uitlegbaarheid van algoritmen. Hiermee wordt het voor burgers makkelijker om waar nodig hun rechten uit te oefenen. De in dit punt voorgestelde oplossing vinden wij echter niet wenselijk. De wetgeving met betrekking tot gegevensbescherming is namelijk gericht op het verwerken van gegevens. De term «verwerking» is zeer breed, praktisch alles wat men met data kan doen valt hieronder. De specifieke methode waarmee de analyse wordt uitgevoerd is daarom niet van belang, nieuwe technologieën en analysemethoden vallen ook onder de term »verwerking». Object van bescherming zijn de gegevens zelf en de wijze van verwerking daarvan, niet de analysemethode. Het draait erom dat burgers controle hebben over hun gegevens en dat zij controle hebben over het doel van onder de verwerking. Dit vinden wij in beginsel een goed systeem. Binnen deze systematiek is het niet wenselijk om een generieke toestemming voor algoritmegebruik in te stellen.

Allereerst zou de voorgestelde generieke toestemming in strijd zijn met de criteria voor toestemming in de AVG. Aangezien een betrokkene in het voorstel in algemene zin al dan niet toestemming zal geven voor een veelheid aan (types) algoritmen die door een grote verscheidenheid aan instellingen voor allerlei doelen worden gebruikt, zou dat in strijd zijn met het criterium van «voldoende geïnformeerde» toestemming »voor een welbepaald doel» uit de AVG. Daar komt bij dat instellingen die algoritmen gebruiken alsnog aan hun informatieplicht moeten voldoen (artikelen 13 en 14 AVG). De betrokkene zou dus telkens alsnog een informatieverklaring moeten ontvangen. Dit zou de eventuele «winst» van een algemene algoritmetoestemming nog verder beperken.

Ten tweede kennen algoritmen (nog) geen apart juridisch kader. De rechten ten aanzien van en controle over algoritmegebruik die de burger heeft, volgen uit andere rechtsgebieden (zoals het gegevensbeschermingsrecht en het bestuursrecht). Wanneer er persoonsgegevens verwerkt worden is de AVG van toepassing en voor bepaalde communicatiegegevens geldt de Telecommunicatiewet. Niet ieder algoritme maakt echter gebruik van persoons- of telecommunicatiegegevens, wat maakt dat toestemming niet altijd vereist is.

Ten derde moet opgemerkt worden dat zelfs als er wel persoonsgegevens worden gebruikt voor een algoritme, het alsnog niet zo is dat er altijd toestemming vereist is. Het verwerken van persoonsgegevens voor een algoritme moet worden gedaan op basis van een van de zes rechtsgronden in artikel 6 AVG. Voor overheden is het bijvoorbeeld vaak zo dat zij deze gegevens verwerken omdat dit noodzakelijk is voor de uitvoering van hun publieke taak. Ook wanneer er sprake is van geautomatiseerde besluitvorming, wat in beginsel verboden is in artikel 22 AVG, zijn er gevallen waarin er geen toestemming van de betrokkene nodig is om toch van het verbod af te mogen wijken en geautomatiseerde besluitvorming toe te mogen passen (bijvoorbeeld op basis van een wettelijke grondslag).

b) Onderzoek met technologiebedrijven en ICT-brancheorganisaties naar algoritme checkers, keurmerken en ratingsystemen en bestaande initiatieven in deze stimuleren.

Het kabinet juicht toe dat marktpartijen hun verantwoordelijkheid nemen in aanvulling op bestaande wettelijke vereisten. Er zijn verschillende initiatieven die hier invulling aan geven, zoals vertrouwde derde partijen die audits uitvoeren op algoritmen of keurmerken voor verantwoorde AI afgeven.

De meeste initiatieven bevinden zich nog in de ontwikkelfase, met name omdat breed geaccepteerde standaarden waarop keurmerken of certificaten gebaseerd kunnen worden nog onvoldoende voorhanden zijn. Van belang daarvoor zijn met name internationaal geharmoniseerde standaarden (zoals ISO) die recht doen aan Europese waarden en normen. Zoals eerder benoemd streeft het kabinet naar uniforme eisen en een consistente toepassing daarvan. Het zal de ontwikkelingen op dit gebied dan ook nauwgezet volgen en waar nodig ondersteuning bieden om tot een overzicht van deze normen te komen. Verwacht wordt dat de bestaande initiatieven voor algoritmecheckers, keurmerken en ratingsystemen zich verder kunnen ontwikkelen wanneer er breed geaccepteerde normen zijn.

IV. Toezicht dat innovatie de ruimte geeft, MKB-proof is en Nederland online sterk en veilig houdt

In de initiatiefnota wordt ons tevens verzocht aan een aantal deeloplossingen te werken met betrekking tot het toezicht op algoritmen. De voorgestelde deeloplossingen komen in verregaande mate overeen met de vragen die zijn geadresseerd in het onderzoeksrapport «Toezicht op het gebruik van overheidsalgoritmen», dat in opdracht van het Ministerie van BZK is uitgevoerd naar aanleiding van een drietal moties ingediend door de leden Verhoeven en Van der Molen, Middendorp en Drost.36 Om die reden is de reactie van het kabinet op dit onderzoek bij deze brief opgenomen en wordt die u langs deze weg door de Ministers van BZK en JenV aangeboden. Zie hiervoor bijlage 2. Het onderzoek, uitgevoerd door adviesbureau Hooghiemstra & Partners, is op 20 december 2019 aan uw Kamer gezonden.

Op hoofdlijnen houdt deze reactie het volgende in. In lijn met de conclusies van de onderzoekers acht het kabinet het vooralsnog niet opportuun om een aparte toezichthouder op het gebruik van algoritmen in te stellen. Niet alleen zou de instelling van een nieuwe toezichthouder leiden tot een overlap en daarmee concurrentie met de bevoegdheden van de bestaande toezichthouders, in het bijzonder de Autoriteit Persoonsgegevens. Ook zijn er volgens het kabinet geen dusdanige juridische lacunes in de toezichttaken die de noodzaak van een nieuwe toezichthouder rechtvaardigen. In plaats van een meldplicht voor ingrijpende algoritmen, waar in de moties om wordt gevraagd, zal het kabinet een algoritme impact assessment ontwikkelen, dat kan worden gekoppeld aan een zogenaamde voorafgaande raadpleging bij de betreffende toezichthouder en een mogelijke publicatieverplichting. Verder acht het kabinet het van groot belang dat het toezicht op het gebruik van algoritmen een meer structureel karakter krijgt en dat organisaties actiever met elkaar samenwerken en kennisdelen. Het kabinet zal hierover in gesprek gaan met de toezichthouders. Met de ADR zal worden verkend welke rol zij kan spelen bij het op structurele basis uitvoeren van audits op het algoritmegebruik door de rijksoverheid.

Met de onderzoekers onderschrijft het kabinet het belang van een helder normenkader voor het adequaat kunnen houden van toezicht. Met de eerdergenoemde richtlijnen is hier een belangrijk begin mee gemaakt. Dit traject wordt voortgezet, zoals aangekondigd in de brief van 8 oktober 2019 over waarborgen tegen risico’s van data-analyses.

Tenslotte, en in lijn met de aanbevelingen van de onderzoekers zal het kabinet verkennen of een (wettelijk verankerde) experimenteerruimte voor overheidsorganisaties op het gebied van de inzet van algoritmen kan worden gerealiseerd en hoe de dialoog tussen overheidsorganisaties en wetenschappers een structureel karakter kan krijgen om tot gezamenlijke definities en gedragen oplossingen op het terrein van AI en algoritmen te komen.

Een aantal in de initiatiefnota voorgestelde deeloplossingen komen in bijlage 2 niet aan de orde. In het onderstaande gaan we daar alsnog op in.

a) Een inventarisatie maken van de gekozen aanpak in het buitenland om algoritme gebruikende instellingen meer te laten communiceren over algoritmegebruik. Daarbij specifiek naar Duitsland, Frankrijk, Groot-Brittannië en de Verenigde Staten te kijken.

Er wordt via de diplomatieke vertegenwoordigingen uitvraag gedaan naar de gekozen aanpak in de genoemde landen. Vooralsnog is er vanuit één van deze landen een reactie ontvangen. Wanneer alle reacties binnen zijn zullen we de gevraagde inventarisatie aan uw Kamer doen toekomen. Naar verwachting zal deze inventarisatie voor de zomer van 2020 gereed zijn.

b) Bundelen van huidige kennis en lopende onderzoeken op de verschillende ministeries en toezichthouders

Zoals reeds vermeld onder punt I(a) van deze brief, is in januari 2020 een nieuw samenwerkingsplatform opgericht worden ter bevordering van de samenhang van beleid en kennis ten aanzien van AI, publieke waarden en mensenrechten. Wat betreft het bundelen van de kennis van toezichthouders verwijzen wij u naar bijlage 2. De verder lopende onderzoeken op verschillende departementen lenen zich niet voor bundeling van de resultaten.

c) Andere openstaande deeloplossing t.a.v. het bedrijfsleven

Wat betreft het bedrijfsleven is het kabinet voornemens om eerst af te wachten hoe de richtlijnen voor data-analyse voor overheden in de praktijk uitpakken. Vervolgens zal er aan de hand daarvan worden nagedacht over de vraag of deze richtlijnen, dus ook op het gebied van uitlegbaarheid en auditeerbaarheid, ook moeten gelden voor (delen van) het bedrijfsleven. Hier komt nog bij dat het kabinet er de voorkeur aan geeft dat eventuele verdere regels voor data-analyse door het bedrijfsleven in Europees verband worden vastgesteld. Het kabinet juicht toe dat bedrijven extra verantwoordelijkheid nemen, bijvoorbeeld door gebruik te maken van derde partijen die een audit uitvoeren. Daar komt bij dat bedrijven hun eigen AI-toepassingen ook grondig kunnen evalueren, bijvoorbeeld door gebruik te maken van het AI-Impact assessment dat is ontwikkeld door het ECP en het Ministerie van EZK.37 Een verplichte verantwoording in de vorm van een rapportage is wat ons betreft nog niet aan de orde, omdat er, zoals hierboven toegelicht, nog geen specifieke normen worden gesteld.

d) Een taskforce instellen met als opdracht een operationeel toezichtkader uit te werken op basis van de in de Initiatiefnota genoemde principes en kenmerken

Voor zover dit overheden betreft is, is een dergelijk toezichtkader reeds in ontwikkeling in de vorm van de eerdergenoemde richtlijnen en zijn er naar aanleiding van het onderzoeksrapport van adviesbureau Hooghiemstra & Partners, diverse acties in gang gezet om het toezicht te versterken. Zie hierover bijlage 2 bij deze brief.

Voor wat betreft het bedrijfsleven geldt dat, zoals onder IV. c) is aangegeven, het niet voor de hand ligt om op nationaal niveau aanvullende normen of verplichtingen te stellen. Hetzelfde geldt voor het toezicht op algoritmen gebruikt door bedrijven: een nieuwe toezichthouder voor het bedrijfsleven kan mogelijk strijdigheid opleveren met het vrij verkeer van persoonsgegevens: bedrijven die (mede) in Nederland algoritmen aanbieden zouden immers aan extra regels en een extra toezichthouder onderhevig zijn. Daarnaast is relevant dat er, zoals gezegd, momenteel in Europees verband nagedacht wordt over normen alsook over governance en toezichtmechanismen, die ook zullen gelden voor het bedrijfsleven.

Het kabinet acht het niet wenselijk om een taskforce in te stellen voor onderwerpen die reeds onderzocht zijn en tot concrete acties hebben geleid. Desalniettemin zou een taskforce mogelijk een rol kunnen vervullen als het gaat om nieuwe of nog openstaande vraagstukken waar nog geen beleid op is of voor lopende trajecten waarbij een vorm van review door een taskforce zou kunnen bijdragen aan draagvlak en kwaliteit. Het kabinet zal dan ook nader verkennen of, en zo ja, op welke punten en in welke vorm een dergelijke taskforce meerwaarde zou kunnen bieden en hoe deze functioneel kan worden ingebed in de reeds bestaande overlegstructuren en gremia.

Het kabinet zal deze verkenning rond de zomer van 2020 afronden en een besluit nemen over het al dan niet instellen van een taskforce.

Slot

In deze brief zijn wij per punt ingegaan op de door de indiener voorgestelde deeloplossingen en hebben wij daarbij toegelicht welke beleidsinitiatieven er op deze punten reeds lopen. We concluderen dat het kabinet in veel gevallen op hetzelfde spoor zit als de indiener. In veel gevallen wordt er dan ook gewerkt aan de voorgestelde deeloplossingen of kunnen wij ons vinden in de door de indiener gedane voorstellen. Waar dit niet het geval is hebben wij toegelicht waarom het kabinet voor een andere oplossing heeft gekozen dan wel waarom er reden is om te wachten tot duidelijk is wat de resultaten zijn van de bestaande initiatieven.

De Minister voor Rechtsbescherming, S. Dekker

De Staatssecretaris van Binnenlandse Zaken en Koninkrijksrelaties, R.W. Knops

De Staatssecretaris van Economische Zaken en Klimaat, M.C.G. Keijzer


X Noot
1

Brief van de vaste commissie voor Justitie en Veiligheid van 6 juni 2019.

X Noot
2

Kamerstuk 35 212, nr. 2, p. 10.

X Noot
3

Kamerstuk 26 643, nr. 570, blz. 2–3.

X Noot
4

Kamerstuk 26 643, nr. 570, blz. 2.

X Noot
5

Kamerstuk 26 643, nr. 640, blz. 6.

X Noot
6

European Commission, «Coordinated plan on AI», 7 december 2018.

X Noot
7

Kamerstuk 26 643, nr. 640, blz. 43.

X Noot
9

Kamerstuk 26 643, nrs. 640, 642, resp. 641.

X Noot
10

Raadpleegbaar via www.tweedekamer.nl.

X Noot
11

Kamerstuk 26 643, nr. 640, blz. 43.

X Noot
12

Kamerstuk 26 643, nr. 640, blz. 13. Bijlage 2 bij deze brief gaat in op de bevindingen voor de rijksoverheid. Raadpleegbaar via www.tweedekamer.nl.

X Noot
13

Kamerstuk 26 643, nr. 642, blz. 5–6.

X Noot
14

Kamerstuk 26 643, nr. 640, blz. 23–24, 27, 31.

X Noot
15

Raadpleegbaar via www.tweedekamer.nl.

X Noot
17

Kamerstuk 26 643, nr. 640, blz. 45.

X Noot
18

Raadpleegbaar via www.tweedekamer.nl.

X Noot
19

Zie bijlage 1.2 bij Kamerstuk 26 643, nr. 641.

X Noot
20

Bijlage 2 gaat nader in op de uitkomsten van de (eerste) analyse voor het rijk en op het vervolgtraject met betrekking tot het toepassen en door ontwikkelen van de richtlijnen.

X Noot
21

Kantar Public (februari 2019). Nederlanders over Artificiële Intelligentie. Onderzoek naar de kennis en houding van burgers en ondernemers over Artificiële Intelligentie (AI).

X Noot
23

Zie bijlage 1.2 bij Kamerstuk 26 643, nr. 641.

X Noot
24

Zie ook de brief aan de Eerste Kamer van 19 december 2018 over de toepassing van AI en algoritmen in de rechtspleging, Kamerstuk 34 775, AH.

X Noot
25

ECLI:NL:RVS:2017:1259, Raad van State, 17 mei 2017.

X Noot
26

Idem.

X Noot
27

Kamerstuk 26 643, nr. 641.

X Noot
28

Kamerstuk 26 643, nr. 641 (bijlage 1).

X Noot
29

Aanhangsel Handelingen II 2019/20, nr. 3088. Hiermee wordt ook een reactie gegeven op een vraag van het Kamerlid Futselaar (SP) tijdens een debat op 10 september 2019 over digitalisering (Handelingen II 2018/19, nr. 106, item 26).

X Noot
30

Zie hierover ook bijlage 2 bij deze brief.

X Noot
31

Richtlijn (EU) 2019/2161 van het Europees parlement en de Raad van 27 november 2019 tot wijziging van Richtlijn 93/13/EEG van de Raad en Richtlijnen 98/6/EG, 2005/29/EG en 2011/83/EU van het Europees parlement en de Raad wat betreft betere handhaving en modernisering van de regels voor consumentenbescherming in de Unie.

X Noot
32

Kamerstuk 26 643, nr. 641, blz. 3.

X Noot
33

Kamerstuk 31 293, nr. 495.

X Noot
34

Kamerstuk 32 761, nr. 147.

X Noot
35

Kamerstuk 34 993, nr. 2.

X Noot
36

Kamerstuk 26 643, nr. 610, Kamerstuk 35 200 VII, nr. 14 en Kamerstuk 26 643, nr. 632.

X Noot
37

Kamerstuk 26 643, nr. 640.

Naar boven