35 212 Initiatiefnota van het lid Middendorp: Menselijke grip op algoritmen

Nr. 4 VERSLAG VAN EEN SCHRIFTELIJK OVERLEG

Vastgesteld 1 juli 2020

De vaste commissie voor Justitie en Veiligheid heeft een aantal vragen en opmerkingen voorgelegd aan de initiatiefnemer van de initiatiefnota over menselijke grip op algoritmen (Kamerstuk 35 212, nr. 2).

De vragen en opmerkingen zijn op 18 september 2019 aan de initiatiefnemer voorgelegd. Bij brief van 10 juni 2020 zijn de vragen beantwoord.

De voorzitter van de commissie, Van Meenen

Adjunct-griffier van de commissie, Burger

Vragen en opmerkingen van de leden van de VVD-fractie

Algemeen

De leden van de VVD-fractie constateren dat het kabinet in antwoord op de initiatiefnota Menselijke Grip op Algoritmen (Kamerstuk 35 212, nr. 2) een taskforce onderzoekt om het wettelijk kader en toezicht rondom algoritmen/Artificiële intelligentie (AI) te onderzoeken en met voorstellen te komen. Zo’n taskforce zou ook belangrijke input kunnen leveren aan de positionering van Nederland in de Europese dialoog over AI. Is het kabinet het hiermee eens en kan het dit meenemen in het onderzoek naar de genoemde taskforce?

Antwoord

Het kabinet verkent momenteel in welke vorm1 een dergelijke taskforce meerwaarde kan hebben. Onderdeel van deze verkenning is ook dat wordt bezien met welke vraagstukken een mogelijke taskforce zich bezig zou kunnen houden. Het kabinet zal rond de zomer van 2020 een besluit nemen over het al dan niet instellen van de taskforce. U zal hier dan over worden geïnformeerd via de reguliere kanalen.

1.1 Algemene appreciatie ecosysteem van vertrouwen

De leden van de VVD-fractie lezen dat er voor een meer diepgaande appreciatie een verdere concretisering van de door de Commissie beoogde risicogerichte aanpak nodig is. Wanneer wordt deze verdere concretisering verwacht?

Antwoord

Op 19 februari jl. heeft de Europese Commissie het witboek AI gepresenteerd. Tegelijkertijd is de Commissie een consultatieprocedure begonnen voor dit witboek teneinde input op de voorgestelde aanpak te ontvangen van lidstaten en relevante stakeholders. De kabinetsappreciatie fungeert als Nederlandse inbreng voor deze consultatie. De inbreng uit deze consultatieprocedure zal door de Commissie worden meegenomen in een concreet voorstel dat zij zal uitwerken dat vooralsnog wordt verwacht in het eerste kwartaal van 2021. Het kabinet beziet hoe Nederland in aanvulling hierop verder bij kan dragen aan uitwerking van deze concretisering.

Deze leden vragen in hoeverre de «lerende aanpak» invloed heeft op de snelheid van de invoering van AI-toepassingen. Kan het voorkomen dat deze aanpak de invoering van AI-toepassingen op enige manier belemmert of vertraagt? Zo ja, acht het kabinet de dit problematisch?

Antwoord

Het kabinet pleit voor een «lerende aanpak» waarbij onderzoek, experimenten en pilots moeten uitwijzen of (en waar) problemen ontstaan. Hierbij is het belangrijk dat de resultaten van de lerende aanpak snel beschikbaar zijn zodat waar nodig en mogelijk tijdig geïnvesteerd kan worden in generieke wettelijke waarborgen, dit mede vanuit het oogpunt van rechtszekerheid. Daarmee kan worden bijgedragen aan het creëren en behouden van voldoende vertrouwen in AI-toepassingen binnen de samenleving. Dit vertrouwen is essentieel voor de verdere ingebruikname van AI-toepassingen. De lerende aanpak combineert deze noodzaak voor vertrouwen in mensgerichte AI met de mogelijkheid om wel stappen te zetten in het gebruik van AI-toepassingen. Daarmee ziet het kabinet de lerende aanpak juist als een manier om de inzet van AI te bespoedigen.

Wanneer het kabinet het heeft over het wegnemen van risico’s van AI door het invoeren van wetgeving, aan welke risico’s denkt het dan?

Antwoord

Wanneer nieuwe technologieën worden ingezet of in een nieuwe context worden toegepast gaat dit vaak gepaard met een transformatie van bestaande processen. Voorbeelden van risico’s waaraan gedacht kan worden zijn continue reproductie door een algoritmisch systeem van discriminatie van individuen of groepen op onwenselijke gronden of aansprakelijkheidsvraagstukken bij autonoom opererende zelflerende systemen. Dit zijn complexe socio-technologische processen waarbij niet op voorhand te zeggen valt op welke wijze dit precies beslag krijgt en welke risico’s zich voordoen. Daarom is de lerende aanpak van belang, waarbij voor elke stap wordt gekeken op welke wijze de kansen van de technologie gemaximaliseerd kunnen worden, welke risico’s zich voordoen en op welke wijze deze risico’s het beste kunnen worden weggenomen. Of aanvullende wetgeving nodig is, en zo ja, in welke vorm, kan dan pas worden vastgesteld.

Hoe verzekert het kabinet dat deze wetgeving geen vertraging zal oplopen ten aanzien van de invoering van AI-toepassingen en dat de EU hierdoor niet aan concurrentievermogen verliest ten opzichte van bijvoorbeeld de Verenigde Staten en China, waar minder strenge wetgeving geldt en innovaties sneller de markt op kunnen komen?

Antwoord

Op dit moment is het een voorstel tot wetgeving. Het kabinet zal bij de Europese Commissie blijven verzoeken om het voorstel voor wetgeving met prioriteit te (blijven) behandelen.

4B. Richting geven aan de inspanningen van de onderzoeks- en innovatiegemeenschap

De leden van de VVD-fractie lezen dat Nederland het belangrijk vindt dat de acties van de Commissie aansluiten bij de, door de NWO uitgebrachte, AI-onderzoeksagenda. In hoeverre is daar nu sprake van? Wat doet het kabinet om de acties van de Commissie aan te sturen?

Antwoord

De Europese Commissie heeft aangegeven dit jaar het gecoördineerd actieplan voor AI te herzien. Het kabinet vindt het belangrijk dat op het gebied van de onderzoeks- en innovatiegemeenschap zoveel mogelijk wordt aangesloten bij acties uit de lidstaten om kennis en innovatie over AI in Europa te versterken, zoals ook de door de NWO uitgebrachte AI-onderzoek agenda. Het kabinet gaat de NWO onderzoeksagenda onder de aandacht brengen bij de Commissie.

4D. Focus op het mkb

Ook lezen de leden van de VVD-fractie dat een digitale innovatie per lidstaat een hoge mate van specialisatie dient te hebben. Wat wordt hier mee bedoeld? Is het kabinet het met deze leden eens dat innovatie dient plaats te vinden in de lidstaten die hier het beste toe in staat zijn?

Antwoord

Het kabinet is van de mening dat innovatie moet aansluiten op de nationale acties en bestaande nationale en regionale innovatiehubs. Het streven van de Europese Commissie is dat alle European Digital Innovation Hubs (EDIH) een specialisatie hebben gericht op de omgeving en context van de specifieke hub en dat elke lidstaat één digitale innovatie hub heeft met een hoge mate van specialisatie op AI. Dat betekent dat de specifieke EDIH bedrijven zou moeten helpen met AI-toepassingen of data-opties. De Europese Commissie zal een beoordeling doen op de voorstellen of de hub voldoet aan de voorwaarden.

4E. Partnerschap met de private sector

Verder lezen de leden van de VVD-fractie dat de Commissie een nieuw publiek-privaat partnerschap op te richten voor AI. Kan het kabinet toelichten wat zij de toegevoegde waarde van een dergelijk agentschap vindt? Hoe kan een dergelijk Agentschap complementair zijn aan de bestaande publiek-private samenwerkingsverbanden?

Antwoord

In het kader van Horizon Europe komt de Commissie met het initiatief om een nieuw publiek-privaat partnerschap op te richten voor AI, geen agentschap. De toegevoegde waarde van Europese samenwerking in een publiek-privaat partnerschap zit in de bundeling van krachten van lidstaten. Voor betrokkenheid van het bedrijfsleven bij onderzoek en innovatie is het voor Nederland van belang dat dit initiatief complementair is aan de bestaande publiek-private samenwerkingsverbanden in de lidstaten, zoals in Nederland onder de Smart Industry hubs en de overkoepelende publiek-private samenwerking in de Nederlandse AI Coalitie. Deze Nederlandse initiatieven werken complementair aan elkaar met als gezamenlijk doel om de groei en het concurrentievermogen van de Nederlandse economie te versterken met verantwoord en op fundamentele rechten gebaseerd gebruik van AI.

Deze leden lezen dat decentrale overheden een grote rol kunnen spelen bij het integreren van AI in de samenleving en de acceptatie daarvan. Ook lezen zij dat zij een rol kunnen spelen in het opzetten van labs en proeftuinen. Gebeurt dit veel? Zo nee, hoe kan dit worden gestimuleerd?

Antwoord

Lokale en regionale overheden experimenteren regelmatig met een verantwoorde inzet van AI in labs en proeftuinen. Zo is de gemeente Amsterdam nauw betrokken bij het initiatief Civic AI Lab (CAIL), waarin AI wordt ingezet om burgerparticipatie te stimuleren. In dit soort leeromgevingen, krijgen AI-projecten met aandacht voor publieke waarden en fundamentele rechten in een stakeholdernetwerk vorm. Dat zorgt voor een breed gedragen resultaat en brengt verdieping in de bestaande instrumenten om mensgerichte AI te bevorderen. Een ander voorbeeld is het project «AI met impact» dat mede door BZK is gefinancierd. Twee initiatieven worden binnen dit project opgepakt: de inzet van AI om zwerfvuil tegen te gaan en om doorstroming in de sociale woninghuur te bewerkstelligen.

5E. Adressanten

Tot slot lezen de leden van de VVD-fractie dat het kabinet onderzoekt hoe de verantwoordelijkheid voor bijvoorbeeld grote online platforms voor wangebruik van consumentendata vormgegeven kan worden. Wanneer worden de uitkomsten van dit onderzoek verwacht?

Antwoord

Het kabinet benadrukt dat de positie van de digitale consument moet worden versterkt en onderzoekt mogelijkheden daarvoor. Dit is in lijn met de eerder aangenomen motie van het lid Moorlag en Buitenweg2. In het najaar zal uw Kamer hierover worden geïnformeerd.

Vragen en opmerkingen van de leden van de CDA-fractie

De leden van de CDA-fractie hebben kennisgenomen van kabinetsappreciatie Witboek over kunstmatige intelligentie. Zij hebben daarover de volgende vragen en opmerkingen.

1.1 Algemene appreciatie ecosysteem van excellentie

De leden lezen dat het kabinet, samen met de Europese Commissie, signaleert dat een technologie als AI in toenemende mate een plek krijgt in het dagelijks leven van bedrijven. Als voorbeeld zien deze leden dat gesproken wordt over het gebruik van (zorg)data en AI als bijdrage aan de bestrijding van infectieziekten als COVID-19. Zij vinden dit een interessant voorbeeld. Deelt het kabinet de analyse van deze leden dat toepassing van AI bij de bestrijding van verspreiding van infectieziekten alleen kan slagen indien er voldoende, kwalitatief goede data beschikbaar zijn? Ziet het kabinet het spanningsveld tussen het gebruik van dergelijke data en de privacywaarborgen waar de Europese Unie ook voorloper in is? Kan het kabinet daarbij meenemen dat de Autoriteit Persoonsgegevens heeft aangegeven dat telecomdata op dit moment niet mogen worden gebruikt voor dergelijke doeleinden en dat er mogelijk een wetsaanpassing voor nodig zal zijn?

Antwoord

Het kabinet ziet dat er veel initiatieven zijn waarbij wordt voorgesteld om bepaalde gegevens te analyseren, al dan niet met behulp van AI, om daarmee het COVID-19 virus verder in te dammen. Dergelijke voorstellen behoeven inderdaad dat voldoende kwalitatief goede data beschikbaar is. Het is van belang om per initiatief grondig te wegen of het gebruik van dergelijke data rechtmatig is. Het kan voorkomen dat een voorstel om gegevens te gebruiken niet in overeenstemming is met de normen uit de gegevensbeschermingswetgeving, of een inbreuk op fundamentele rechten, zoals vervat in onder meer het EVRM en de Grondwet, met zich mee zou brengen. Dit betekent echter niet dat gegevens per definitie niet gebruikt kunnen worden. Vaak kunnen er extra maatregelen worden getroffen (bijvoorbeeld door privacy by design toe te passen) om bijvoorbeeld de privacy van burgers beter te borgen en toch de voordelen van een gegevenswerking (bijvoorbeeld een AI-toepassing) in te kunnen zetten teneinde bij te dragen aan het tegengaan van de COVID-19 pandemie. Het door de leden aangedragen onderwerp van het uitwisselen van telecomgegevens is daarvan een sprekend voorbeeld. De Autoriteit Persoonsgegevens heeft aangegeven dat er een wettelijke basis moet zijn voor het uitwisselen van gegevens, omdat bovengenoemde waarborgen dat vereisen. Rekening houdend met die waarborgen aan de ene kant en het belang van de inzet van gegevens aan de andere kant, heeft het kabinet recentelijk een tijdelijke wijziging van de Telecommunicatiewet ingediend3.

In bredere zin vragen de leden van de CDA-fractie het kabinet hoe deze borging van grondrechten, die in Europees verband zijn opgesteld, zich verhoudt tot het voldoende benutten van kansen die kunstmatige intelligentie kan bieden. Ziet het kabinet dat in andere landen, waar minder waarde wordt gehecht aan privacy, de innovatie sneller verloopt?

Antwoord

Het kabinet ziet geen directe relatie tussen de waarde die wordt gehecht aan privacy en de snelheid van innovatie in een land. Factoren zoals de beschikbaarheid van voldoende economische middelen, een goede digitale infrastructuur en excellent wetenschappelijk onderwijs en onderzoek spelen eerder een rol. Wel ziet het kabinet dat de wijze waarop innovatie verloopt per land verschilt, afhankelijk van de waarde die wordt gehecht aan privacy en andere fundamentele rechten en de doelen die landen nastreven. Waar in sommige landen innovatie meer gericht is op het versterken van de staat of waar het vooral ten bate van bedrijven komt, is de Europese (en Nederlandse) benadering gestoeld op de notie dat innovatie voor de gehele samenleving dient te werken.

Om een ecosysteem van excellentie te creëren, legt Nederland de nadruk op het toepassen van een «lerende aanpak». Kan het kabinet duidelijk maken hoe het deze voor zich ziet?

Antwoord

Het kabinet wil graag dat de «lerende aanpak» integraal wordt opgenomen in de herziening van het gecoördineerde plan, waarbij onderzoek, experimenten en pilots moeten uitwijzen of (en waar) problemen ontstaan. Vervolgens moet worden bekeken hoe deze problemen aan de hand van beleid en richtsnoeren en met toepassing van bestaande instrumenten, inclusief wet- en regelgeving, kunnen worden opgelost. Als op basis van deze lerende aanpak blijkt dat nieuwe wet- en regelgeving nodig is, is de vraag of die «generiek» – voor het hele AI-domein – en/of toepassing specifiek moet zijn. Hierbij is het belangrijk dat de resultaten van de lerende aanpak snel beschikbaar zijn zodat waar nodig en mogelijk tijdig geïnvesteerd kan worden in generieke wettelijke waarborgen, dit mede vanuit het oogpunt van rechtszekerheid. Vanuit dit perspectief lijkt de methode van de Commissie om gebieden met een hoog risico te identificeren en haar aanpak voor een onderscheid tussen hoge en lage risico’s vooralsnog positief. Nederland juicht ook toe dat de Commissie de resultaten van de tot nu toe beschikbare experimenten met de Ethische Richtsnoeren heeft verwerkt in onderhavig witboek. Nederland opteert ervoor om in principe aan deze »lerende benadering» vast te houden in het proces waarin we zoeken naar proportionele risico-mitigatie.

De leden van de CDA-fractie lezen dat «het kabinet Europese initiatieven ondersteunt die zijn ingediend in de «Naar een levendig Europees netwerk van AI excellentie centers». Op welke wijze(n) ondersteunt het kabinet deze en met welke middelen?

Antwoord

Het kabinet ondersteunt Europese (onderzoeks)initiatieven waarin Nederlandse onderzoekers deelnemen zoals het ELLIS -en Claire netwerk. De ondersteuning kan bestaan uit het uitspreken van (politieke) ondersteuning van een netwerk of met financiële middelen. Met steun van het kabinet en de gemeente Den Haag heeft het Claire netwerk bijvoorbeeld het Europese hoofdkantoor in Den Haag gevestigd.

Ter bevordering van kennis- en innovatie voor AI kijkt het kabinet naar de mogelijkheden van het aangekondigde groeifonds. De leden van de CDA-fractie vinden dit positief, mede vanuit de gedachte dat we ons als Nederland uit een (economische) coronacrisis moeten «innoveren». Heeft de coronacrisis gevolgen voor dit groeifonds? Wanneer wordt hier meer over bekend?

Antwoord

Het kabinet werkt aan versterken van het Nederlandse duurzame verdienvermogen op de lange termijn. Onderzoek en innovatie zijn belangrijke drijvers van welvaartsgroei, waarbij sleuteltechnologieën als AI van grote impact kunnen zijn op verschillende sectoren. Er wordt gewerkt aan het versterken van onderzoek- en innovatie ecosystemen en het investeringsfonds is volop ontwikkeling. De Minister van Economische Zaken en Klimaat en de Minister van Financiën zullen de Tweede Kamer rond Prinsjesdag nader informeren over het investeringsfonds.

1.2. Algemene appreciatie ecosysteem van vertrouwen

De leden van de CDA-fractie hebben kennisgenomen van de zes aandachtspunten waarmee volgens het kabinet rekening moet worden gehouden. Een daarvan is het waarborgen van Europese waarden en normen. Deze leden lezen over de mogelijkheid om een «additioneel instrument» in het leven te roepen om deze waarden en normen te beschermen. Zij vragen aan wat voor instrument kan worden gedacht.

Antwoord

De Commissie zal mede op basis van de inbreng uit de consultatieprocedure met een concreet voorstel komen als follow-up op het witboek AI. Het kan zijn dat de Commissie hierin een voorstel tot additionele wetgevende instrumenten opneemt. De consultatieperiode loopt tot en met 14 juni 2020. Er kan daarom nog niet gezegd worden wat de Commissie beoogt. Zoals in de kabinetsappreciatie is verwoord, is het de inzet van het kabinet zoveel mogelijk aan te sluiten bij bestaande instrumenten. Bij het overwegen van een additioneel instrument is het een absolute prioriteit om de consistentie met bestaande wettelijke kaders, zowel Europees als internationaal, te waarborgen en duidelijk te maken hoe deze kaders zich tot elkaar zullen verhouden, waarbij de nationale competenties zoals deze gelden voor nationale veiligheid worden gerespecteerd.

Nederland pleit ervoor dat de Commissie het voortouw neemt, daar waar nodig, in het aanpassen van internationale regelgeving of van bilaterale overeenkomsten tussen de EU met derde landen die aan AI raken, een element dat niet opgenomen is in het witboek maar dat volgens Nederland wel relevant is. De Leden zijn dit met het kabinet eens. Welke bestaande internationale regelgeving en bilaterale overeenkomsten zijn op dit moment relevant?

Antwoord

Er is een groot aantal internationale instrumenten dat op dit gebied relevant is, bijvoorbeeld in VN verband of van de Raad van Europa. Te denken valt aan onder andere het Handvest van de grondrechten van de Europese Unie4, de VN-richtsnoeren inzake het bedrijfsleven en mensenrechten5, het Verdrag tot bescherming van personen met betrekking tot de geautomatiseerde verwerking van persoonsgegevens6 en de Richtsnoeren voor Kunstmatige Intelligentie en Gegevensbescherming7. Daarnaast moet onderzocht worden in hoeverre in bilaterale handelsovereenkomsten van de EU met derde landen of in multilaterale handelsakkoorden, bepalingen over AI opgenomen moeten worden.

De leden van de CDA-fractie lezen dat ten aanzien van AI moet worden gewerkt aan het vertrouwen en het van dienst zijn van burgers, met een rol voor lokale en regionale overheden. Hoe ziet het kabinet dit voor zich?

Antwoord

Voor beantwoording verwijs ik u naar het antwoord op de gelijksoortige vraag van de VVD-fractie.

Zouden de Smart Industry hubs hierbij een rol kunnen spelen?

Antwoord

De smart industry hubs hebben als functie om de brede industrie te activeren om gebruik te maken van technologie zoals digitalisering en robotisering. Daarmee geven ze indirect een positieve impuls aan het vertrouwen wanneer de toepassingen nuttig, werkbaar en productief blijken.

3. Toekomstige kansen grijpen: de volgende datagolf

In de kabinetsappreciatie lezen de leden van de CDA-fractie dat er op het gebied van datatoegang en -gebruik veel onbenut Europees potentieel is. Kan het kabinet dit onbenutte potentieel toelichten en concretiseren?

Antwoord

Het kabinet heeft in de visie op datadeling tussen bedrijven8 uiteengezet dat er nog veel economische en maatschappelijk potentieel zit in verantwoord gebruik van data. Uit eerdere onderzoek is gebleken dat het mkb nog veel zou kunnen profiteren van verbeterde datatoegang9. Veel data kan namelijk beter worden benut met datatoepassingen zoals AI. Zo kunnen bijvoorbeeld precies dezelfde data over het functioneren van een auto door een fabrikant worden gebruikt om een beter model te ontwikkelen, door onderhoudsbedrijven bij het verbeteren van hun diensten, door verzekeraars voor het achterhalen van de toedracht en door overheid voor het verbeteren van verkeersveiligheid en verbeteren van onderhoud aan ons wegennet. Het kabinet werkt nu via diverse acties om het potentieel van data beter en verantwoord te benutten. Zo draagt het kabinet bij aan de herziening van de Europese open data richtlijn (PSI-Directive)10 waarin belangrijke datasets van overheden op Europees niveau als open data beschikbaar worden gesteld. Tot slot heeft de EC onlangs haar ambitie en voorgenomen acties met betrekking tot data in de Europese Datastrategie gepresenteerd en een «monitoring tool» ontwikkeld om beter inzicht in het potentieel van data in de EU te krijgen.11

4A. Samenwerking met de lidstaten

Dat de Verenigde Staten en Azië veel meer investeren in AI, is de leden van de CDA-fractie bekend. Voor wat betreft de intensivering van de Europese AI-investeringen voor een bedrag van jaarlijks 20 miljard euro per jaar vragen zij waarop dit bedrag is gebaseerd en hoe het zich verhoudt tot de investeringen die de Verenigde Staten en Azië doen.

Antwoord

De 20 miljard euro is gebaseerd op eerdere berekeningen van de Europese Commissie12. Dit bedrag is mede gebaseerd op een versterkte coördinatie van investeringen in Europa. De Europese Commissie heeft eerder ingeschat dat de investeringen van de Verenigde Staten rond de 20 miljard euro per jaar liggen. Voor Azië zijn geen betrouwbare cijfers bekend.

4B. Richting geven aan de inspanningen van de onderzoeks- en innovatiegemeenschap

De Commissie zal de oprichting van centra van excellentie en testcentra faciliteren, waarbij Nederland het opzetten en verbinden van toonaangevende AI-centra en kennisinstellingen belangrijk vindt. Hoe geeft het kabinet hier op dit moment al invulling aan? Is hierbij ook aandacht voor multidisciplinariteit? Wat kan het kabinet delen over de huidige en potentiële AI-infrastructuur in Nederland?

Antwoord

Een gezamenlijke EU investeringsagenda is belangrijk. Ten aanzien van onderzoek en innovatie moet de Commissie de oprichting/versterking van centra van excellentie en testcentra faciliteren die EU, nationale en regionale kennis/investeringen multidisciplinair combineren. De Nederlandse AI-coalitie (NLAIC) verbindt alle Nederlandse nationale en regionale AI excellentie en expertise. Het kabinet ziet graag dat de Commissie dit verder faciliteert door het opzetten en verbinden van toonaangevende AI-centra en kennisinstellingen middels netwerken en de creatie van AI-hubs. Een top Europees netwerk van AI excellentie centra, verankerd in hubs waarbij alle activiteiten op andere geografische locaties zich met elkaar verbinden, helpt om het versnipperende landschap van kennisinstellingen en centra op het gebied van AI tegen te gaan en beter samen te werken. Zo kan Nederland zich presenteren als één Hub-netwerk in Europa en een actieve rol nemen in diverse Europese initiatieven.

4C. Vaardigheden

De leden van de CDA-fractie merken op dat de Commissie wijst op de aantrekkingskracht van een «Lighthouse Centre». Is al bekend waar en hoe dit vorm gaat krijgen? Op welke manier(en) draagt Nederland hieraan bij?

Antwoord

De invulling van een «Lighthouse Centre» moet nog nader vormgegeven worden. Momenteel loopt een consultatie door de Commissie, die een nadere specificering zou moeten opleveren om in één of meedere lighthouse en/of expertise- of excellence centra te gaan investeren. Dit sluit goed aan bij het plan van de NLAIC om nationaal de krachten te bundelen en zo Nederland als een toonaangevend AI kenniscentrum te positioneren in Europa. Nederland heeft hiervoor al een goede basis, zoals de AI onderzoekslabs in het ICAI netwerk, goede onderzoekers en bedrijven die in AI willen investeren. Daarnaast zijn Nederlandse AI onderzoekers goed vertegenwoordigd in grote Europese onderzoeksnetwerken als ELLIS en Claire.

4D. Focus op het mkb

De leden van de CDA-fractie delen het belang van AI voor het midden- en kleinbedrijf (mkb). Hierbij spelen Smart Industry hubs en MKB-Werkplaatsen een belangrijke rol. Kan het kabinet met cijfers toelichten hoezeer Nederland er via het huidige netwerk Smart Industry hubs en MKB-Werkplaatsen in slaagt om AI-ondernemerschap naar het brede mkb te brengen?

Antwoord

De Smart Industry hubs en mkb-werkplaatsen spelen een belangrijke rol voor het AI ondernemerschap in Nederland dat voor en door het mkb wordt gestimuleerd door het programma «Smart Industry». Het Smart Industry netwerk bestaat uit vijf regionale Smart Industry hubs en 43 Fieldlabs. Jaarlijks wordt gemonitord welke resultaten komen uit dat netwerk. Vanaf 2015 is in totaal 317 miljoen euro geïnvesteerd in de smart industry fieldlabs en ongeveer 600 bedrijven zijn actief betrokken. Er wordt geëxperimenteerd met innovatie via tools en trainingsmodules voor gebruik van AI en data.

Vanuit het programma Versnelling digitalisering mkb zijn recent zes MKB-Werkplaatsen opgericht waar kleinere lokale bedrijven met behulp van studenten experimenteren met data, waaronder met AI-toepassingen. Denk aan een motoronderdelen-webshop die door een AI-algoritme slimmer inkoopt en meer rendement maakt. Dit is van groot belang om te zorgen dat het mkb meekomt in de digitale transitie. Vanaf het voorjaar wordt toegewerkt naar een landelijk dekkend netwerk van MKB-Werkplaatsen, daartoe is de subsidieregeling «MKB Werkplaatsen» op 2 april jl. opengesteld.13 Hoewel de MKB-Werkplaatsen activiteiten kunnen verrichten op het gebied van AI ligt in de eerste subsidieronde van de regeling MKB-Werkplaatsen de focus technologische oplossingen op het gebied van online sales en marketing, het benutten van data en/of automatisering. Afhankelijk van de evaluatie van de aanvragen van de eerste ronde en behoefte van het mkb op het gebied van digitalisering zal bekeken worden welke focus de tweede openstelling eind dit jaar zal krijgen. Over de voortgang van de MKB-werkplaatsen wordt de kamer nader geïnformeerd via de voorgangsrapportage van het MKB Actieplan, dit zal naar verwachting in het vierde kwartaal van dit jaar zijn.

4E. Partnerschap met de private sector

Er worden 25 nieuwe posities van hoogleraren en academische benoemingen bij academische instellingen in Nederland gecreëerd. De leden van de CDA-fractie vragen of al bekend is welke instellingen dit betreft.

Antwoord

De Kickstart AI is een initiatief van KLM, ING, Ahold Delhaize, Philips en de NS. Om AI een boost te geven is er samen met academische instellingen in Nederland een matchmaking opgezet om 25 nieuwe posities te creëren van hoogleraren en academische benoemingen bij academische instellingen in Nederland. Dit proces zal worden afgerond in juni 2020, dan wordt meer bekend.

4G. Zorgen voor toegang tot data en computerinfrastructuur

De leden van de CDA-fractie lezen dat Nederland het belang van het verbeteren van de toegang tot data onderschrijft. Hoezeer is ook aandacht voor andere aspecten van data, zoals controle over data, eigendom en zeggenschap, en verantwoording?

Antwoord

Het kabinet heeft in zijn ambitie om de toegang tot data te verbeteren aandacht voor alle aspecten van data. «Mensen en bedrijven houden grip op gegevens» is daarom één van de drie principes uit de kabinetsvisie op datadeling voor bedrijven14. Naast het feit dat wordt ingezet op kansrijke datadeling (zo veel mogelijk deling en hergebruik) is verantwoord delen een belangrijke voorwaarde (met respect voor legitieme belangen zoals privacy, autonomie en gevoelige bedrijfsinformatie). Zonder grip zijn veel partijen niet bereid om datatoegang te verlenen of beschikbaar te stellen. Waar het gaat om persoonlijke data die beheerd worden door de overheid is bijzondere aandacht voor controle, zeggenschap en verantwoording. Dit is nader beschreven in de Kamerbrief «Regie op gegevens»15.

5B. Mogelijke aanpassingen van bestaande EU-regelgeving

De Commissie analyseert dat AI-toepassingen door een breed kader aan EU-wetgeving worden gereguleerd, waaronder wetgeving op het gebied van productveiligheid en -aansprakelijkheid, de fundamentele rechten, anti-discriminatiewetgeving, het gegevensbeschermingsrecht en het mededingingsrecht. Ziet het kabinet nog lacunes in de wetgeving, die zouden moeten worden gevuld?

Antwoord

Het kabinet deelt de opvatting van de Commissie, zoals uiteengezet in het witboek AI, dat er in het huidige van toepassing zijnde wetgevend kader lacunes zijn die geadresseerd moeten worden. In aanvulling op de uiteenzetting van de Commissie ziet het kabinet nog een aantal lacunes. Zo zijn de waarborgen uit de Algemene verordening gegevensbescherming (AVG) logischerwijs niet van toepassing wanneer voor een AI-toepassing geen persoonsgegevens worden verwerkt. Desalniettemin ziet het kabinet dat een AI-toepassing waarbij geen of geanonimiseerde persoonsgegevens worden gebruikt weldegelijk impact kan hebben op burgers en hun fundamentele rechten.

Ook wanneer de AVG wél van toepassing is ziet het kabinet dat de normen daarin niet altijd voldoende toegesneden zijn op de inzet van AI. Bij de naleving, handhaving en toepassing van de fundamentele rechten bestaan er bij AI-toepassingen specifieke kenmerken en risico’s waarop het huidig wetgevend kader, waaronder de AVG en het gelijke behandelingskader, mogelijk onvoldoende is toegesneden. Conform de door Nederland bepleitte lerende aanpak tracht het kabinet eventuele lacunes en mogelijke invullingen daarvan verder in kaart te brengen.

5D. Types eisen

De leden van de CDA-fractie lezen dat Nederland ervoor zal pleiten dat in de ontwikkelfase van AI wordt toegestaan dat (bijzondere) persoonsgegevens worden verwerkt «voor zover dat noodzakelijk is om discriminerende effecten tegen te gaan». Kan het kabinet dit verduidelijken? Met welke waarborgen is dergelijke toestemming omkleed? Hoe en wanneer is er duidelijkheid over wat er moet gebeuren in situaties waar een AI-toepassing getraind is met onrechtmatig verkregen data?

Antwoord

Bij AI-toepassingen waarbij gegevens op grote schaal met elkaar worden gecombineerd, kunnen onbedoeld verbanden worden blootgelegd die een aanwijzing geven over iemands gezondheid, geloofsovertuiging, seksuele geaardheid of een ander gevoelig persoonsgegeven. Daarnaast kan het zijn dat modellen die uitsluitend gebruik maken van ogenschijnlijk objectieve criteria (variabelen), indirect nadelige effecten hebben voor bepaalde individuen of groepen waarvan het een gegeven is dat die stelselmatig meer of minder dan gemiddeld scoren op een of meer van deze criteria. Dit zou indirect discriminerende gevolgen kunnen hebben voor betrokkenen. Een model dat bijvoorbeeld tot doel heeft om voorspellingen te doen inzake het salaris van een beroepsgroep kan nadelig uitpakken voor vrouwen, wanneer het zich uitsluitend baseert op variabelen als functieniveau en anciënniteit. Dit omdat vrouwen in vergelijking met mannen tot nu toe in de regel op een lager functieniveau werken. Met andere woorden, er bestaat een verkapte correlatie tussen het functieniveau en het geslacht. Dit voorbeeld heeft betrekking op het geslacht, maar is evengoed relevant voor bijzondere persoonsgegevens als bedoeld in de AVG. Een ander voorbeeld betreft de mogelijke correlatie tussen etniciteit en postcodes. Om deze onbedoelde en ongewenste effecten tegen te gaan kan het juist nodig zijn om in de ontwikkelfase van AI relevante bijzondere persoonsgegevens te verwerken. Zo kunnen elementen in het profileringsproces die tot vooroordelen kunnen leiden, worden geëlimineerd of gecorrigeerd. Gelet op het (wettelijk) verbod op verwerking van bijzondere persoonsgegevens dient hiervoor bij wet een uitzondering te worden geregeld. Daarbij zullen strenge eisen aan de verwerking moeten worden gesteld waaronder de voorwaarde dat dit alleen toegestaan is voor zover dat noodzakelijk is om discriminerende effecten tegen te gaan.

In het witboek stelt de Commissie voor dat er eisen komen voor het gebruik van trainingsdata. Op dit punt stelt Nederland dat van belang is dat bij gebruik van trainingsdata steeds voldaan wordt aan de voorwaarden uit de AVG en/of de Richtlijn inzake gegevensbescherming opsporing en vervolging, bijvoorbeeld het vereiste dat er voor de verwerking van persoonsgegevens een rechtsgrond moet zijn. In dit verband wil Nederland dat er ook aandacht is voor situaties waarin een AI-toepassing getraind is met onrechtmatig verkregen data. Het moet duidelijk zijn wat de gevolgen zijn voor dergelijke AI-toepassingen. De voorstellen waarmee de Commissie als follow up op het Witboek AI zal komen, moeten worden afgewacht alvorens er meer duidelijkheid hierover is.

5E. Adressanten

De leden van de CDA-fractie steunen het kabinet bij het versterken van de positie van de digitale consument door deze centraal te stellen in het ontwikkelen en reguleren van B2C-toepassingen van online algoritmes. Het kabinet noemt hiervan verschillende voorbeelden, zoals transparantieverplichtingen, recht op uitleg, grotere zeggenschap van consumenten op algoritmes en recht tot bezwaar en rectificatie. Hoe gaat het kabinet hier concreet werk van maken? Bestaan bijvoorbeeld een agenda en tijdspad om dit te realiseren? Daarnaast onderzoekt het kabinet hoe de verantwoordelijkheid voor bijvoorbeeld grote online platforms voor wangebruik van consumentendata vormgegeven kan worden. Wanneer wordt hier meer over bekend?

Antwoord

Het kabinet hecht belang aan een sterkere positie van de digitale consument en is zich ervan bewust dat er zowel kansen als risico’s bestaan bij het blootstellen van consumenten aan online algoritmes. Consumentenbescherming in de online wereld moet niet onder doen voor bescherming in de offline wereld. De mate van bescherming online is niet in alle opzichten gelijk aan de bescherming offline. Een eerste stap is om te inventariseren welke wettelijke verplichtingen vandaag de dag al op online platforms rusten en uit te zoeken of en zo ja welke hiaten er bestaan in consumentenbescherming, zoals bijvoorbeeld ten aanzien van transparantieverplichtingen en de verantwoordelijkheid die een platform heeft voor de aangeboden producten en diensten. Ook het wangebruik van consumentendata door grote online platforms is hier onderdeel van. In lijn met de eerder aangenomen motie Moorlag en Buitenweg16 wordt uw Kamer in het najaar hierover geïnformeerd.

Vragen en opmerkingen van de leden van de GroenLinks-fractie

De leden van de GroenLinks-fractie hebben met interesse kennisgenomen van het Witboek Kunstmatige Intelligentie van de Europese Commissie en de kabinetsreactie daarop. Zij hebben nog enige vragen hierover.

1.1 Algemene appreciatie ecosysteem van excellentie

De leden van de GroenLinks-fractie vragen het kabinet nader in te gaan op de «lerende aanpak» die Nederland voorstaat. Bij een leerproces hoort ook het maken van fouten. Hoe gaat het kabinet zorgen dat die fouten snel worden opgespoord en gecorrigeerd? Deze leden zijn van mening dat transparantie daarbij van groot belang is. In hoeverre is het bevorderen van transparantie door middel van de ethische richtsnoeren waar het kabinet naar verwijst, daarbij voldoende? Overweegt het kabinet om de Europese Commissie mee te geven dat transparantie over AI-toepassingen wettelijk moet kunnen worden afgedwongen?

Ook vragen deze leden wat het kabinet precies verstaat onder «transparantie» in de context van AI. Gaat het dan slechts over uitlegbaarheid van algoritmes, of ook over technische transparantie, zoals het openbaren van de broncode, gebruikte datasets en trainingsdata? Indien transparantie zich beperkt tot uitlegbaarheid, hoe kan je je hier als burger toe verhouden? Wordt er over nagedacht of een toezichthouder altijd toegerust moet zijn om het systeem te kunnen doorgronden, ook op verzoek van individuen daartoe?

Antwoord

Bij de «lerende aanpak» die het kabinet voorstaat, hoort ook het opsporen en corrigeren van fouten en het bevorderen van transparantie van AI. Voorbeeld hiervan is in Nederlands verband het traject dat thans wordt doorlopen met de richtlijnen voor data-analyses door de overheid die bij brief van 8 oktober 2019 aan uw Kamer zijn aangeboden. Deze richtlijnen worden momenteel verder uitgewerkt door samen met relevante organisaties in de praktijk met de richtlijnen aan de slag te gaan en deze te toetsen op hun effectiviteit en uitvoerbaarheid. Hiermee kan worden getoetst of de richtlijnen behulpzaam zijn bij het voorkomen of corrigeren van fouten en onjuistheden en kunnen die waar nodig worden aangescherpt. Een belangrijk doel van de richtlijnen is het bevorderen van transparantie van algoritmen, de werking en toepassing daarvan. Transparantie is van groot belang vanuit een oogpunt van rechtszekerheid, vertrouwen in verantwoorde toepassing van AI door de overheid en verantwoording richting controllers, toezichthouders of rechters. In de richtlijnen worden dan ook eisen gesteld aan de uitlegbaarheid, toetsbaarheid en auditeerbaarheid van algoritmen en aan de informatievoorziening aan het publiek. Bij complexe algoritmen, zoals machine learning of deep learning algoritmen, met een grote hoeveelheid variabelen en neurale lagen kan het zelfs voor experts lastig zijn om op basis van technische transparantie, het algoritme en de werking daarvan voldoende te doorgronden. Voor inherent ondoorzichtige modellen zijn wel technieken ontwikkeld, of in ontwikkeling, om achteraf te achterhalen op welke informatie een algoritme zijn uitkomst baseert. Tegen deze achtergrond wordt in de richtlijnen de nadruk gelegd op de uitlegbaarheid van algoritmen, waarbij de focus ligt op het in begrijpelijke taal kunnen uitleggen van de uitkomsten van data-analyses en hoe deze tot stand zijn gekomen. Daarmee is uitlegbaarheid naar het publiek in veel gevallen veelzeggender dan technische transparantie.

Voor een specifiek publiek, zoals ontwikkelaars, kan technische transparantie veelzeggend zijn. In maart heeft de Staatssecretaris van Binnenlandse Zaken en Koninkrijkrelaties namens het kabinet een brief naar de Kamer gestuurd over het vrijgeven van de broncode en het toepassen van het open source principe bij overheidssoftware.17 Het uitgangspunt hierbij is «open, tenzij». Een open broncode kan bijdragen aan meer technische transparantie en inzichtelijkheid. De brief stelt daarnaast vast dat er ook gegronde redenen kunnen zijn om een broncode niet vrij te geven, bijvoorbeeld als de belangen van nationale of openbare veiligheid zich daartegen verzetten of wanneer de benodigde vertrouwelijke werkwijze van de overheid (denk aan opsporing en toezicht) wordt geschaad.

De lerende aanpak wordt ook door de NLAIC toegepast, door niet een meerjarenprogramma te starten en achteraf vast te stellen of het werkt, maar dat met korte feedback al gedurende de looptijd te doen. Dat is met name van belang voor de praktijk. Hiervoor moet je de juiste omgeving bieden (bijvoorbeeld in fieldlabs) waarbij op voorhand duidelijk wordt gemaakt dat onvolkomenheden vaststellen geen schande is maar een sterkte, waarin de omgeving ook beschermend genoeg is om met onvolkomenheden om te gaan (privacy, security, perceptie en ook transparantie) en waarin je van het begin af aan multidisciplinair (technische, wetenschappelijk, sociaaleconomisch, maatschappelijk) én met betrokkenheid van eindgebruikers (burgers) werkt en dus niet achteraf.

4C. Vaardigheden

De leden van de GroenLinks-fractie steunen de inzet om het versnipperende landschap van Europese kennisinstellingen op het gebied van AI tegen te gaan en het idee om een coördinerend «Lighthouse Centre» op te zetten. Is daar al meer over bekend? Dergelijke coördinatie moet ook voorkomen dat alle lidstaten op overlappende wijze met dezelfde subthema’s aan de slag gaan. Op welke thema’s zou Nederland zich willen richten?

Antwoord

Qua thema’s is het voor Nederland belangrijk dat de acties van de Commissie aansluiten bij de in november 2019 door de Nederlandse Organisatie voor Wetenschappelijk Onderzoek (NWO) uitgebrachte (brede) AI-onderzoeksagenda voor het initiëren van nieuwe onderzoeksprogramma’s en -instrumenten en (inter)nationale synergie. Deze onderzoeksagenda is gebouwd op de Nederlandse sterktes zoals het creëren van AI fundamenten, het creëren van AI systemen, AI mens-systeem interactie en maatschappelijk verantwoord inbedden van AI-systemen. Daarnaast is het voor Nederland van belang om kennis en vaardigheden rond AI in toepassingsgebieden te ontwikkelen, zoals bijvoorbeeld de gezondheidszorg, mobiliteit/logistiek, high tech industry, energie/landbouw/klimaat en veiligheid. Voor de voortgang over het opzetten van een coördinerend «Lighthouse Centre» verwijzen wij u naar het antwoord op gelijkaardige vragen van het CDA.

4F. Het stimuleren van het gebruik van AI in de publieke sector

De leden van de GroenLinks-fractie onderschrijven dat AI-toepassingen ook van nut kunnen zijn in de publieke sector. Zij hebben echter wel grote zorgen over de manier waarop dit punt (4F) is gepresenteerd in het witboek van de Commissie. Het is, volgens het witboek, essentieel dat publieke instellingen snel beginnen met het inzetten van AI-toepassingen. Er wordt niet gerefereerd aan de risico’s hiervan. Daarnaast zijn deze leden van mening dat, zeker in de publieke sector, het eventueel inzetten van AI-toepassingen altijd onderdeel moet zijn van een bredere strategie om bepaalde vooraf gestelde doelstellingen te behalen. We moeten waken voor het inzetten van AI zonder goede reden, of alleen omdat het arbeidskrachten kan besparen. Is het kabinet bereid om deze zorgen op te nemen in de kabinetsappreciatie?

Voorts vragen deze leden of het kabinet kan reflecteren op de zorgen dat AI vaak leidt tot het vergroten van de sociale ongelijkheid. Volgens de Amerikaanse politicologe Virginia Eubanks heeft dit onder andere te maken met het feit dat datasets per definitie nooit neutraal zijn. Hoe ziet het kabinet dit?

Antwoord

In de appreciatie onder 4F zal het kabinet nog een keer benadrukken dat het uitgangspunt is dat voorafgaande aan de inzet van AI altijd de afweging wordt gemaakt of AI in de betreffende context en voor het betreffende doel het juiste middel is (of dat er minder ingrijpende middelen zijn waarmee het doel kan worden bereikt). Daarnaast is het kabinet het met de GroenLinks-fractie eens dat wanneer AI wordt ingezet, dat effecten kan hebben op fundamentele rechten en sociale verhoudingen. Deze effecten kunnen zowel negatief als positief zijn. De lerende aanpak die het kabinet voorstaat, is van belang omdat daarbij continu de vraag gesteld wordt wat de impact van een specifieke toepassing is op fundamentele rechten en sociale verhoudingen. Hiermee wordt niet vooraf in algemene zin gesteld dat er wel of geen sprake moet zijn van de inzet van AI, maar wordt in concrete gevallen en bij concrete toepassingen telkens gekeken hoe AI op een dusdanige wijze vorm kan krijgen dat kansen worden benut en risico’s voor fundamentele rechten en sociale verhoudingen kunnen worden geadresseerd.

De leden van de GroenLinks-fractie vragen waarom de kabinetsappreciatie niet ingaat op punt 4H van het witboek over internationale aspecten van AI? Deze leden delen de analyse van de Europese Commissie dat Europa een goede positie heeft om met gelijkgezinde niet-Europese landen op te trekken op dit gebied. Tegelijkertijd vragen deze leden zich af hoe Europa om zal gaan met niet-gelijkgezinde landen. Zij lezen daar niets over terug. Is het kabinet bereid om dit punt toe te voegen aan de kabinetsappreciatie en de Europese Commissie te verzoeken om een strategie uit te werken hoe om te gaan met bedrijven, producten en diensten van buiten de Europese Unie die op het gebied van AI niet voldoen aan de Europese benadering?

Antwoord

In de paragraaf «1.2 Algemene appreciatie ecosysteem van vertrouwen» van de kabinetsappreciatie wordt nader ingegaan op de internationale aspecten van AI. Het kabinet zal nader ingaan op punt 4H in de kabinetsappreciatie. Zoals aangegeven pleit Nederland ervoor dat de Commissie het voortouw neemt, daar waar nodig, in het aanpassen van internationale regelgeving of van bilaterale overeenkomsten tussen de EU met derde landen die aan AI raken. Dit is van belang aangezien AI-toepassingen veelvuldig uit derde landen de EU binnen zullen komen en AI-toepassingen of voor AI bedoelde data uit de EU geëxporteerd zullen worden.

In Europa en in internationale netwerken maakt Nederland zich sterk om ervoor te zorgen dat grondrechten in technologische ontwikkelingen geborgd zijn. Zo neemt Nederland actief deel aan twee commissies binnen de Raad van Europa die zich bezighouden met digitalisering en mensenrechten, namelijk de Commissie voor Media en de Informatiesamenleving en de ad hoc Commissie voor Kunstmatige Intelligentie. De ad hoc Commissie voor Kunstmatige Intelligentie onderzoekt momenteel de haalbaarheid van een internationaal juridisch kader voor AI en de Commissie voor Media en Informatiesamenleving bereidt een aanbeveling voor, die de verdragspartijen ertoe oproept om de impacts van algoritmen op mensenrechten tijdig en adequaat op te vangen.

Het bespreken van mogelijke aanpassingen van internationale regelgeving ten gevolge van AI, vindt plaats in diverse fora waar zowel gelijkgezinde niet EU-landen als niet EU-landen die hele andere opvattingen hebben over AI, aan deelnemen. Die fora zijn bijvoorbeeld de Wereldhandelsorganisatie (WTO), de International Telecommunications Union (ITU) of de OESO. De Europese Commissie dient zich in die fora al te verhouden tot niet gelijkgezinde landen. De strategie van de Europese Commissie wordt daarbij bepaald door uiteenlopende relevante Europese regelgeving en beleidskeuzes die als uitgangspunt worden gehanteerd.

5B. Mogelijke aanpassingen van bestaande EU-regelgeving

De leden van de GroenLinks-fractie delen de analyse van de Commissie dat er lacunes bestaan in het huidige wettelijk kader, met name op het gebied van transparantie, uitlegbaarheid, herleidbaarheid en menselijk toezicht. Ook verwelkomen zij de kabinetsappreciatie die het bestaan van dergelijke lacunes erkent. Op welke termijn kan additionele wetgeving worden verwacht?

Antwoord

Vooralsnog staat een follow-up van het witboek AI gepland voor het eerste kwartaal van 2021. Dit zal naar verwachting een concretisering bevatten van het ecosysteem van vertrouwen. Op dit moment kan nog niet gezegd worden of dit een voorstel voor additionele wetgeving zal bevatten. Voor een uitgebreidere toelichting op de procedure en te verwachten voorstellen verwijzen wij u naar het antwoord op gelijkaardige vragen van de VVD-fractie en de CDA-fractie.

5C. Reikwijdte van een toekomstig EU-regelgevingskader

De leden van de GroenLinks-fractie kunnen zich vinden in de twijfels die het kabinet heeft bij de sector-gebaseerde benadering die de Commissie voorstelt om «hoog-risico» AI-toepassingen te identificeren. Dit mag er namelijk niet toe leiden dat risico’s in andere sectoren over het hoofd worden gezien. Tegelijkertijd kan het categoriseren van toepassingen wel degelijk van nut zijn om een gedifferentieerde behandeling mogelijk te maken. Zo zou voor bepaalde toepassingen van extreem hoog risico een verbod moeten worden overwogen. Wanneer kan de Kamer de nadere bezinning op het concretiseren van de risicobenadering, waar het kabinet aan refereert, tegemoetzien?

Antwoord

Het kabinet onderschrijft de denkwijze van de leden van de GroenLinks-fractie met betrekking tot de risicobenadering. Om die reden wordt er momenteel interdepartementaal gewerkt aan een nadere uitwerking van hoe het kabinet een risicobenadering zou willen vormgeven. Dit proces is in volle gang, het kabinet zal dan ook niet vooruitlopen op eventuele uitkomsten van dit proces. Het streven is om zoveel als mogelijk aan te sluiten bij het tijdspad dat de Commissie aanhoudt.

5D. Types eisen

De leden van de GroenLinks-fractie kunnen zich in algemene zin goed vinden in de types eisen die de Europese Commissie heeft voorgesteld. In de kabinetsreactie staat dat Nederland ervoor zal pleiten dat in de ontwikkelfase van AI wordt toegestaan dat bijzondere persoonsgegevens worden verwerkt. Kan het kabinet hier nader op ingaan? Hoe verhoudt dat zich tot de AVG?

Antwoord

Voor een antwoord op deze vraag verwijzen wij u naar het antwoord op de gelijkaardige vraag van de CDA-fractie.

Kan het kabinet ook nader ingaan op het Nederlandse standpunt inzake biometrische identificatie? Het kabinet lijkt te suggereren dat sommige toepassingen van gezichtsherkenning met gebruik van AI geen hoog risico kennen, terwijl de Europese Commissie stelt dat alle toepassingen van biometrische identificatie als «hoog-risico» moeten worden aangemerkt. Kan het kabinet nader ingaan op dit verschil?

Antwoord

Gezichtsherkenning kan op diverse wijzen worden gebruikt, waarbij een groot verschil kan bestaan in de daarmee gepaard gaande risico’s. Gezichtsherkenning kan bijvoorbeeld worden gebruikt voor het verkrijgen van toegang tot een smartphone. Het gebruik hiervan is optioneel. De risico’s bij dergelijke toepassingen zijn gering, bijvoorbeeld ten aanzien van privacy en vrijheidsrechten. Het kabinet vindt het belangrijk dat het stempel «hoog risico» niet zonder meer gekoppeld wordt aan een bepaalde techniek, maar wordt gekoppeld aan toepassingen die daadwerkelijk risicovol zijn. Een goede definitie en afbakening is daarvoor een randvoorwaarde.

Kan het kabinet ook ingaan op de toepassing van AI voor het produceren van «deepfake»-video’s? Kan dit automatisch worden aangemerkt als «hoog-risico»? Hoe kijkt het kabinet hiernaar en is het bereid om in de kabinetsappreciatie de Commissie op te roepen om dit punt mee te nemen?

Antwoord

Het kabinet vindt het belangrijk dat het stempel «hoog risico» niet zonder meer gekoppeld wordt aan een bepaalde techniek, maar wordt gekoppeld aan toepassingen die daadwerkelijk risicovol zijn. Wat betreft «deepfake»-video’s laat de Minister van Binnenlandse Zaken en Koninkrijkrelaties momenteel een verkenning uitvoeren naar de impact van nieuwe technieken, waaronder «deepfakes», en de betekenis daarvan voor de aanpak van desinformatie18. Deze verkenning zal na het zomerreces gereed zijn. De samenleving dient weerbaar te zijn tegen de potentieel verstorende effecten van nieuwe technologieën, zoals deepfake technieken, die informatie kunnen manipuleren. Het Rathenau Instituut, die deze verkenning uitvoert, zal aandacht besteden aan deepfake technieken en twee à drie andere technologieën naar eigen inzicht. Zij zal daarbij o.a. kijken naar de impact van deze technologieën op de productie en verspreiding van desinformatie.

5F. Naleving en handhaving

De leden van de GroenLinksfractie kunnen zich goed vinden in het voorstel van de Commissie voor een voorafgaande conformiteitsbeoordeling voor AI-toepassingen met een hoog risico. Het kabinet schrijft dat het de voorkeur heeft om uit te gaan van reeds bestaande instrumenten en dat zelfregulering ook een optie kan zijn. Hoe verhoudt dit zich tot de erkenning dat er lacunes bestaan in het huidige wettelijk kader met betrekking tot AI? Onder welke omstandigheden vindt het kabinet zelfregulering een optie?

Antwoord

Zelfregulering kan een optie zijn, voor welke toepassingen en situaties dit geldt dient nader te worden verkend in de nog uit te werken risicobenadering.

5H. Governance vraagstukken

De leden van de GroenLinks-fractie ondersteunen de inzet van de Commissie dat de governancestructuur rond AI op Europees niveau moet zorgen voor de participatie van alle betrokken stakeholders, inclusief het maatschappelijk middenveld en academici uit verschillende vakgebieden. Is het kabinet bereid om dit punt ook te benadrukken in de kabinetsappreciatie? Op welke manier worden Nederlandse stakeholders uit deze sectoren betrokken in de Europese governancestructuur rond AI?

Antwoord

Ja, het kabinet vindt participatie van alle betrokken stakeholders belangrijk, inclusief het maatschappelijk middenveld en academici uit verschillende vakgebieden De nationale AI coalitie vormt hiervoor de basis. De NLAIC (een initiatief van overheid, bedrijfsleven, onderzoeks- en onderwijsinstellingen en maatschappelijke organisaties) is namens de diverse Nederlandse stakeholders lid van de European AI Alliance – een forum dat zich bezighoudt met een brede en open discussie over alle aspecten van de ontwikkeling van artificiële intelligentie en de gevolgen ervan. Daarnaast neemt de NLAIC actief deel aan het consultatie proces en is zij door middel van haar EU liaisons en deelname aan diverse klankbordgroepen en is Nederland zeer betrokken bij de diverse Europese ontwikkelprocessen.

Tenslotte missen de leden van de GroenLinks-fractie, zowel in het Witboek van de Europese Commissie als in de kabinetsappreciatie daarvan, een bespiegeling op de langeretermijn effecten van AI. Daarbij valt te denken aan de effecten op de democratie en de rechtsstaat, op de arbeidsmarkt en economie. Is het kabinet bereid om dit punt op te nemen in de kabinetsappreciatie en de Commissie op te roepen om de langeretermijneffecten scherp in beeld te houden en daar ook voortdurend onderzoek naar te doen?

Antwoord

Het kabinet deelt de opvatting van de leden van de Groenlinks-fractie dat het belangrijk is de langetermijneffecten voor de democratie en de rechtsstaat, op de arbeidsmarkt en economie mee te nemen. Het is van belang dat kaders voldoende toekomstbestendig zijn om deze waarden en belangen te borgen. Het kabinet zegt daarom toe dit op te nemen in de kabinetsappreciatie.

Naar boven