22 112 Nieuwe Commissievoorstellen en initiatieven van de lidstaten van de Europese Unie

Nr. 3549 BRIEF VAN DE MINISTER VAN BUITENLANDSE ZAKEN

Aan de Voorzitter van de Tweede Kamer der Staten-Generaal

Den Haag, 18 november 2022

Overeenkomstig de bestaande afspraken ontvangt u hierbij 3 fiches die werden opgesteld door de werkgroep Beoordeling Nieuwe Commissie voorstellen (BNC).

Fiche: Herziening richtlijn productaansprakelijkheid (Kamerstuk 22 112, nr. 3548)

Fiche: Richtlijn betreffende aanpassing civielrechtelijke aansprakelijkheidsregels voor kunstmatige intelligentie

Fiche: Mededeling handhaving EU-recht (Kamerstuk 22 112, nr. 3550)

De Minister van Buitenlandse Zaken, W.B. Hoekstra

Fiche: Richtlijn betreffende aanpassing civielrechtelijke aansprakelijkheidsregels voor kunstmatige intelligentie

1. Algemene gegevens

  • a) Titel voorstel

    Voorstel voor een richtlijn van het Europees Parlement en de Raad betreffende het aanpassen van niet-contractuele civielrechtelijke aansprakelijkheidsregels voor kunstmatige intelligentie

  • b) Datum ontvangst Commissiedocument

    28 september 2022

  • c) Nr. Commissiedocument

    COM(2022) 496

  • d) EUR-Lex

    EUR-Lex – 52022PC0496 – EN – EUR-Lex (europa.eu)

  • e) Nr. impact assessment Commissie en Opinie Raad voor Regelgevingstoetsing

    SWD(2022) 319

  • f) Behandelingstraject Raad

    Raad Justitie en Binnenlandse Zaken

  • g) Eerstverantwoordelijk ministerie

    Ministerie van Justitie en Veiligheid in nauwe samenwerking met het Ministerie van Economische Zaken en Klimaat en Ministerie van Binnenlandse Zaken en Koninkrijksrelaties

  • h) Rechtsbasis

    Artikel 114 van het Verdrag betreffende de Werking van de Europese Unie (VWEU)

  • i) Besluitvormingsprocedure Raad

    Gekwalificeerde meerderheid

  • j) Rol Europees Parlement

    Medebeslissing

2. Essentie voorstel

a) Inhoud voorstel

Op 28 september 2022 presenteerde de Europese Commissie (hierna: de Commissie) een voorstel betreffende het aanpassen van niet-contractuele civielrechtelijke aansprakelijkheidsregels voor kunstmatige intelligentie (artificial intelligence, hierna: AI). Dit voorstel is tegelijkertijd gepubliceerd met een voorstel dat strekt tot herziening van de richtlijn productaansprakelijkheid (85/374/EEG)1. Beide voorstellen staan in het teken van het creëren van rechtszekerheid en rechtsbescherming in de digitale economie en het verzekeren van het adequate functioneren van de interne markt en onverstoorde mededinging. Specifiek met betrekking tot AI, gaat het volgens de Commissie om complementaire voorstellen. Het voorstel over de productaansprakelijkheid regelt dat AI-systemen en op AI gebaseerde goederen «producten» zijn, en onder het toepassingsbereik van het richtlijnvoorstel over productaansprakelijkheid vallen. Het onderhavige voorstel over specifiek AI ziet niet op productaansprakelijkheid. Het ziet op aansprakelijkheid uit onrechtmatige daad in andere gevallen, waarin de inzet van AI-systemen de schade heeft veroorzaakt. Het doel van de Commissie met het onderhavige richtlijnvoorstel is om ervoor te zorgen dat diegenen die schade hebben geleden, veroorzaakt door de output van AI-systemen, eenzelfde niveau van rechtsbescherming genieten als in gevallen waarin schade is veroorzaakt zonder gebruik van AI-systemen. Hiermee moet het vertrouwen van consumenten en burgers in AI worden versterkt. Het voorstel dient daarnaast ook rechtszekerheid te bieden aan de aanbieders en gebruikers van AI-systemen. De Commissie geeft aan dat de specifieke eigenschappen van AI, zoals complexiteit, autonomie en ondoorzichtigheid (het zogenaamde «black box» effect), het voor eisers moeilijk maken om te bewijzen dat zij schade hebben geleden die is veroorzaakt door het AI-systeem. In gevallen waarin AI-systemen worden gebruikt, hebben benadeelden volgens de Commissie daardoor potentieel te maken met hoge kosten vooraf om een inschatting te maken van hun juridische positie en met langdurige juridische procedures. De richtlijn beoogt hen daarbij te helpen door specifiek hun informatie- en bewijspositie te verbeteren als zij een vergoeding willen vorderen van door AI-systemen veroorzaakte schade. Het voorstel introduceert daartoe ook weerlegbare bewijsvermoedens, waardoor degene die schade heeft geleden de schuld van de aanbieder of de gebruiker van de AI eenvoudiger kan aantonen.

Het richtlijnvoorstel moet worden bekeken in samenhang met het in onderhandeling zijnde voorstel voor een AI-verordening2. Deze verordening geeft de definitie van AI-systemen en stelt eisen aan AI-systemen die een risico meebrengen voor mensenrechten, veiligheid en gezondheid. Deze eisen zien bijvoorbeeld op de kwaliteit van gebruikte datasets, de cyberveiligheid van het systeem en menselijk toezicht. Daarnaast worden documentatie-, informatie- en registratieverplichtingen opgelegd aan de aanbieders en gebruikers van deze AI-systemen. Eisers in een gerechtelijke procedure of personen die overwegen om een procedure aan te spannen hebben op basis van de AI-verordening geen toegang tot deze informatie. Het onderhavige voorstel vestigt daarom het recht op toegang tot deze informatie als het gaat om hoog-risico AI-systemen en versterkt dus hun informatiepositie. Zij kunnen deze informatie opvragen bij de aanbieders of gebruikers van deze hoog-risico AI-systemen wanneer er het vermoeden bestaat dat toepassing van deze systemen tot schade heeft geleid. De eiser moet hierbij wel de aannemelijkheid van de claim kunnen aantonen. Wanneer, na proportionele inspanningen van de eiser, een aanbieder of gebruiker de gevraagde informatie niet heeft overgelegd, kan de eiser de rechter vragen hen dit alsnog te bevelen. De verweerder kan zich erop beroepen dat sprake is van (bedrijfs)geheime informatie: de rechter moet dan zorgen dat vertrouwelijkheid is gewaarborgd. Als de aanbieder of gebruiker overlegging ook dan weigert, zal de rechter er in het vervolg van de procedure van uitgaan dat de gebruiker of aanbieder niet heeft voldaan aan de zorgvuldigheidsplicht die voortvloeit uit de voorgestelde AI-verordening. Ook moeten lidstaten de eiser de mogelijkheid bieden om bewijsbeslag te laten leggen op de informatie, zodat die niet vernietigd kan worden door degene die die informatie in zijn macht heeft.

Naast het bieden van toegang tot de informatie over hoog-risico AI-systemen, biedt het voorstel een verlichting van de bewijslast, onder bepaalde voorwaarden, voor de benadeelden in gevallen waar AI-systemen zijn gebruikt, ongeacht of dit hoog-risico systemen zijn. Het voorstel introduceert een weerlegbaar bewijsvermoeden. De rechter dient op grond van het voorstel uit te gaan van een causaal verband tussen de schuld van de verweerder (aanbieder or gebruiker van een AI-systeem) en de door het AI-systeem gegenereerde output of juist het verzuim van het AI-systeem om output te genereren, als aan drie voorwaarden is voldaan.

  • Ten eerste moet de benadeelde de schuld van de aansprakelijke partij aantonen, en wel door aan te tonen dat de aansprakelijke partij een zorgvuldigheidsplicht heeft geschonden. Hierbij geldt dat die zorgvuldigheidsplicht in het leven moet zijn geroepen met het oog op het voorkomen van de veroorzaakte schade. Voor hoog-risico AI-systemen wordt de beoordeling van het schenden deze zorgplicht gekoppeld aan bepaalde vereisten die voortvloeien uit de voorgestelde AI-verordening.

  • Ten tweede dient de benadeelde te bewijzen dat redelijkerwijs kan worden aangenomen, dat die schuld de door het AI-systeem gegenereerde output of het verzuim door het AI-systeem om output te genereren heeft beïnvloed, gelet op de omstandigheden van het geval.

  • Ten derde moet de benadeelde aantonen dat de door het AI-systeem gegenereerde output of het verzuim door het AI-systeem om output te genereren, zijn schade heeft veroorzaakt.

Als aan deze voorwaarden is voldaan, geldt het bewijsvermoeden voor een causaal verband tussen de schuld van verweerder en (het verzuim van) de output van het AI-systeem niet altijd. In gevallen waarbij hoog-risico AI-systemen zijn gebruikt, dient de rechter uit te gaan van het vermoeden dat een dergelijk causaal verband bestaat, als niet is voldaan aan bepaalde eisen die voortvloeien uit de voorgestelde AI-verordening.

In gevallen waarbij niet hoog-risico AI-systemen zijn gebruikt, gaat de rechter niet uit van het bewijsvermoeden, als de verweerder aantoont dat de eiser redelijkerwijs over voldoende bewijsmateriaal en deskundigheid kan beschikken om het causaal verband aan te tonen tussen de schuld van de verweerder en (het verzuim van) de door de AI gegenereerde output. De rechter hanteert het bewijsvermoeden in het geval van niet hoog risico-systemen bovendien alleen, als hij het voor de benadeelde buitensporig moeilijk acht om het causaal verband tussen de fout en de AI-inzet aan te tonen.

In gevallen waarbij de verweerder een AI-systeem voor persoonlijke niet-professionele doeleinden heeft gebruikt, geldt het bewijsvermoeden ten slotte alleen als de verweerder met de werking van het AI-systeem heeft geïnterfereerd of niet goed geeft zorggedragen voor de condities ervan.

De bewijsvermoedens zijn weerlegbaar. Dit betekent dat een verweerder in de gelegenheid moet worden gesteld om te bewijzen dat het causaal verband tussen de fout en (het verzuim van) de output van het AI-systeem ontbreekt.

b) Impact assessment Commissie

In de effectbeoordeling van de Commissie zijn verschillende beleidsopties beoordeeld. Naast de in het voorstel gekozen voorkeursoptie voor verlichting van de bewijslast en het evaluatiemechanisme, bevatten deze beleidsopties ook de harmonisering van risicoaansprakelijkheidsregels voor gevallen van AI-gebruik met een specifiek risicoprofiel en een verplichte verzekering. De voorliggende voorkeursoptie bleek uit het impact assessment het hoogst te scoren op effectiviteit. Volgens de beoordeling is het gekozen instrument voldoende om de rechtsbescherming van degenen die schade hebben geleden door AI-systemen te waarborgen en om rechtszekerheid te bieden voor de aanbieders en gebruikers van deze systemen. Het is de inschatting van de Commissie dat dit voorstel zal leiden tot grotere marktwaarde voor AI binnen de Europese interne markt. De waarde van deze vergroting wordt door de Commissie geschat op 500 miljoen euro tot 1,1 miljard euro in 2025.

3. Nederlandse positie ten aanzien van het voorstel

a) Essentie Nederlands beleid op dit terrein

Nederland zet in op de ontwikkeling en inzet van AI-systemen die de mens dienen, veilig en betrouwbaar zijn, die publieke waarden borgen en waarbij een goede rechtsbescherming verzekerd is.3 Het kabinet zet zich in de EU in voor geharmoniseerde regelgeving om te borgen dat AI-systemen pas de Europese interne markt op komen als ze voldoen aan een aantal eisen. Op die manier kunnen grensoverschrijdende risico’s voor gezondheid, veiligheid en fundamentele rechten die AI-systemen met zich mee brengen voorkomen of gemitigeerd worden. Het kabinet geeft het beschermen van grondrechten en publieke waarden een centrale rol bij het reguleren van AI. Het kabinet zet daarom sterk in op transparantie en rechtsbescherming bij de onderhandelingen over de voorgestelde AI-verordening van de Europese Unie en over het voorgestelde AI-verdrag binnen de Raad van Europa.

De bewijspositie en het recht op inzage in stukken zijn in Nederland voor alle procedures op dezelfde wijze geregeld als onderdeel van het bewijsrecht in het Wetboek van Burgerlijke Rechtsvordering. Dit bewijsrecht wordt momenteel herzien door een wetsvoorstel dat aanhangig is bij de Tweede Kamer (Kamerstukken 35 498, nrs. 1 t/m 3). Daarin wordt ook het reeds bestaande inzagerecht verduidelijkt en beter ingebed in de wettelijke regeling van de bewijsmiddelen. Dit wetsvoorstel codificeert de reeds bestaande praktijk die is gegroeid op basis van het huidige wettelijke inzagerecht. Daarin staat voorop dat een partij zonder tussenkomst van de rechter aanspraak kan maken op inzage. Inzagerecht kan worden afgedwongen bij de rechter indien de wederpartij of de derde die over de informatie beschikt niet meewerkt of indien er sprake is van discussie over de aanspraak op inzage.

Een vordering tot schadevergoeding wordt in de regel gebaseerd op wanprestatie of onrechtmatige daad. Het voorstel ziet op aansprakelijkheid uit onrechtmatige daad. Het richtlijnvoorstel voorziet in minimumharmonisatie door uit te gaan van harmonisatie van enkele regels van bewijsrecht. Het nationale aansprakelijkheidsrecht blijft leidend. Volgens de Commissie is in de meeste landen sprake van een schuldaansprakelijkheid, wanneer het schade door de inzet van AI betreft. Ook in Nederland is dat het geval. Een benadeelde die schade lijdt door een onrechtmatige daad zal naar Nederlands recht moeten bewijzen dat er sprake is van een onrechtmatige daad die aan de verweerder kan worden toegerekend (schuld) en van een oorzakelijk verband tussen die onrechtmatige daad en de schade. De bewijslast rust op de benadeelde. Als de benadeelde niet in dit bewijs slaagt, wordt de vordering tot schadevergoeding afgewezen. Het is naar Nederlands recht wel mogelijk dat de rechter de bewijslast van een benadeelde verlicht in een individuele zaak. Dat kan de rechter bijvoorbeeld doen door op voorhand bewezen te achten dat er sprake is van een oorzakelijk verband tussen het onrechtmatig handelen en de gestelde schade. De rechter gaat in dit geval uit van een zogenoemd bewijsvermoeden. Het is dan aan de aansprakelijkgestelde partij om het tegendeel te bewijzen. Het bewijsvermoeden is met andere woorden weerlegbaar.

b) Beoordeling + inzet ten aanzien van dit voorstel

Het kabinet verwelkomt het voorstel en staat positief tegenover de beschreven doelstellingen, maar heeft nog wel een aantal vragen. Het kabinet is voorstander van het waarborgen en versterken van de rechtsbescherming en rechtszekerheid bij het toepassen van AI-systemen. Dit versterkt het vertrouwen van consumenten en burgers in AI. Het kabinet erkent dat het bevorderlijk is voor de innovatie indien organisaties en bedrijven meer zekerheid hebben over het risico dat zij lopen om aansprakelijk gesteld te worden vanwege schade die hun systemen mogelijk veroorzaken. Het is tevens belangrijk dat burgers en consumenten ervan op aan kunnen dat zij eenzelfde mate van bescherming krijgen in situaties waarin AI-systemen worden toegepast als in situaties waar AI-systemen niet worden toegepast. Dit neemt niet weg dat tijdens de onderhandelingen de gevolgen en effectiviteit van de in dit voorstel opgenomen maatregelen nader moet worden verkend, mede gelet op het impact assessment van de Commissie. Daarin wordt namelijk gesteld dat er binnen de EU nog geen ervaring is met aansprakelijkstellingen waarbij AI-systemen een belemmering vormden om schade te vorderen.

De doelstellingen van de voorgestelde richtlijn zijn in overeenstemming met de inzet van het kabinet ten aanzien van de voorgestelde AI-verordening. Het kabinet pleit in die context voor het versterken van transparantie en rechtsbescherming voor burgers bij de inzet van AI-systemen. Het onderhavige voorstel biedt burgers en bedrijven aanvullende mogelijkheden om hun rechten uit te oefenen en tracht daardoor bij te dragen aan de bescherming van de veiligheid, gezondheid en de fundamentele rechten. Tegelijkertijd is een voordeel van deze benadering dat het de naleving van de voorgestelde AI-verordening bevordert. Aanbieders en gebruikers van AI-systemen worden immers gestimuleerd om hun documentatie-, informatie- en registratieverplichtingen op orde te hebben. Het kabinet maakt daarbij wel het voorbehoud dat nog over de voorgestelde AI-verordening onderhandeld wordt en zodoende nog niet vast ligt. Op diverse plaatsen in het voorstel wordt verwezen naar de aankomende AI-verordening. Voorbeelden hiervan zijn de definitie van een AI-systeem en de specifieke vereisten voor aanbieders en gebruikers van AI-systemen. Pas als de onderhandelingen over de voorgestelde AI-verordening afgerond zijn, kunnen alle consequenties voor deze richtlijn worden bepaald.

Het kabinet heeft een aantal opmerkingen bij onderdelen van het voorstel. De inzet bij de onderhandelingen is in eerste instantie erop gericht hierover duidelijkheid te verkrijgen. Zo heeft het kabinet in het kader van het inzagerecht enige vragen over de bedoeling en reikwijdte van het voorstel in relatie tot het bewijsbeslag dat het inzagerecht moet zekerstellen. De gevolgen van een bewijsbeslag zoals het wordt voorgesteld in het voorstel, sluiten niet aan op het Nederlandse bewijsbeslag.

Het kabinet heeft daarnaast vragen over (de werking van) het bewijsvermoeden, onder meer met betrekking tot de toepassing van het bewijsvermoeden. In het voorstel staat dat in een aansprakelijkheidsprocedure onder bepaalde omstandigheden dient te worden uitgegaan van causaal verband tussen de schuld van de verweerder en (het verzuim van) de output van het AI-systeem. Het lijkt de Commissie daarmee niet te gaan om een bewijsvermoeden dat ziet op het causale verband tussen onrechtmatig handelen en schade, maar om een bewijsvermoeden dat ziet op het toerekenbaar onrechtmatig handelen voor wat betreft (het verzuim van) de output van het AI-systeem. Een nadere duiding van het bewijsvermoeden tijdens de onderhandelingen is nodig om de meerwaarde van het bewijsvermoeden voor de benadeelde te beoordelen en een standpunt te formuleren.

De inzet van het kabinet is er tevens op gericht te voorkomen dat de voorwaarden voor toepassing van het bewijsvermoeden door hun complexiteit leiden tot nieuwe discussies. De benadeelde heeft in dat geval mogelijk geen voordeel van een bewijsvermoeden. Lange procedures zijn kostbaar en leiden tot onzekerheid. Dit is ook nadelig voor de aansprakelijk gestelde partij. In dit licht valt onder meer op dat de voorwaarden voor de toepassing van het bewijsvermoeden cumulatief zijn. Het kabinet zal aandacht vragen voor de vraag of van een gemiddelde benadeelde verlangd kan worden om het bewijs van deze voorwaarden te leveren en of de rechter zich hierover een oordeel kan vormen.

c) Eerste inschatting van krachtenveld

De meeste lidstaten zijn nog bezig een formeel standpunt over het voorstel te formuleren. Uit de onderhandelingen over de voorgestelde AI-verordening blijkt dat alle lidstaten in algemene zin het beschermen van fundamentele rechten, veiligheid en gezondheid op Europees niveau willen verankeren.

Het Europees Parlement (EP) heeft eveneens nog geen formeel standpunt ingenomen ten opzichte van het voorstel, maar zal naar verwachting positief zijn over het treffen van maatregelen. Het EP heeft eerder voorgesteld in een resolutie op 20 oktober 20204 om te komen tot een verplichte verzekering voor alle operators van hoog-risico AI-systemen. Het voorstel zal worden behandeld door het Comité Juridische Zaken binnen het EP.

4. Beoordeling bevoegdheid, subsidiariteit en proportionaliteit

a) Bevoegdheid

Het oordeel van het kabinet ten aanzien van de bevoegdheid is positief. Het voorstel is gebaseerd op artikel 114 VWEU. Op grond van artikel 114 VWEU is de EU bevoegd om maatregelen vast te stellen inzake de onderlinge aanpassing van de wettelijke en bestuursrechtelijke bepalingen van de lidstaten die de instelling en de werking van de interne markt betreffen. Het kabinet kan zich vinden in de keuze voor deze rechtsgrondslag. Op het terrein van de interne markt is sprake van een gedeelde bevoegdheid tussen de EU en de lidstaten (artikel 4, tweede lid, onder a, VWEU).

b) Subsidiariteit

Het oordeel van het kabinet ten aanzien van de subsidiariteit is positief. Het doel van het voorstel is enerzijds om ervoor te zorgen dat diegenen die schade hebben geleden door AI-systemen eenzelfde niveau van rechtsbescherming genieten als in gevallen waar schade is veroorzaakt zonder gebruik van AI-systemen en anderzijds om rechtszekerheid te bieden aan aanbieders en gebruikers van AI-systemen. Gezien het grensoverschrijdende karakter van de markt voor AI kan dit onvoldoende door de lidstaten op centraal, regionaal of lokaal niveau worden verwezenlijkt. Daarom is een EU-aanpak nodig. Door de richtlijn kan het gelijke speelveld op het terrein van aansprakelijkheidsprocedures worden verbeterd en kunnen belemmeringen op de interne markt voor AI-systemen worden weggenomen. Om die redenen is optreden op het niveau van de EU gerechtvaardigd.

c) Proportionaliteit

Het oordeel van het kabinet ten aanzien van de proportionaliteit is positief, met kanttekening. Het doel van het voorstel is enerzijds om ervoor te zorgen dat diegenen die schade hebben geleden door AI-systemen eenzelfde niveau van rechtsbescherming genieten als in gevallen waar schade is veroorzaakt zonder gebruik van AI-systemen en anderzijds om rechtszekerheid te bieden aan aanbieders en gebruikers van AI-systemen. Het optreden lijkt niet verder te gaan dan noodzakelijk, omdat het specifiek toeziet op de informatie- en bewijspositie van benadeelden. Het kabinet merkt wel op dat de vraag of de richtlijn daadwerkelijk geschikt is om het doel te bereiken, niet met zekerheid is te beantwoorden, omdat zich tot op heden nog geen zaken hebben voorgedaan waarin de toepassing van AI een probleem vormde in de aansprakelijkheidstelling. Nut, noodzaak en effectiviteit van de verschillende onderdelen uit het voorstel dienen in dit licht nog nader te worden verkend, in het bijzonder waar het betreft het voorgestelde bewijsvermoeden. Het kabinet wil graag extra uitleg zien waarom de gekozen maatregelen, in het bijzonder het bewijsvermoeden, geschikt zijn om de doelstelling van het optreden te bereiken. Het kabinet zal hier in de onderhandelingen naar vragen. Het kabinet is positief over het gekozen instrument van een richtlijn die uitgaat van minimumharmonisatie, omdat hiermee rekening wordt gehouden met de verschillende nationale rechtstradities.

5. Financiële consequenties, gevolgen voor regeldruk, concurrentiekracht en geopolitieke aspecten

a) Consequenties EU-begroting

Volgens de Commissie heeft het voorstel geen gevolgen voor de EU-begroting. Nederland is van mening dat de eventueel benodigde middelen gevonden dienen te worden binnen de in de Raad afgesproken financiële kaders van de EU-begroting 2021–2027 en dat deze moeten passen bij een prudente ontwikkeling van de jaarbegroting.

b) Financiële consequenties (incl. personele) voor rijksoverheid en/ of medeoverheden

Het voorstel heeft geen significante financiële consequenties voor nationale overheden. Eventuele budgettaire gevolgen voor de nationale begroting worden ingepast op de begroting van de beleidsverantwoordelijke departementen, conform de regels van de budgetdiscipline.

c) Financiële consequenties en gevolgen voor regeldruk voor bedrijfsleven en burger

De richtlijn bevat inhoudelijk een tweetal procesrechtelijke bepalingen die gevolgen hebben voor de wijze waarop partijen de procedure voor de civiele rechter dienen te voeren. Het civiele procesrecht biedt waarborgen voor een eerlijke en efficiënte procesvoering. De eisen die aan partijen worden gesteld aan de informatie-uitwisseling met de rechter of de wederpartij, hangen direct samen met deze waarborgfunctie. Daarom worden de lasten die met deze informatieverplichtingen gepaard gaan, vanwege het bijzondere karakter ervan, niet onverkort als regeldruk voor burgers en bedrijven aangemerkt en heeft de richtlijn voor hen geen gevolgen.

d) Gevolgen voor concurrentiekracht en geopolitieke aspecten

Het voorstel zorgt volgens de Commissie voor meer zekerheid voor aanbieders en gebruikers van AI-systemen over hun aansprakelijkheid. Daarnaast stelt de Commissie dat geharmoniseerde maatregelen ten aanzien van aansprakelijkheidsprocedures de voorwaarden voor uitrol van AI-technologieën aanzienlijk verbeteren. Hierdoor wordt ook het vertrouwen van de consument in op AI gebaseerde producten en diensten bevorderd, wat bijdraagt aan een stabielere en groeiende markt.

Ook bouwt de EU met het voorstel voor de richtlijn verder aan haar rol als globale pionier op het gebied van digitale regelgeving. De richtlijn draag bij aan het versterken van het wereldwijde normstellend vermogen van de EU. Dit vermogen is een van de belangrijkste troeven om geopolitieke en geo-economische doelstellingen te realiseren. Cruciale voorwaarde daarbij is dat de EU ambitieuze eigen regelgeving vormgeeft omtrent digitale technologieën zoals AI.

6. Implicaties juridisch

a) Consequenties voor nationale en decentrale regelgeving en/of sanctionering beleid (inclusief toepassing van de lex silencio positivo)

Implementatie van de richtlijn zal mogelijk leiden tot aanpassing van het inzagerecht in het Wetboek van Burgerlijke Rechtsvordering, voor zover het gaat om de gevolgtrekkingen die de rechter moet maken bij de weigering van de gedaagde om informatie over te leggen. De weerlegbare vermoedens van causaal verband zullen leiden tot nationale wetgeving. De lex silencio positivo is niet van toepassing omdat de maatregelen in deze richtlijn niet zien op beschikkingen van bestuursorganen.

b) Gedelegeerde en/of uitvoeringshandelingen, incl. NL-beoordeling daarvan

Het richtlijnvoorstel bevat geen gedelegeerde of uitvoeringshandelingen.

c) Voorgestelde implementatietermijn (bij richtlijnen), dan wel voorgestelde datum inwerkingtreding (bij verordeningen en besluiten) met commentaar t.a.v. haalbaarheid

Het richtlijnvoorstel bevat een implementatietermijn van twee jaar. Dit is volgens het kabinet een realistische termijn.

d) Wenselijkheid evaluatie-/horizonbepaling

Volgens de evaluatiebepaling moet de Commissie de richtlijn vijf jaar na de omzetting evalueren. Daarbij moet, volgens de commissie, met name worden onderzocht of er behoefte is aan het creëren van risicoaansprakelijkheidsregels voor vorderingen tegen de exploitant, voor zover deze niet reeds onder andere aansprakelijkheidsregels van de Unie vallen, en of er behoefte is aan een verplichte schadeverzekering. Het kabinet is positief over de evaluatie van wet- en regelgeving en dus ook voor deze richtlijn.

e) Constitutionele toets

Het aansprakelijkheidsrecht biedt burgers die schade ondervinden de mogelijkheid tot schadevergoeding. Door het voorstel om de bewijsregels voor aansprakelijkheidsprocedures aan te passen aan de risico’s zoals ze zich volgens de Commissie bij AI manifesteren, kan dit voorstel bijdragen aan de uitoefening van een effectief rechtsmiddel, zoals neergelegd in artikel 47 van het Handvest voor de EU-grondrechten.

Daarnaast biedt dit voorstel aanvullende mogelijkheden om de bescherming van andere fundamentele rechten te handhaven die door de toepassing van AI worden geschonden en tot schade leiden. Daarbij kan worden gedacht aan het recht op leven (artikel 2 van het EU Handvest), bezit (artikel 17 van het EU-Handvest) en in het bijzonder op de bescherming tegen discriminatie (artikel 1 Grondwet, artikel 21 EU-Handvest).

7. Implicaties voor uitvoering en/of handhaving

De bepalingen in de richtlijn zullen moeten worden toegepast door de civiele rechter, indien bij hem een procedure aanhangig wordt gemaakt over de niet-contractuele schuldaansprakelijkheid voor schade die veroorzaakt is door een AI-systeem. De richtlijn bevat geen regels die anderszins gehandhaafd dienen te worden, zodat de handhaafbaarheid buiten beschouwing gelaten kan worden.

8. Implicaties voor ontwikkelingslanden

Geen implicaties voor ontwikkelingslanden.


X Noot
1

Dit BNC-fiche wordt tegelijkertijd verstuurd met het BNC-fiche over het voorstel dat strekt tot herziening van de richtlijn productaansprakelijkheid (Kamerstuk 22 112, nr. 3548).

X Noot
2

Kamerstuk 22 112, nr. 3129.

X Noot
3

Kamerstuk 36 643, nr. 924 en Kamerstuk 36 643, nr. 943 en Kamerstuk 36 643, nr. 765.

Naar boven