De AI-aansprakelijkheidsrichtlijn probeert in 35 pagina’s een kader te geven voor aansprakelijkheid bij AI-systemen (klik). Het gaat dan om ‘niet-contractuele’ schade. Denk bijvoorbeeld aan de situatie dat een sollicitant wordt gediscrimineerd door gebruik van een (AI-)algoritme dat cv’s selecteert. De richtlijn moet dan zorgen dat die sollicitant aanspraak kan maken op schadevergoeding. Op grond van deze richtlijn kan niet alleen de ontwikkelaar, maar ook de gebruiker van een AI-systeem worden aangesproken tot vergoeding van schade.

Bewijslast

Problematisch bij dergelijke schade is dat het voor slachtoffers praktisch onmogelijk kan zijn om te bewijzen dat een AI-systeem foutief heeft gehandeld. Inzage in de werking van het systeem zal vaak ontbreken en het betreft bovendien zeer complexe systemen. De Europese Commissie noemt dat terecht een ‘blackboxeffect’. De AI-aansprakelijkheidsrichtlijn moet dit ondervangen. Onder andere door een speciaal wettelijke bewijsvermoeden: als er door een AI-systeem ‘foutief’ is gehandeld en de schade verband houdt met die handeling, dan is de ontwikkelaar in beginsel aansprakelijk. In beginsel, want de ontwikkelaar mag vervolgens dit bewijsvermoeden weerleggen.

 

Verder geeft de richtlijn een reeks aan uitzonderingen met daarbij normen die tot gevolg hebben dat het bewijsvermoeden niet geldt. Meer hierover in een latere blog.

Inzage bewijsmateriaal

Een andere belangrijke bewijsrechtelijke regeling is dat de richtlijn toegang tot bewijsmateriaal introduceert. De richtlijn geeft personen die stellen schade te hebben geleden de mogelijkheid de rechter te verzoeken om de ontwikkelaar te dwingen informatie te verstrekken over de werking van het AI-systeem. Dit geldt voor systemen die vallen binnen de categorie ‘hoog risico’. Of de informatie moet worden verstrekt zal de uitkomst zijn van een belangenafweging, waarbij bedrijfsgeheimen een afweging kunnen spelen maar niet doorslaggevend zijn (aldus artikel 3).

Ten gunste van?

De gedachte dat de AI-aansprakelijkheidsrichtlijn alleen wenselijk is voor gebruikers, is onjuist. Ook ontwikkelaars zijn gebaat bij de AI-aansprakelijkheidsrichtlijn. Uit verschillende nationale AI-strategieën blijkt dat verschillende lidstaten concrete plannen hadden voor wetgevende maatregelen op die gebied. Als de EU niet met deze richtlijn was gekomen, dan zouden er verschillende regels gaan gelden binnen Europa. Dit zou leiden tot versnippering en hogere kosten voor bedrijven die in de hele EU actief zijn.

Vragen?

Heeft u vragen over de AI-verordening? Neem dan contact op met Menno de Wijs, advocaat IT, Privacy & Cybersecurity.

Nieuwsbrief

Wil je elke maand een overzicht van updates en blogs in je mailbox? Klik dan hier om je in te schrijven voor de nieuwsbrief!