Direktiv om skadeståndsansvar gällande artificiell intelligens

Fakta-pm om EU-förslag 2022/23:FPM8 : COM(2022) 496

Fakta-PM om EU-förslag

En faktapromemoria, fakta-PM, är en redogörelse från regeringen till riksdagen om ett förslag från EU-kommissionen. Där framgår vad förslaget går ut på, hur det kan påverka svenska regler och vad regeringen anser om förslaget.

PDF
DOC

Regeringskansliet

Faktapromemoria  2022/23:FPM8

 

Direktiv om skadeståndsansvar gällande artificiell intelligens

2022/23:FPM8

Justitiedepartementet

2022-11-01

Dokumentbeteckning

COM(2022) 496

Förslag till EUROPAPARLAMENTETS OCH RÅDETS DIREKTIV Om anpassning av reglerna om utomobligatoriskt skadeståndsansvar vad gäller artificiell intelligens (direktivet om skadeståndsansvar gällande AI)

 

Sammanfattning

Kommissionen har föreslagit ett direktiv om skadeståndsansvar gällande artificiell intelligens (AI). Direktivet innehåller regler om edition och bevis­börda som är tänkta att underlätta för den som har skadats av ett AI-system att få fram bevisning och underbygga en talan om utomobligatoriskt skadestånd. Direktivet syftar även till att främja utbyggnaden av pålitlig AI för att den inre marknaden ska åtnjuta fördelarna med den.

Regeringen välkomnar ambitionen att underlätta för personer som drabbats av skada genom AI att kunna få ersättning med hänsyn till de särskilda ut­maningar som AI är förenad med. Direktivets regler bör ge uttryck för en väl avvägd balans mellan intresset av att ge skade­lidande ett effektivt skydd om AI orsakar skada och intresset av att främja den tekniska utvecklingen. Direk­tivet bör inte vara mer långtgående och detaljerat än vad som är nödvändigt. Förslaget kommer troligen att behandlas under Sveriges EU-ordförandeskap den 1 januari till och med den 30 juni 2023.

 

1                 Förslaget

1.1           Ärendets bakgrund

Kommissionen publicerade i februari 2020 vitboken Om artificiell intelligens – en EU-strategi för spetskompe­tens och förtroende. I vitboken framhålls mål­sättningen att främja användningen av AI samtidigt som man hanterar vissa av riskerna som är kopplade till AI-användning. Vitboken åtföljdes av en rapport om konsekvenser för säkerhet och ansvar när det gäller AI, sakernas internet och robotteknik, i vilken kommissionen bl.a. tar upp de särskilda utmaningar som AI innebär för befintliga regler om skadestånd. Med vitboken och rapporten lanserade kommissionen ett samråd om förslag till en europeisk AI-strategi.

I sina slutsatser den 9 juni 2020 om att forma Europas digitala framtid välkom­nade rådet samrådet om de politiska förslagen i vitboken om AI. Rådet uppmanade samtidigt kommissionen att lägga fram konkreta förslag. Europaparlamentet antog därefter, i oktober 2020, en resolution med krav på en EU-förordning om ansvar för driften av AI-system (resolution 2020/2014[INL]). Resolutionen åtföljdes av detaljerade rekommen­dationer till kommissionen i form av en fullständig förordning som bl.a. innehåller regler om omvänd bevisbörda för den stora majoriteten av AI-tillämpningar och en strikt ansvarsordning för AI-tillämpningar med hög risk förenad med en försäkringsskyldighet.

Kommissionen presenterade den 28 september 2022 sitt förslag till direktiv om anpassning av reglerna om utomobligatoriskt skadeståndsansvar vad gäller artificiell intelligens. Samma dag presenterades även ett förslag till nytt produktansvarsdirektiv (se faktapromemoria 2022/23:FPM7). Båda för­slagen syftar till att anpassa reglerna om skadeståndsansvar till den digitala tidsåldern, den cirkulära ekonomin och effekterna av globala värdekedjor. För­slaget till direktiv om skadeståndsansvar gällande AI är även, tillsammans med bl.a. förslaget till en förordning om artificiell intelligens (AI-förordningen)[1], en del i ett paket som ska främja användningen av AI.

1.2           Förslagets innehåll

Allmänt om direktivet

Direktivet syftar till att främja utbyggnaden av pålitlig AI och att förbättra funktionen av den inre marknaden genom en harmoni­sering av medlems­staternas lagstiftning om bl.a. edition och bevisbörda vid vissa skadestånds­anspråk som rör AI. Det närmare målet med harmoniseringen är att se till så att den som har lidit skada på grund av AI har likvärdiga möjligheter att få ersättning som den som har lidit skada på något annat sätt. Direktivet är ett s.k. minimidirektiv, vilket innebär att medlemsstaterna får behålla eller införa regler som är mer fördelaktiga för skadelidande, under förutsättning att reglerna är förenliga med EU-rätten. Direktivet omfattar enbart skadestånds­skyldighet utanför avtalsförhållanden till följd av vårdslöshet hos skade­vål­laren och påverkar inte allmänna regler om skadestånd, som t.ex. fördelningen av skadeståndsskyldighet vid flera skadevållare, beräkning av skadestånd eller preskription.

Direktivet har ett nära samband med den föreslagna AI-förordningen (se fakta­promemoria 2020/21:FPM109), bl.a. när det gäller vissa centrala begrepp. Det gäller bl.a. begreppen AI-system, AI-system med hög risk, leverantör och användare.

 

Regler om edition

För att underlätta för en skadelidande att föra en talan om skadestånd inne­håller direktivet regler om edition och bevarande av bevis om s.k. högrisk-AI-system. Reglerna tar sikte på bevis om att den påstått skadeståndsskyldige inte har uppfyllt relevanta aktsamhetskrav, dvs. att denne har varit vårdslös.

Enligt reglerna ska medlemsstaterna se till att domstolar har möjlighet att, på begäran av den som för en skadeståndstalan eller överväger att göra det, besluta att vissa särskilt angivna aktörer (bl.a. leverantören av ett AI-system) ska lämna ut och bevara relevanta bevis om ett högrisk-AI-system som miss­tänks ha orsakat den skadelidande skada. För detta ska det dock krävas att den skadelidande lägger fram tillräckliga fakta och bevis för sitt anspråk och har vidtagit alla rimliga åtgärder för att få ut bevisen från den påstått skade­ståndsskyldige. Domstolar ska begränsa sitt beslut till vad som är nödvändigt och proportionerligt. Vid bedömningen av vad som är nödvändigt och proportionerligt ska domstolen bl.a. ta hänsyn till regler om skydd för företagshemligheter och information som rör nationell säkerhet. Reglerna ställer också krav på att den som har tvingats att lämna ut eller bevara bevis kan vidta lämpliga processuella åtgärder mot ett sådant beslut.

Direktivet föreskriver vidare att om den påstått skadeståndsskyldige inte följer ett domstolsbeslut om att lämna ut eller bevara bevis ska domstolen presumera att denne inte har uppfyllt det relevanta aktsamhetskravet. Den påstått skade­ståndsskyldige ska ha rätt att motbevisa presumtionen.

 

Bevisbörderegler

För att underlätta en skadeståndstalan för den som har lidit skada på grund av ett AI-systems utdata eller underlåtenhet att producera utdata, som orsakats av oaktsamhet, innehåller direktivet regler om bevisbördan för orsakssambandet mellan oaktsamheten och utdata eller underlåtenheten att producera utdata. Enligt direktivet ska en domstol under vissa förutsättningar presumera att det finns ett sådant orsakssamband. För att presumtionen om orsakssamband ska gälla krävs till att börja med att den skadelidande antingen kan visa att den påstått skadeståndsskyldige har varit oaktsam eller att sådan oaktsamhet kan presumeras enligt reglerna om edition. Dessutom krävs att det kan anses sannolikt att oaktsamheten påverkade utdata eller underlåtenheten att producera utdata och att den skadelidande kan visa att detta orsakade skadan.

Vid skadeståndsanspråk som avser ett högrisk-AI-system uppställer direktivet särskilda krav som den skadelidande måste uppfylla för att kravet på bevisad eller presumerad oaktsamhet ska anses uppfyllt.  Direktivet innehåller även särskilda bestämmelser för de fall då den påstått skadestånds­skyldige är en användare av ett högrisk-AI-system.

När det gäller högrisk-AI-system ska presumtionsregeln inte tillämpas om den påstått skadeståndsskyldige visar att den skadelidande med rimliga ansträng­ningar kan få tag i bevisning som är tillräcklig för att bevisa orsakssambandet. I fråga om andra AI-system ska presumtionsregeln tillämpas endast om en domstol anser det orimligt svårt att bevisa orsakssambandet. Den påstått skadeståndsskyldige ska ha rätt att motbevisa presumtionen.

1.3           Gällande svenska regler och förslagets effekt på dessa

I svensk rätt finns det regler om processuell edition i rättegångsbalken (38 kap.). Reglerna innebär att den som innehar skriftlig handling, som kan antas ha betydelse som bevis, är skyldig att tillhandahålla handlingen. Med skriftlig handling avses även elektroniskt lagrad information. Den som inte frivilligt tillhandahåller en sådan handling kan föreläggas av en domstol att göra det. Motsvarande regler finns för föremål (39 kap.). Reglerna om edition gäller under en pågående domstolsprocess, och under vissa förutsättningar kan bevis tas upp även innan en sådan process har inletts (41 kap.). Ett före­läggande om edition ska föregås av en proportionalitetsbedömning. Företags­hemligheter behöver lämnas ut endast om det finns synnerliga skäl för det. Vidare finns det regler i offentlighet- och sekretesslagen (2009:400) som kan skydda affärshemligheter under en dom­stolsprocess. Direktivets regler om edition under en pågående domstolsprocess motsvaras alltså i stor utsträckning av regler i svensk rätt. Reglerna om edition innan en domstolsprocess har inletts och bevarande av bevisning har däremot ingen direkt motsvarighet. Någon regel om presumtion i det fall en svarande inte följer ett domstolsbeslut om att lämna ut bevis finns inte i svensk rätt. Direktivet kan alltså föranleda vissa ändringar.

I svensk rätt gäller vidare principerna om fri bevisföring och fri bevisvärde­ring. Frågor om bevisbörda bestäms vanligtvis i praxis. På det område som direktivet reglerar saknar svensk rätt uttryckliga lagregler om bevisbörda. Direktivet kan därför föranleda att sådana regler behöver införas i svensk rätt.

1.4           Budgetära konsekvenser / Konsekvensanalys

Kommissionen har gjort en konsekvensanalys av förslaget och gjort bedöm­ningen att det inte kommer att få några konsekvenser för EU:s budget. Enligt analysen säkerställer förslaget att de som skadas av AI-system erhåller ett skydd som inte är sämre än skyddet för de som skadas av traditionell teknologi, vilket skulle öka tilliten till och främja användningen av AI. Genom att förslaget minskar den rättsliga osäkerheten och förhindrar att medlems­staternas regler ser olika ut, bedömer kommissionen vidare att förslaget skulle hjälpa företag, främst små och medelstora, som vill verka på den inre marknaden genom att lansera AI-system över medlemsstaternas gränser. Kommissionen bedömer dessutom att förslaget ökar möjligheterna, särskilt för små och medelstora företag, att försäkra sig mot de risker som är förknippade med AI. Enligt kommissionens uppskattning leder förslaget till att AI-marknaden kommer att öka i värde med ca 0,5–1,1 miljarder euro under 2025.

Förslaget bedöms mot den bakgrunden inte få några konsekvenser för vare sig statsbudgeten eller EU:s budget. Eventuella nya uppgifter och åtaganden som innebär kostnader för EU ska finansieras genom omprioriteringar av medel inom beslutade ramar i den fleråriga budgetramen (MFF). Eventuella nya uppgifter och åtaganden som innebär kostnader för statsbudgeten ska som utgångspunkt finansieras i linje med de principer om neutralitet för statens budget som riksdagen har beslutat om (prop. 1994/95:40, bet. 1994/95:FiU5, rskr. 1994/95:67).

2                 Ståndpunkter

2.1           Preliminär svensk ståndpunkt

Regeringen välkomnar ambitionen att underlätta för personer som drabbats av skada genom AI att kunna få ersättning med hänsyn till de särskilda utmaningar som AI är förenad med. Det är viktigt att direktivets regler ger uttryck för en väl avvägd balans mellan intresset av att ge skade­lidande ett effektivt skydd om AI orsakar skada och intresset av att främja den tekniska utvecklingen. Direktivet bör inte vara mer långtgående och detaljerat än vad som är nödvändigt, och bör dessutom utformas på ett sätt som går att förena med grundläggande svenska process- och skade­stånds­rättsliga regler och principer. Det är även viktigt att bevaka att frågan om nationell säkerhet inte regleras i direktivet eftersom den frågan är varje medlemsstats eget ansvar.

2.2           Medlemsstaternas ståndpunkter

Det är ännu inte känt vilka ståndpunkter medlemsstaterna har.

2.3           Institutionernas ståndpunkter

Det är ännu inte känt vilka ståndpunkter institutionerna har.

2.4           Remissinstansernas ståndpunkter

Berörda myndigheter och organisationer kommer inom kort att beredas tillfälle att lämna synpunkter på förslaget.

3                 Förslagets förutsättningar

3.1           Rättslig grund och beslutsförfarande

Kommissionen har som rättslig grund angett artikel 114 i fördraget om Europeiska unionens funktionssätt. Artikel 114 behandlar möjligheten att besluta om åtgärder för tillnärmning av sådana bestämmelser i lagar och andra författningar i medlemsstaterna som syftar till att upprätta den inre marknaden och för att få den att fungera. Det ordinarie lagstiftningsförfarandet tillämpas, vilket innebär att Europaparlamentet och rådet gemensamt antar direktivet. Beslut fattas i rådet med kvalificerad majoritet.

3.2           Subsidiaritets- och proportionalitetsprincipen

Kommissionen anser att förslaget är förenligt med subsidiaritets- och proportionalitetsprincipen.

När det gäller subsidiaritetsprincipen pekar kommissionen på att ett antal medlemsstater överväger nationell lagstiftning om skadeståndsansvar för AI, något som skulle skapa ett fragmenterat regelverk inom EU. Det skulle leda till rättslig osäkerhet och särskilt påverka företag som är aktiva över gränserna genom att kräva ytterligare juridisk information, riskhanterings­kostnader och inkomstbortfall. Samtidigt skulle olika nationella regler om ersättningsanspråk för skada orsakad av AI öka transaktions­kostnaderna för företag, särskilt för gränsöverskridande handel, vilket medför betydande hinder för den inre marknaden. Rättslig osäkerhet och fragmentering påverkar dessutom nystartade företag och små och medelstora företag oproportionerligt mycket. Utan harmoniserade regler på EU-nivå skulle leverantörer, operatörer och användare av AI-system ställas inför olika ansvarssystem, vilket skulle leda till snedvriden konkurrens mellan företag från olika medlemsstater. Samman­taget menar kommissionen att detta skulle innebära hinder för utbyggnaden av AI-aktiverade produkter och tjänster på den inre marknaden. Kommissionen bedömer att endast EU-åtgärder konsekvent kan uppnå den önskade effekten att främja konsumenternas förtroende för AI-aktiverade produkter och tjänster genom att förhindra ansvarsluckor kopplade till AI-specifika egenskaper på den inre marknaden. Regeringen gör mot den bakgrunden bedömningen att förslaget till direktiv får anses vara förenligt med subsidiaritetsprincipen.

När det gäller förslagets förenlighet med proportionalitetsprincipen pekar kommissionen på att förslaget bygger på en stegvis modell. Det första steget, som innebär åtgärder med minimal påverkan, är begränsat till regler om edition och bevisbörda för att hantera de specifika problem som har identifierats i fråga om AI. Det andra steget innebär att kommissionen ska utvärdera tillämpningen av direktivet efter fem år för att bedöma om det finns ett behov av ytterligare harmonisering. Regeringen gör mot den bakgrunden bedöm­ningen att förslaget får anses fören­ligt med proportionalitets­principen.

4                 Övrigt

4.1           Fortsatt behandling av ärendet

Förslaget kommer att remitteras och analyseras vidare, bl.a. mot bakgrund av inkomna remissvar. Kommissionen informerade om förslaget på ett rådsmöte den 13 oktober och första behandlingen av förslaget i rådsarbetsgruppen för civilrättsliga frågor (skadeståndsansvar) påbörjades den 28 oktober. Förslaget kommer troligen att behandlas under Sveriges EU-ordförandeskap den 1 januari till och med den 30 juni 2023. Det är ännu inte känt när Europaparlamentet kommer att påbörja sin behandling av förslaget.

4.2           Fackuttryck/termer

Artificiell intelligens (AI): Artificiell intelligens har ingen entydig definition eller allmänt vedertagen avgränsning. I förslaget till AI-förordning definieras AI-system som mjukvara som är utvecklad med en eller flera olika utveck­lingssätt och tekniker definierade i en bilaga till förordningen, såsom maskin­inlärning. Utifrån av människor givna instruktioner kan mjukvaran generera innehåll i form av prognoser, prediktioner, rekommendationer eller beslut som påverkar fysiska eller digitala miljöer. AI-system är designade för att kunna operera med varierad grad av autonomi. Definitionen bygger på den definition om AI som Organisationen för ekonomiskt samarbete och utveckling (OECD) använder.


[1]Förslag till Europaparlamentets och rådets förordning om harmoniserade regler för artificiell intelligens (rättsakt om artificiell intelligens) och om ändring av vissa unions­lagstiftningsakter, COM(2021) 206 final.

Fakta-PM om EU-förslag

En faktapromemoria, fakta-PM, är en redogörelse från regeringen till riksdagen om ett förslag från EU-kommissionen. Där framgår vad förslaget går ut på, hur det kan påverka svenska regler och vad regeringen anser om förslaget.