Förordning om artificiell intelligens
Fakta-pm om EU-förslag 2020/21:FPM109 : COM(2021) 206
Regeringskansliet
Faktapromemoria 2020/21:FPM109
Förordning om artificiell intelligens | 2020/21:FPM109 |
Infrastrukturdepartementet
2021-05-26
Dokumentbeteckning
COM(2021) 206
Proposal for a Regulation laying down harmonised rules on artificial intelligence (artificial intelligence act) and amending certain union legislative acts.
Sammanfattning
Den 21 april 2021 presenterade kommissionen sitt förslag till en förordning om harmoniserade regler för artificiell intelligens (AI) inom ramen för strategin för det digitala Europa. Kommissionen annonserade i Vitboken om artificiell intelligens, som presenterades den 19 februari 2020, ambitionen att föreslå ett rättsligt ramverk för AI med utgångspunkt i etiska riktlinjer för utveckling och användning av AI.
Syftet med förslaget till förordning är att harmonisera regler för AI inom EU, stärka den inre marknadens konkurrenskraft och funktion samt att undvika fragmentering på den inre marknaden, skydda hälsa, säkerhet och grundläggande rättigheter, främja de positiva aspekterna av AI och säkerställa fri rörlighet av AI-system. Förslagets rättsliga grund är artikel 114 fördraget om Europeiska unionens funktionssätt om den inre marknadens funktion.
Förslaget använder ett riskbaserat angreppsätt i syfte att skapa en strukturerad uppdelning mellan olika typer av AI-system och dess användning där vissa är förbjudna, andra tillåtna men med restriktioner och krav i form av bl.a. tillsyn och registrering hos ansvarig myndighet. De AI- system som inte innebär någon eller liten risk får användas utan restriktioner. Ett system för marknadsövervakning- och regelefterlevnad via offentliga organ föreslås införas på såväl nationell nivå som på EU-nivå. För att få använda högrisk-system krävs en CE-märkning som kan fås efter en prövning av behörigt offentligt organ. Användning av s.k. regulatoriska
1
sandlådor föreslås i syfte att främja innovation och effektivisera | 2020/21:FPM109 |
regelefterlevnad för kommande AI-system. | |
Regeringen är positiv till kommissionens arbete att skapa enhetlig reglering | |
för AI inom EU. AI har använts länge och används av många företag och | |
inom offentlig sektor i dag. Potentialen är betydande och Sverige ska vara | |
ledande i att ta tillvara möjligheterna som användningen av AI kan ge och | |
regeringen ser därför positivt på EU-reglering som stödjer detta. EU behöver | |
på övergripande nivå stärka sin kapacitet att utveckla och använda AI. | |
Det är viktigt att samhället har förtroende för tekniken och dess användning. | |
Regeringen stödjer därför inriktningen att ta fram regler som ökar | |
transparens, tydliggör vilka användningar som ska vara förbjudna respektive | |
möjliggör tillsyn och efterlevnad. Samtidigt behöver reglerna vara | |
proportionerliga i förhållande till de syften som anges, utgå från principen | |
om teknikneutralitet och inte vara för detaljerade eller administrativt | |
betungande. | |
Regeringen välkomnar att förslaget tar sin grund i mänskliga rättigheter | |
inklusive rätten till privatliv, yttrandefrihet, icke-diskriminering och | |
jämställdhet, men även personlig integritet, skydd av fysiska personer i fråga | |
om behandling av personuppgifter och informations- och cybersäkerhet. |
1 Förslaget
1.1Ärendets bakgrund
Förslaget till förordning läggs fram inom ramen för EU:s digitala strategi. Europeiska rådet angav i slutsatser från oktober 2020 att EU ska vara världsledande i utvecklingen av säker, tillförlitlig och etisk artificiell intelligens. Europaparlamentet har därutöver vid flera tillfällen uppmanat kommissionen att lägga fram lagförslag för att säkerställa de grundläggande rättigheterna och samtidigt att potentialen med AI kan nyttjas i ökad utsträckning. En oberoende expertgrupp på hög nivå för AI-frågor inrättades av kommissionen 2018 och gruppen har bl.a. tagit fram etiska riktlinjer för tillförlitlig AI.
Kommissionens ordförande Ursula von der Leyen meddelade i sina politiska riktlinjer i juli 2019 att kommissionen skulle ta fram en lagstiftning om AI. Kommissionen publicerade den 19 februari 2020 Vitbok om artificiell intelligens - en EU-strategi för spetskompetens och förtroende (COM (2020) 65 final). I vitboken för kommissionen resonemang om hur ett rättsligt ramverk för AI kan utformas och vilken analys som krävs, varför det behövs, vilka områden som ska täckas av ramverket och eventuellt behov av justering av befintliga regelverk. Kommissionen anför att det rättsliga ramverket ska bidra till att skapa ett ekosystem av förtroende för AI i Europa med utgångspunkt i etiska riktlinjer för utveckling och användning av AI. Regeringen konstaterade att vitboken går väl i linje med regeringens
2
nationella inriktning för AI (N2018/03008) och välkomnade innehållet i | 2020/21:FPM109 |
vitboken i Fakta-PM om EU:s digitala strategi, AI-vitbok och datastrategi | |
(2019/20:FPM23). Vitboken följdes av en öppen allmän konsultation. |
1.2 Förslagets innehåll
Syftet med förslaget till förordning är att harmonisera regler för AI inom EU, skydda grundläggande rättigheter, främja de positiva aspekterna av AI och säkerställa fri rörlighet av AI-system. Genom ett riskbaserat angreppssätt avser förslaget att skapa en strukturerad uppdelning mellan olika typer av AI- system och dess användning där vissa är förbjudna, andra tillåtna men med restriktioner och krav i form av bl.a. registrering hos ansvarig myndighet. De flesta AI-system, sådana som inte innebär någon, eller liten, risk, får användas utan restriktioner men kan omfattas av krav på tillsyn. Användning och utveckling av icke-bindande uppförandekoder uppmuntras. Ett system för marknadsövervakning- och regelefterlevnad via offentliga organ på nationell och på EU-nivå föreslås införas. För högrisksystem ska en CE- märkning, som endast kan fås efter en prövning av behörigt offentligt organ, användas. Certifiering enligt annan lagstiftning kan också krävas. Åtgärder för att främja innovation och s.k. regulatoriska sandlådor föreslås.
Förordningen har följande närmare angivna syften: 1) säkerställa att AI- system som placeras och används på den inre marknaden är säkra och utvecklas och används i enlighet med grundläggande rättigheter, i enlighet med EU:s stadga om de grundläggande rättigheterna, och unionsvärden, 2) säkerställa rättssäkerhet och förutsebarhet för att underlätta investeringar och innovation inom AI, 3) förbättra styrning och effektiv tillämpning av befintliga lagar om grundläggande rättigheter och säkerhetskrav som är tillämpliga på AI och 4) underlätta utvecklingen av en inre marknad för lagliga, säkra och pålitliga AI-system och förhindra fragmentering. Förslaget innehåller tolv avdelningar och en sammanfattning av dessa följer nedan.
Avdelning I anger tillämpningsområde och definitioner. Förordningen ska tillämpas på:
-tillhandahållare av AI-system som används på den inre marknaden oavsett om tillhandahållaren är etablerad inom EU eller inte,
-de som använder AI-system som finns inom EU, och
-användare och tillhandahållare av AI-system där det som genereras av AI-systemet används inom EU oavsett om tillhandahållaren eller användaren är etablerad eller befinner sig inom EU eller i tredjeland.
En definition av AI-system anges. För att regleringen ska följa med i teknik- och marknadsutvecklingen upprättas en bilaga där olika typer av tekniker och användningssätt, som enligt förslaget definieras som AI-system, registreras. Kommissionen ges befogenheter att uppdatera bilagan genom
3
delegerade akter. AI-system som utvecklats eller används enbart för militärt | 2020/21:FPM109 |
bruk ska inte omfattas av förordningen. | |
Avdelning II innehåller bestämmelser om att vissa användningar av AI- | |
system ska vara förbjudna. Förbudet gäller att placera sådana system på | |
marknaden, ta systemen i bruk och att använda systemen. |
Förbuden gäller för:
-AI-system som använder subliminala metoder för att manipulera en persons beteende på ett sätt som innebär eller sannolikt kan innebära att den personen eller en annan person orsakas fysisk eller psykisk skada,
-AI-system som används för att utnyttja sårbarheter hos en specifik grupp av människor, om sårbarheten beror på ålder, mental eller fysisk funktionsnedsättning, och syftet är att väsentligt förändra beteendet hos en person som tillhör gruppen på ett sätt som innebär eller sannolikt kan innebära att den personen eller annan person orsakas fysisk eller psykisk skada,
-AI-system som används av eller på uppdrag av offentliga organ för att profilera och klassificera fysiska personers trovärdighet över en viss tid baserat på personernas beteende eller uppskattade personlighet eller personlighetsdrag hos personen utifrån ett poängsystem. Åtgärden i fråga ska leda till skadlig eller ogynnsam behandling av personen, eller en grupp av personer, i en social kontext som inte har samband med den kontext som data samlades in i eller skapades för. Användningen ska leda till skadlig eller ogynnsam behandling av personen eller en grupp av personer som är obefogad eller oproportionerlig i förhållande till beteendet eller följderna av detta, och
-AI-system som identifierar personer på distans i realtid på offentliga platser, där identifieringen baseras på biometriska uppgifter, i brottsbekämpande syften. Förbudet är inte absolut utan medlemsstaterna kan välja att medge undantag från förbudet i syfte att t.ex. eftersöka brottsoffer, inklusive försvunna barn, eller personer som misstänks för allvarlig brottslighet. Undantag kan även medges om det finns en betydande och nära förstående risk för liv eller personlig säkerhet eller en terroristattack. För användning av ett AI-system med stöd av undantaget krävs att ett beslut om förhandsgodkännande fattas av behörig rättslig myndighet i medlemsstaten, i enlighet med nationell rätt och i varje enskilt fall. Om situationen är akut, får ett sådant godkännande dock ges i efterhand.
Avdelning III innehåller bestämmelserna om att AI-system som utgör risk för säkerhet och hälsa samt för de grundläggande rättigheterna ska definieras
4
som högrisk. Ett antal AI-system definieras som högrisk i en bilaga till | 2020/21:FPM109 |
förordningen. Kommissionen föreslås få rätt att genom delegerade akter vid | |
behov lägga till ytterligare AI-system som ska definieras som högrisk. | |
Exempel på AI-system som definieras som högrisk är sådana som utgör delar | |
av reglerade produkter t.ex. maskiner som för användning kräver tillstånd | |
enligt vissa hänvisade rättsakter. Andra exempel är AI-system som används | |
vid gränskontroll eller för att bedöma om fysiska personer har rätt till bidrag. | |
AI-system som använder sig av biometriska uppgifter för att identifiera och | |
kategorisera fysiska personer är ytterligare ett exempel. | |
AI-system som definieras som högrisk får endast användas om de genomgått | |
en granskningsprocess av en behörig offentlig aktör och beviljas en CE- | |
märkning. För att beviljas en CE-märkning behöver aktören bl.a. upprätthålla | |
adekvat nivå av transparens i hur AI-systemet fungerar, tillhandahålla | |
relevant dokumentation av systemets funktion för tillsyn och säkerställa | |
användning av data som är av hög kvalitet. Olika krav gäller beroende på | |
vilken roll en aktör har i förhållande till AI-systemet, kraven är fler för en | |
tillhandahållare än en användare av AI-system som definieras som högrisk. | |
AI-system som definieras som högrisk ska utformas och utvecklas på ett | |
sådant sätt att de, med hänsyn till det avsedda syftet, uppnår en lämplig nivå | |
av noggrannhet, robusthet och cybersäkerhet som upprätthålls under | |
systemens hela livscykel. | |
I avdelningen föreslås också att varje medlemsstat ska utse eller etablera | |
minst en tillsynsmyndighet som ska ansvara för att säkerställa att de | |
nödvändiga förfarandena följs. | |
Avdelning IV innehåller informations- och transparenskrav för hur AI- | |
system som är avsedda att interagera med fysiska personer ska utformas och | |
utvecklas så att fysiska personer blir informerade om att de interagerar med | |
AI-system, om det inte är uppenbart att så är fallet. Fysiska personer ska | |
informeras om de exponeras för AI-system som används för att registrera | |
känslor eller biometrisk kategorisering. Detta ska dock inte gälla för AI- | |
system som med stöd i lag används för brottsbekämpande ändamål. Det ska | |
framgå att bilder eller rörlig media som kan uppfattas som äkta men som är | |
manipulerat eller genererat av AI-system har blivit manipulerat eller generat | |
av AI-system. Undantag finns för brottsbekämpande ändamål och för att | |
garantera rätten till yttrandefrihet, konstnärlig frihet och frihet för forskning i | |
enlighet med Europeiska unionens stadga om de grundläggande rättigheterna | |
(26 oktober 2012, 2012/C 326/02) föreslås. | |
Avdelning V innehåller regler som fokuserar på att underlätta för innovation, | |
i huvudsak genom användning av regulatoriska sandlådor. Medlemsstaterna | |
ska särskilt ge stöd och underlätta för små företag och uppstartsföretag. | |
Avdelning VI behandlar frågor om offentliga organ som föreslås inrättas för | |
stöd till aktörer, för tillsyn och för att säkerställa efterlevnad av förordningen. | |
En Europeisk styrelse för artificiell intelligens inrättas och krav på | |
medlemsstaterna att inrätta eller utse offentliga organ för regelefterlevnad | |
5 |
och rapportering samt deltagande i den Europeiska styrelsen för artificiell | 2020/21:FPM109 |
intelligens föreslås. Även Europeiska kommissionen får funktioner och | |
ansvar i dessa delar. | |
Avdelning VII innehåller regler om en EU-databas som ska innehålla en | |
katalog över AI-system som definieras som högrisk och som ska registreras i | |
databasen innan systemet tas i bruk eller ut på den inre marknaden. | |
Informationen i databasen ska vara tillgänglig för allmänheten. | |
Kommissionen och medlemsstaterna ska samarbeta för att för att utveckla | |
och förvalta databasen. Kommissionen har ansvaret för databasen. | |
Avdelning VIII innehåller bestämmelser om marknadskontroll och | |
rapporteringsskyldigheter för tillhandahållare när det gäller utredning av AI- | |
relaterade incidenter och tekniska problem. Det anges vilken typ av | |
information som tillhandahållare av AI-system ska hålla och kunna delge | |
behöriga myndigheter, vilken information som myndigheter får och ska | |
inhämta, relationen mellan behöriga myndigheter och kommissionen. Regler | |
om regelefterlevnad och åtgärder som krävs för att uppfylla förordningens | |
krav tas upp. Bestämmelser om tillsyn och övervakning samt vissa | |
processuella bestämmelser för att lösa olikheter mellan medlemsstater. | |
Avdelning IX ställer upp ramarna för inrättande av frivilliga | |
uppförandekoder, liknade regleringen för högrisksystem, för tillhandahållare | |
av AI-system som inte utgör högrisk och Avdelning X innehåller | |
sekretessregler som inriktar sig på att skydda den information som behöriga | |
myndigheter inhämtar med anledning av förordningens bestämmelser. Även | |
straffavgifter regleras i avdelningen. Storleken beror på vilket brott mot | |
förordningen som skett. Användningen av förbjudna AI-system enligt artikel | |
5 ska leda till böter på upp till 30 000 000 EUR eller upp till 6 procent av | |
föregående års globala omsättningen om det gäller ett företag vars | |
omsättning är högre än det stadgade bötesbeloppet. Även EU:s institutioner | |
kan bli ålagda straffavgifter genom beslut av den Europeiska | |
dataskyddsstyrelsen. | |
Avdelning XI innehåller delegationsbestämmelser och regler om delegerade | |
akter samt kommittéförfarande och i Avdelning XII finns | |
övergångsbestämmelser och bestämmelser om ikraftträdande. |
1.3Gällande svenska regler och förslagets effekt på dessa
Eftersom den föreslagna regleringen är i form av en förordning blir den till alla delar bindande och direkt tillämplig i varje medlemsstat och ska inte genomföras i svensk rätt. Förordningen kan komma att behöva kompletteras med nationella bestämmelser till exempel gällande nya uppgifter för vissa myndigheter. Det föreligger i nuläget inte någon bedömning av i vilken omfattning sådana kompletteringar kan behövas.
6
1.4 Budgetära konsekvenser / Konsekvensanalys | 2020/21:FPM109 |
Förslaget kommer att medföra kostnader och nya uppgifter för myndigheter på nationell och EU-nivå. I förordningen förtydligas att myndigheterna ska ha tillräcklig kompetens och kapacitet för att leva upp till de krav som ställs i förordningen. Kommissionen bedömer att det kommer att kräva vissa men inte omfattande personalresurser. I de fall straffavgifter utgår med anledning av förordningen ska medlen tillfalla EU:s allmänna budget.
Det krävs ytterligare analys för att bedöma den administrativa bördan för berörda myndigheter, kommuner och regioner i Sverige samt en analys gällande förslagen om nya uppgifter till myndigheter eller inrättande av nya myndigheter. Eventuella kostnader som förslagen kan leda till för den nationella budgeten ska finansieras i linje med de principer om neutralitet för statens budget som riksdagen beslutat om (prop. 1994/95:40, bet. 1994/95FiU5, rskr. 1994/95:67). Utgiftsdrivande åtgärder på EU-budgeten behöver finansieras genom omprioriteringar i den fleråriga budgetramen (MFF).
Förslaget till förordning kan komma att öka den administrativa bördan för företag. För företag som arbetar med AI-system som definieras som högrisk kommer förordningen att leda till ökade administrativa bördor.
Regeringen ser behov av ytterligare analys för att säkerställa att regleringen i sig inte negativt påverkar svenska myndigheters förmåga att upprätthålla nationell säkerhet eller bedriva effektiv brottsbekämpning.
Genom krav på dokumentation och ökade tillsynsmöjligheter särskilt vad gäller tillgången och användning av data för AI, ska förslaget bidra till att skydda grundläggande rättigheter, inklusive likabehandling, vilket kan bidra till positiva effekter för jämställdheten och motverka diskriminering.
2 Ståndpunkter
2.1Preliminär svensk ståndpunkt
Regeringen är positiv till kommissionens arbete att skapa enhetlig reglering för AI på den inre marknaden för att undvika fragmentering och stärka den inre marknadens konkurrenskraft och funktion. AI har använts länge och användningen fortsätter öka såväl inom näringslivet som inom offentlig sektor. Potentialen är betydande och Sverige ska vara ledande i att ta tillvara möjligheterna som användningen av AI kan ge och regeringen ser därför positivt på EU-reglering som stödjer detta. EU behöver på övergripande nivå stärka sin kapacitet att utveckla och använda AI. Digitalisering och utveckling av ny teknik bör vara verktyg för att uppnå ett mer konkurrenskraftigt, inkluderande, säkert och hållbart Europa.
Det är viktigt att samhället har förtroende för ny teknik och regeringen stödjer därför inriktningen att ta fram regler som ökar transparensen,
7
tydliggör ansvarsförhållanden, tydliggör vilka användningsområden som ska | 2020/21:FPM109 |
vara förbjudna samt möjliggör tillsyn och efterlevnad. Regeringen noterar att | |
flera av de risker som tas upp i förordningen även kan uppstå med annan | |
teknik eller på grund av mänskligt beslutsfattande. Reglerna måste vara | |
proportionerliga i förhållande till de syften som anges, utgå från principen | |
om teknikneutralitet, inte vara för detaljerade och inte överlappa med annan | |
relevant reglering. Det är viktigt att regleringen inte negativt påverkar | |
svenska myndigheters förmåga att bedriva effektiv brottsbekämpning eller | |
arbetet med nationell säkerhet. | |
Regeringen anser vidare att nationell säkerhet och försvar är frågor som är | |
medlemsstatens egen unika kompetens enligt EUF-fördraget och att åtgärder | |
som syftar till att skydda nationell säkerhet därmed inte faller under | |
regleringens tillämpningsområde, oavsett om det är staten eller en privat | |
aktör som ska vidta åtgärder med ett sådant syfte. Förordningen ska inte | |
hindra medlemsstaterna från att vidta de åtgärder som de anser nödvändiga | |
för att skydda den nationella säkerheten. Detta behöver tydliggöras i | |
regleringen. | |
Regeringen välkomnar att förslaget tar sin grund i mänskliga rättigheter | |
inklusive rätten till privatliv, yttrandefrihet, icke-diskriminering och | |
jämställdhet, men även personlig integritet, skydd av fysiska personer i fråga | |
om behandling av personuppgifter och informations- och cybersäkerhet. | |
Respekten för dessa aspekter måste upprätthållas i förslaget. | |
Regeringens utgångsläge är att förslaget ska stödja fri konkurrenskraft och | |
global handel. Regeringen välkomnar internationellt samarbete kring AI och | |
understryker vikten av att EU fortsatt samarbetar med likasinnade länder och | |
globala aktörer, det gäller särskilt i arbetet med en likriktad normering och | |
standardisering. | |
Regeringen ser att en viktig förutsättning för användningen av AI är tillgång | |
till data, säker datadelning samt möjligheten att experimentera och forska | |
även på bristfälliga data och att detta behöver genomsyra förordningen. | |
Ibland går det inte att exakt veta hur en AI fattat beslut och ett utrymme för | |
detta, särskilt för forskning och innovation, måste finnas för att den fulla | |
potentialen med AI ska kunna nyttjas. Regeringen menar även att test- och | |
experimentmiljöer, liksom regulatoriska sandlådor, kan vara viktiga för | |
utvecklingen av tillförlitlig AI. Det är vidare viktigt att de åtgärder för | |
kontroll och regelefterlevnad som föreslås är proportionerliga och | |
ändamålsenliga och inte förhindrar innovation och utveckling. | |
Regeringen anser vidare att det är viktigt att möjliggöra för individens | |
kontroll och insyn över den data som finns om individen. Sådan kontroll | |
behövs för att öka medborgarnas förtroende för ny teknik och hur data | |
används inom ramen för AI liksom för att tillförsäkra att individers | |
rättigheter efterlevs. För att säkerställa möjligheten till tillsyn och för att | |
motverka kränkningar av mänskliga rättigheter, inklusive diskriminering, | |
8 |
eller andra negativa utfall instämmer regeringen i att det viktigt med krav på | 2020/21:FPM109 |
transparens och öppenhet när AI-system används. |
2.2 Medlemsstaternas ståndpunkter
Medlemsstaternas ståndpunkter är inte kända.
2.3 Institutionernas ståndpunkter
Institutionernas ståndpunkter om förslaget till förordning är inte kända. Institutionerna har tidigare förordat lagstiftning inom AI i syfte att säkerställa konkurrenskraft och grundläggande rättigheter.
2.4 Remissinstansernas ståndpunkter
Förslaget till förordning remitteras men synpunkterna har inte hunnit inkomma när faktapromemorian överlämnas till riksdagen.
3 Förslagets förutsättningar
3.1Rättslig grund och beslutsförfarande
Som rättslig grund har kommissionen angett artikel 114 i Fördraget om Europeiska unionens funktionssätt (EUF-fördraget) och artikel 16 för specifika bestämmelser som rör skyddet för individers personuppgifter i EUF-fördraget. Beslut fattas enligt det ordinarie lagstiftningsförfarandet, d.v.s. rådet beslutar med kvalificerad majoritet och Europaparlamentet är medbeslutande.
Kommissionen menar att det är motiverat att lagstifta genom förordning eftersom det behövs ett horisontellt ramverk som är direkt tillämpligt och som tillämpas på ett enhetligt sätt för att säkerställa harmonisering av nya regler som definierar AI och förbud mot vissa skadliga aktiviteter, vilket förbättrar skyddet för de grundläggande rättigheterna och skapar rättslig förutsebarhet för operatörer och konsumenter. Om reglerna ges direkt effekt kommer det att minska fragmenteringen och underlätta utvecklingen av en gemensam marknad för säkra och pålitliga AI-system. Samtidigt framhåller kommissionen att förslaget inte reglerar förslaget mer än nödvändigt och ger medlemsstaterna frihet att agera i de delar som inte kan äventyra förordningens syfte, främst när det gäller tillsyn och åtgärder för att främja innovation.
3.2Subsidiaritets- och proportionalitetsprincipen
Kommissionen anger att förslagets syften bäst kan uppnås på unionsnivå och resonerar enligt följande. AI är ofta beroende av stora och varierade dataset som ibland är integrerade i produkter eller tjänster som cirkulerar fritt på den
9
inre marknaden, vilket innebär att förordningens syften inte kan uppnås på | 2020/21:FPM109 |
egen hand av de enskilda medlemsstaterna. Ett antal potentiellt divergerande | |
lagstiftningar i medlemsstaterna gällande AI håller på att tas fram, vilket | |
skulle riskera att begränsa den fria rörligheten av produkter och tjänster med | |
koppling till AI-system. Spretande nationella lagstiftningar skulle vidare vara | |
ineffektivt när det gäller att säkerställa skyddet av de grundläggande | |
rättigheterna. Nationella ansatser att lösa problemen skulle motverka den | |
rättsliga förutsebarheten, skapa rättsliga hinder och försena användningen av | |
AI. En europeisk reglering för pålitlig AI kan garantera lika villkor och | |
skydda samtliga unionsmedborgare, samtidigt som den stärker europeisk | |
konkurrenskraft. Vidare kan enbart en insats på unionsnivå skydda unionens | |
digitala suveränitet och möjliggöra inflytande på globala regler och | |
standarder. | |
Kommissionen menar vidare att förslaget är proportionerligt och resonerar då | |
enligt följande. Förslaget till förordning bygger på gällande lagstiftning, är | |
riskbaserat och inför regleringsbördor endast när ett AI-system kan utgöra | |
hög risk för grundläggande rättigheter och säkerhet. De AI-system som faller | |
utanför kategorin högrisk underkastas mycket få krav. Harmoniserande | |
standarder och stöd för efterlevnad och användning av AI-system minimerar | |
kostnaderna för användare och tillhandahållare av AI-system. Kostnaderna | |
för operatörer bedöms proportionerliga utifrån syftet med förslaget och | |
eftersom ekonomiska vinster och vinster i form av förbättrat anseende | |
förväntas uppstå med anledning av förslaget. | |
Regeringen instämmer i kommissionens övergripande bedömningar rörande | |
subsidiaritet och proportionalitet. Regeringen anser liksom kommissionen att | |
det finns ett behov av harmoniserade regler och att reglering i form av | |
förordning är befogad med hänsyn främst till att användningen av AI i de | |
flesta fall är av gränsöverskridande karaktär och för att främja den fria | |
rörligheten på den inre marknaden. Enhetliga regler ger tydlighet och | |
förutsebarhet vilket är positivt för såväl utvecklare som användare. Det är | |
också positivt att de skydd som förordningen avser att ge för människor är | |
likadant inom unionen. De vinster som förväntas i termer av förbättrat | |
anseenden är spekulativa, och därför svårbedömda. Det är emellertid av stor | |
vikt att förordningen inte blir alltför detaljerad eller ges en mer långtgående | |
verkan, eller medför större begränsningar eller kostnader för företag än direkt | |
än direkt nödvändigt. Regeringen avser därför att i förhandlingarna verka för | |
att förordningen inte går utöver vad som är nödvändigt för att uppfylla de | |
syften som angetts. | |
Regeringen noterar att förordningsförslaget på flera ställen ger | |
kommissionen befogenhet att anta delegerade akter. Syftet med de | |
delegerade akterna är att förenkla lagstiftningsförfarandet när regelverket | |
behöver uppdateras till följd av den tekniska utvecklingen. Regeringen | |
instämmer i att det är viktigt att regleringen följer teknikutvecklingen. | |
Parlamentet och rådet kan invända mot en delegerad akt och återkalla | |
kommissionens befogenhet att besluta om delegerade akter. Även med | |
10 |
beaktande av dessa inbyggda ventiler behövs ytterligare analys av hur | 2020/21:FPM109 |
förslaget i denna del potentiellt kan påverka omfattningen av regleringen på | |
sikt. Regeringen noterar också att kommissionens befogenhet att besluta om | |
delegerade akter endast omfattar möjligheten att lägga till AI-system och | |
användningar till annex III. Med hänsyn till att förordningen gäller ett | |
område som präglas av mycket snabb utveckling är regeringen av | |
uppfattning att även andra uppdateringar, så som strykningar i listan, bör | |
omfattas av befogenheterna. |
4 Övrigt
4.1Fortsatt behandling av ärendet
Förslaget kommer att förhandlas inom rådsarbetsgruppen för telekommunikation och informationssamhället. Förslaget kommer att remitteras av regeringen.
4.2Fackuttryck/termer
Artificiell intelligens (AI): Artificiell intelligens har ingen entydig definition eller allmänt vedertagen avgränsning. Kommissionen definierar i förslaget till förordning AI-system som mjukvara som är utvecklad med en eller flera olika utvecklingssätt och tekniker definierade i en bilaga till förordningen, såsom maskininlärning. Utifrån av människor givna instruktioner kan mjukvaran generera innehåll i form av prognoser, prediktioner, rekommendationer eller beslut som påverkar fysiska eller digitala miljöer. AI-system är designade för att kunna operera med varierad grad av autonomi. Definitionen bygger på den definition om AI som Organisationen för ekonomiskt samarbete och utveckling (OECD) använder.
Regulatoriska sandlådor: En regulatorisk sandlåda tillåter vissa, på förhand angivna utgöra en kontrollerad miljö där marknadsaktörer under begränsad tid kan testa och visa upp innovativa tekniker i samverkan med behöriga myndigheter, med fokus på rättsliga bedömningar. Syftena är bl.a. att öka den rättsliga förutsebarheten, förkorta tiden till att aktörens produkt eller tjänst når marknaden och underlätta särskilt för startup- och småföretag.
Biometriska uppgifter: personuppgifter som erhållits genom en särskild teknisk behandling som rör en fysisk persons fysiska, fysiologiska eller beteendemässiga kännetecken och som möjliggör eller bekräftar unik identifiering av denna fysiska person, såsom ansiktsbilder eller fingeravtrycksuppgifter.
11