Förslag till Europaparlamentets och rådets förordning om ändring av förordningarna (EU) 2024/1689 och (EU) 2018/1139 vad gäller förenkling av genomförandet av de harmoniserade reglerna om artificiell intelligens (digital omnibusförordning om AI)
EU-dokument COM(2025) 836
EUROPEISKA
KOMMISSIONEN
Bryssel den 19.11.2025
COM(2025) 836 final
2025/0359 (COD)
Förslag till
EUROPAPARLAMENTETS OCH RÅDETS FÖRORDNING
om ändring av förordningarna (EU) 2024/1689 och (EU) 2018/1139 vad gäller förenkling av genomförandet av de harmoniserade reglerna om artificiell intelligens (digital omnibusförordning om AI)
{SWD(2025) 836} (Text av betydelse för EES)
| SV | SV |
MOTIVERING
1.BAKGRUND TILL FÖRSLAGET
• Motiv och syfte med förslaget
Ikommissionens meddelande om ett enklare och snabbare Europa (1) tillkännagav kommissionen sitt stöd för ett ambitiöst program för att främja framåtblickande och innovativ politik som stärker Europeiska unionens (EU) konkurrenskraft och minskar regelbördan för allmänheten, företag och förvaltningar samtidigt som höga standarder upprätthålls i fråga om att främja EU:s värden.
Genom Europaparlamentets och rådets förordning (EU) 2024/1689 av den 13 juni 2024 om harmoniserade regler för artificiell intelligens (AI-förordningen), som trädde i kraft den 1 augusti 2024, inrättades en inre marknad för tillförlitlig och människocentrerad artificiell intelligens (AI) i hela EU. Syftet är att främja innovation och användning av AI och samtidigt säkerställa en hög skyddsnivå för hälsa, säkerhet och grundläggande rättigheter, inbegripet demokrati och rättsstatens principer.
AI-förordningen börjar tillämpas stegvis och alla regler kommer att börja tillämpas senast den 2 augusti 2027. Förbuden mot AI-användningsområden med oacceptabla risker och de skyldigheter som rör AI-modeller för allmänna ändamål tillämpas redan. De flesta bestämmelser – däribland de bestämmelser som styr AI-system med hög risk – börjar dock inte att tillämpas förrän den 2 augusti 2026 eller den 2 augusti 2027. Bland dessa bestämmelser finns detaljerade krav vad gäller dataförvaltning, transparens, dokumentation, mänsklig kontroll och robusthet för att på så vis säkerställa att AI-system som släpps ut på EU-marknaden är säkra, transparenta och tillförlitliga.
Kommissionen strävar efter ett tydligt, enkelt och innovationsvänligt genomförande av AI- förordningen, i enlighet med handlingsplanen för AI-kontinenten (2) och strategin för AI- tillämpningar (3). Initiativ såsom uppförandekoden för AI för allmänna ändamål, kommissionens riktlinjer och mallar, AI-pakten och servicedesken för AI-förordningen skapar klarhet om gällande regler och ger stöd om hur de ska tillämpas. På den webbplats som hyser servicedesken för AI-förordningen finns en gemensam informationsplattform (4) där alla tillgängliga resurser är samlade för intressenter så att de kan manövrera sig fram i AI- förordningen, däribland riktlinjer, nationella myndigheter, stödinitiativ, webbinarier och harmoniserade standarder. Dessa insatser kommer att fortsätta och kompletteras med ytterligare vägledning och digitala verktyg som håller på att utarbetas.
Med utgångspunkt i erfarenheter från genomförandet av de bestämmelser som redan har börjat tillämpas har kommissionen hållit ett antal samråd, bland annat ett offentligt samråd för att identifiera möjliga utmaningar med att genomföra bestämmelserna i AI-förordningen, en inbjudan att lämna synpunkter som ett led i förberedelserna av det digitala omnibuspaketet, en lägeskontroll där berörda parter direkt kunde dela med sig av sina erfarenheter från
1
2
3
4
COM(2025) 47 final. COM(2025) 165 final. COM(2025) 723 final. https://ai-act-service-desk.ec.europa.eu/.
| SV | 1 | SV |
genomförandet och en panel bestående av små och medelstora företag i syfte att identifiera deras särskilda behov vad gäller genomförandet av AI-förordningen.
Genom samråden framkom utmaningar vad gäller genomförandet som kan äventyra en effektiv tillämpning av viktiga bestämmelser i AI-förordningen. Bland dessa återfinns förseningar i att utse nationella myndigheter och organ för bedömning av överensstämmelse samt en brist på harmoniserade standarder för AI-förordningens högriskkrav, vägledning och efterlevnadsverktyg. Sådana förseningar riskerar att markant öka efterlevnadskostnaderna för företag och offentliga myndigheter och fungera som en broms för innovation.
För att ta itu med dessa utmaningar föreslår kommissionen riktade förenklingsåtgärder för att säkerställa ett snabbt, smidigt och proportionerligt genomförande av vissa av bestämmelserna i AI-förordningen. Dessa innefattar följande:
•Koppla ihop tidsplanen för genomförandet av högriskreglerna med tillgängligheten till standarder eller andra stödverktyg.
•Utöka de förenklingar av lagstiftningen som beviljats små och medelstora företag till att omfatta små midcapföretag, inbegripet förenklade krav på teknisk dokumentation och särskild hänsyn vad gäller påförande av sanktioner.
•Kräva att kommissionen och medlemsstaterna främjar AI-kunnighet i stället för att driva igenom ospecifika krav på leverantörer och tillhandahållare av AI-system i detta hänseende, samtidigt som utbildningsskyldigheterna för tillhandahållare av högrisksystem kvarstår.
•Erbjuda mer flexibilitet vad gäller övervakning efter utsläppandet på marknaden genom att ta bort det som föreskrivs om kravet om en harmoniserad plan för övervakning efter utsläppandet på marknaden.
•Minska registreringsbördan för leverantörer av AI-system som används inom högriskområden, där leverantören har fastställt att systemen inte är AI-system med hög risk eftersom de endast används för snäva eller processuella uppgifter.
•Centralisera tillsynen över ett stort antal AI-system som bygger på AI-modeller för allmänna ändamål eller som är inbyggda i mycket stora onlineplattformar och mycket stora sökmotorer till AI-byrån.
•Underlätta efterlevnad av dataskyddslagstiftningen genom att tillåta leverantörer och tillhandahållare av alla AI-system och AI-modeller att behandla särskilda kategorier av personuppgifter för att säkerställa upptäckt och korrigering av bias med lämpliga skyddsåtgärder.
•Säkerställa en bredare användning av regulatoriska sandlådor för AI och testning under verkliga förhållanden, vilket kommer att gynna viktiga europeiska industrier, t.ex. fordonsindustrin, och underlätta en regulatorisk sandlåda för AI på EU-nivå som AI-byrån kommer att inrätta från och med 2028.
•Införa riktade ändringar som förtydligar samspelet mellan AI-förordningen och annan EU-lagstiftning och justerar förfarandena enligt AI-förordningen för att förbättra dess övergripande genomförande och funktionssätt.
Förutom lagstiftningsåtgärder vidtar kommissionen ytterligare åtgärder för att underlätta efterlevnaden av AI-förordningen och bemöta de farhågor som berörda parter tagit upp. För närvarande pågår ett arbete för att utarbeta ytterligare vägledning som fokuserar på att ge tydliga och praktiska instruktioner om hur AI-förordningen ska tillämpas parallellt med annan EU-lagstiftning. Detta omfattar följande:
| SV | 2 | SV |
•Riktlinjer om den praktiska tillämpningen av klassificering som hög risk.
•Riktlinjer om den praktiska tillämpningen av transparenskraven enligt artikel 50 i AI- förordningen.
•Riktlinjer om rapportering av allvarliga incidenter från leverantörer av AI-system med hög risk.
•Riktlinjer om den praktiska tillämpningen av högriskkraven.
•Riktlinjer om den praktiska tillämpningen av skyldigheter för leverantörer och tillhandahållare av AI-system med hög risk.
•Riktlinjer med en mall för konsekvensbedömning avseende grundläggande rättigheter.
•Riktlinjer om den praktiska tillämpningen av reglerna för ansvar längs AI- värdekedjan.
•Riktlinjer om den praktiska tillämpningen av bestämmelserna om väsentliga ändringar.
•Riktlinjer om övervakning efter utsläppande på marknaden avseende AI-system med hög risk.
•Riktlinjer om de delar av kvalitetsstyrningssystemet som små och medelstora företag och små midcapföretag får efterleva på ett förenklat sätt.
•Riktlinjer om samspelet mellan AI-förordningen och annan unionslagstiftning, till exempel gemensamma riktlinjer från kommissionen och europeiska dataskyddsstyrelsen om samspelet mellan AI-förordningen och EU:s dataskyddslagstiftning, riktlinjer om samspelet mellan AI-förordningen och cyberresiliensförordningen och riktlinjer om samspelet mellan AI-förordningen och maskinförordningen.
•Riktlinjer om befogenheter och utseendeförfarande för de organ för bedömning av överensstämmelse som måste utses i enlighet med AI-förordningen.
Vid samråden med berörda parter framkom i synnerhet att det finns ett behov av riktlinjer om det praktiska genomförandet av de undantag som gäller forskning enligt AI- förordningen och dess artikel 2.6 och 2.8, inbegripet hur undantagen kan tillämpas i specifika fall, t.ex. vid preklinisk forskning och produktutveckling när det gäller läkemedel eller medicintekniska produkter. Detta är en prioriterad fråga som kommissionen kommer att arbeta vidare med.
Dessa förenklingar kommer att bidra till att säkerställa att genomförandet av AI-förordningen sker på ett smidigt, förutsägbart och innovationsvänligt sätt och på så vis göra det möjligt för Europa att stärka sin ställning som ledande AI-kontinent där AI prioriteras på ett säkert sätt.
•Förenlighet med befintliga bestämmelser inom området
Förslaget är en del av ett större digitalt paket om förenkling som består av åtgärder för att minska de administrativa efterlevnadskostnaderna för företag och förvaltningar i EU och omfattar ett flertal förordningar i EU:s digitala ramverk utan att äventyra målen med reglerna som regelverket bygger på. Förslaget bygger på förordning (EU) 2024/1689 och är i linje med befintlig politik som syftar till att se till att EU blir världsledande inom AI, göra EU till en AI- kontinent och främja användningen av människocentrerad och tillförlitlig AI.
| SV | 3 | SV |
•Förenlighet med unionens politik inom andra områden Förslaget ingår i en serie förenklingspaket.
2. RÄTTSLIG GRUND, SUBSIDIARITETSPRINCIPEN OCH PROPORTIONALITETSPRINCIPEN
•Rättslig grund
Förslaget har som rättslig grund artikel 114 i fördraget om Europeiska unionens funktionssätt (EUF-fördraget), i linje med de ursprungliga rättsliga grunderna för antagandet av de rättsakter som detta förslag syftar till att ändra.
•Subsidiaritetsprincipen (för icke-exklusiv befogenhet)
Förordning (EU) 2024/1689 antogs på EU-nivå. Följaktligen måste ändringar av denna förordning göras på EU-nivå.
•Proportionalitetsprincipen
Initiativet går inte utöver vad som är nödvändigt för att uppnå målen att förenkla och minska bördan utan att sänka skyddet för människors hälsa, säkerhet och grundläggande rättigheter.
•Val av instrument
Förslaget ändrar förordning (EU) 2024/1689 som antogs genom det ordinarie lagstiftningsförfarandet. Därför måste ändringar av den förordningen också antas genom en förordning i enlighet med det ordinarie lagstiftningsförfarandet.
3.RESULTAT AV EFTERHANDSUTVÄRDERINGAR, SAMRÅD MED BERÖRDA PARTER OCH KONSEKVENSBEDÖMNINGAR
•Efterhandsutvärderingar/kontroller av ändamålsenligheten med befintlig lagstiftning
Förslaget åtföljs av ett arbetsdokument från kommissionens avdelningar, vari en utförlig översyn av vilka konsekvenser som de föreslagna ändringarna av vissa bestämmelser i förordning (EU) 2024/1689 medför. Däri finns även en analys av de positiva konsekvenser som de föreslagna åtgärderna medför. Analysen bygger på befintliga uppgifter, information som samlats in vid samråd och vid en lägeskontroll samt genom skriftlig återkoppling från berörda parter genom en inbjudan att lämna synpunkter.
•Samråd med berörda parter
Ett flertal samråd har hållits vid utarbetandet av förslaget. Alla samråd kompletterade varandra; vid vissa behandlades aktuella frågor och vid andra hördes parter som berörs av initiativet.
Under våren 2025, som en del av den inledande sonderingsfasen inför det digitala paketet om förenkling, offentliggjordes tre offentliga samråd och inbjudningar att lämna synpunkter som berörde förslagets centrala delar. Mellan den 9 april och den 4 juni 2025 hölls ett samråd om
| SV | 4 | SV |
strategin för AI-tillämpningar (5), ytterligare ett hölls mellan den 11 april och den 20 juni 2025 om översynen av cybersäkerhetsförordningen (6) och slutligen hölls ett mellan den 23 maj och den 20 juli 2025 om strategin för en europeisk dataunion (7). Vid varje samråd användes ett frågeformulär med ett avsnitt (eller ibland flera) om orosmoment kring såväl genomförandet som förenklingar. Dessa var direkt kopplade till de inkomna synpunkterna på det digitala paketet om förenkling. Totalt inkom 718 svar under den första samrådsomgången.
Mellan den 16 september och den 14 oktober 2025 offentliggjordes en ytterligare inbjudan att lämna synpunkter om det digitala paketet om förenkling (8). Syftet var att täcka hela initiativets tillämpningsområde och ge berörda parter möjlighet att lämna synpunkter på ett mer riktat antal bestämmelser på en gång. Totalt inkom 513 svar från många olika berörda parter.
I syfte att öka medvetenheten om det digitala paketet om förenkling bland små och medelstora företag och inhämta återkoppling från dem anordnades en särskild panel för små och medelstora företag mellan den 4 september och den 16 oktober 2025 av Enterprise Europe Network. Enterprise Europe Network är världens största stödnätverk för små och medelstora företag och inrättades av kommissionens genomförandeorgan för Europeiska innovationsrådet samt för små och medelstora företag. Paneler för små och medelstora företag är ett sätt att samråda med berörda parter som omfattas av ett visst regelverk. Små och medelstora företag får möjlighet att bidra med sina åsikter om kommande politiska initiativ. Förutom de skriftliga samråden på nätet (där 106 svar från små och medelstora företag lämnades in) presenterade kommissionen vid ett möte den 1 oktober 2025 även det digitala paketet om förenkling för sammanslutningar av små och medelstora företag som ingår i Enterprise Europe Network.
Under 2025 anordnade kommissionens avdelningar ett stort antal bilaterala möten med berörda parter i syfte att komma till rätta med specifika farhågor. Diskussioner har även förts med medlemsstaterna. Förutom bilaterala utbyten diskuterades även rådets arbetsgrupper det digitala paketet om förenkling vid specifika punkter på dagordningen i juni och september 2025, då kommissionen beskrev det nuvarande läget och bad medlemsstaterna att framföra sina åsikter.
Generellt sett utmynnade återkopplingen från berörda parter i ett behov av en förenklad tillämpning av vissa digitala regler. Bättre samstämmighet och fokus på att optimera efterlevnadskostnaderna stöddes av ett tvärsnitt av de berörda parterna. Det fanns vissa åsiktsskillnader i fråga om några av de mer skräddarsydda åtgärderna. En mer detaljerad översyn av dessa samråd med berörda parter och hur de återspeglas i förslaget finns i det arbetsdokument från kommissionens avdelningar som åtföljer det digitala paketet om förenkling.
5
6
7
8
Europeiska kommissionen (2025), Inbjudan att lämna synpunkter om strategin för AI-tillämpningar. Finns på Strategi för AI-tillämpningar – för en starkare AI-kontinent
Europeiska kommissionen (2025), Inbjudan att lämna synpunkter om EU:s cybersäkerhetsförordning. Finns på EU:s cybersäkerhetsförordning
Europeiska kommissionen (2025), Inbjudan att lämna synpunkter om strategin för en europeisk dataunion. Finns på Strategi för en europeisk dataunion
Europeiska kommissionen (2025), Inbjudan att lämna synpunkter om den förenklade datalagstiftningen. Finns på Förenklad datalagstiftning
| SV | 5 | SV |
•Insamling och användning av sakkunnigutlåtanden
Utöver de samråd som nämns ovan har kommissionen främst förlitat sig på egen intern analys vid utarbetandet av detta förslag.
•Konsekvensbedömning
De ändringar som föreslås i detta förslag är tekniska till sin natur. De är utformade för att säkerställa ett effektivare genomförande av regler som man redan har enats om på politisk nivå. Det finns inga politiska alternativ som på ett meningsfullt sätt kan testas och jämföras genom en konsekvensbedömning.
I det åtföljande arbetsdokumentet från kommissionens avdelningar förklaras tankegången bakom ändringarna och presenteras de berörda parternas åsikter om de olika åtgärderna. Det beskriver även vilka kostnadsbesparingar och andra konsekvenser som förslaget kan komma att medföra. I många fall bygger det vidare på den konsekvensbedömning som ursprungligen gjordes i samband med förordning (EU) 2024/1689.
Arbetsdokumentet från kommissionens avdelningar fungerar därför som utgångspunkt när Europaparlamentet och rådet ska debattera förslaget och syftar även till att informera allmänheten på ett tydligt och engagerat sätt.
•Lagstiftningens ändamålsenlighet och förenkling
Förslaget syftar till att ge företag, nationella förvaltningar och allmänheten i stort en betydande minskad administrativ börda. Enligt de inledande beräkningarna uppskattas de möjliga besparingarna kunna uppgå till ungefär 297,2 till 433,2 miljoner EUR. Det förväntas även medföra icke kvantifierbara fördelar, särskilt till följd av enhetliga regler som kommer att förenkla regelefterlevnaden och kontrollen av efterlevnaden.
Reglerna enligt förordning (EU) 2024/1689 är redan fördelaktiga för små och medelstora företag. Vissa regler som redan är fördelaktiga för små och medelstora företag utökas till att även omfatta små midcapföretag. Eftersom små och medelstora företag samt små midcapföretag i oproportionerligt hög grad påverkas av efterlevnadsbördan, förväntas de gynnas särskilt av dessa förenklingsåtgärder.
Förslaget är förenligt med kommissionens ”kontroll av den digitala regelbokens digitala ändamålsenlighet” vars syfte är att säkerställa att politiska förslag är korrekt anpassade till verkliga digitala miljöer (se kapitel 4 i finansierings- och digitaliseringsöversikten för rättsakt).
•Grundläggande rättigheter
Förordning (EU) 2024/1689 förväntas främja skyddet av ett antal grundläggande rättigheter och friheter enligt EU:s stadga om de grundläggande rättigheterna (9) samt påverka ett antal
9Närmare bestämt rätten till människans värdighet (artikel 1), respekt för privatlivet och skydd av personuppgifter (artiklarna 7 och 8), icke-diskriminering (artikel 21), jämställdhet mellan kvinnor och män (artikel 23), yttrandefrihet (artikel 11), mötesfrihet (artikel 12), rätt till ett effektivt rättsmedel och
| SV | 6 | SV |
specifika gruppers (10) rättigheter på ett positivt sätt. Samtidigt införs genom förordning (EU) 2024/1689 vissa begränsningar i fråga om vissa rättigheter och friheter (11), men dessa är proportionerliga och begränsade till vad som är absolut nödvändigt. Förslaget väntas inte förändra den inverkan som förordning (EU) 2024/1689 får på grundläggande rättigheter eftersom de planerade ändringarna är så riktade att de inte påverkar tillämpningsområdet för de reglerade AI-systemen eller de materiella krav som är tillämpliga på dessa system.
4.BUDGETKONSEKVENSER
Genom förslaget ändras systemet för tillsyn och kontroll av efterlevnaden av förordning (EU) 2024/1689, varigenom kontroll av vissa AI-system kommer att föras över till kommissionens AI-byrå. I syfte att underlätta efterlevnaden för aktörer bör AI-byrån dessutom inrätta en regulatorisk sandlåda för AI på EU-nivå. Kommissionen kommer att behöva lämpliga resurser för att kunna genomföra dessa nya uppgifter och resurserna beräknas uppgå till 53 fulltidsekvivalenter varav 15 kan täckas genom intern omplacering. Dessa konsekvenser måste beaktas mot bakgrund av att budgetkonsekvenserna för medlemsstaterna minskar, eftersom de inte längre behöver säkerställa kontrollen av dessa AI-system. En utförlig översikt över de kostnader som denna överföring av befogenheter medför finns i finansierings- och digitaliseringsöversikten för rättsakten som medföljer detta förslag.
5.ÖVRIGA INSLAG
•Genomförandeplaner samt åtgärder för övervakning, utvärdering och rapportering
Kommissionen kommer att övervaka genomförandet, tillämpningen och efterlevnaden av de nya bestämmelserna. Dessutom utvärderas den förordning som ändras genom detta förslag regelbundet för att säkerställa effektivitet, ändamålsenlighet, relevans, konsekvens och mervärde, i enlighet med EU:s principer för bättre lagstiftning. Detta förslag kräver ingen genomförandeplan.
•Förklarande dokument (för direktiv) Ej tillämpligt.
•Ingående redogörelse för de specifika bestämmelserna i förslaget
Artikel 1 ändrar förordning (EU) 2024/1689 (AI-förordningen). Framför allt ändras följande:
•Punkt 1 lägger till en hänvisning till små midcapföretag i AI-förordningens innehåll.
10
11
till en opartisk domstol, rätten till försvar och presumtion för oskuld (artiklarna 47 och 48), rätten till en hög nivå i fråga om miljöskydd och förbättring av miljöns kvalitet (artikel 37).
Närmare bestämt arbetstagares rätt till rättvisa arbetsförhållanden (artikel 31), en hög nivå av konsumentskydd (artikel 28), barnets rättigheter (artikel 24) och integrering av personer med funktionshinder (artikel 26).
Närmare bestämt näringsfriheten (artikel 16) och friheten för konsten och vetenskapen (artikel 13).
| SV | 7 | SV |
•Punkt 2 innebär en teknisk ändring som är nödvändig för att det ska gå att utöka testningen under verkliga förhållanden till att omfatta AI-system med hög risk som är inbyggda i produkter enligt avsnitt B i bilaga I till AI-förordningen.
•Punkt 3 lägger till legaldefinitioner för små och medelstora företag och små midcapföretag i definitionerna i artikel 3 i AI-förordningen.
•Punkt 4 omvandlar skyldigheten för leverantörer och tillhandahållare av AI-system vad gäller AI-kunnighet i artikel 4 i AI-förordningen till en skyldighet för kommissionen och medlemsstaterna att främja AI-kunnighet.
•Punkt 5 inför en ny artikel 4a som ersätter artikel 10.5 i AI-förordningen, vari en rättslig grund fastställs för leverantörer och tillhandahållare av AI-system och AI- modeller att undantagsvis behandla särskilda kategorier av personuppgifter i syfte att säkerställa upptäckt och korrigering av bias, under förutsättning att vissa villkor uppfylls.
•Punkterna 6, 14 och 32 avser borttagande av skyldigheter för leverantörer att registrera AI-system i EU:s databas över system med hög risk enligt bilaga III om dessa har undantagits från klassificering som hög risk enligt artikel 6.3 i AI- förordningen eftersom de till exempel endast används för förberedande uppgifter.
•Punkt 7 innehåller redaktionella ändringar till följd av de ändringar som görs i punkt 4.
•Punkterna 8 och 9 utökar de befintliga regler i AI-förordningen som är fördelaktiga för små och medelstora företag vad gäller teknisk dokumentation och inrättande av ett kvalitetsstyrningssystem som motsvarar deras storlek till att även omfatta små midcapföretag.
•Punkt 10 inför ett nytt förfarande i artikel 28 i AI-förordningen, varigenom medlemsstaterna åläggs att säkerställa att ett organ för bedömning av överensstämmelse som ansöker om att bli utsett, både enligt denna förordning och unionens harmoniseringslagstiftning som förtecknas i avsnitt A i bilaga I till AI- förordningen, måste ges möjlighet att lämna in en enda ansökan och genomgå ett enda förfarande för bedömning för att bli utsett.
•Punkt 11 föreslås ersätta artikel 29.4 i AI-förordningen och ålägger organ för bedömning av överensstämmelse att lämna in en enda ansökan i de fall som anges i den punkten.
•Punkt 12 ändrar artikel 30 i AI-förordningen genom att kräva att organ för bedömning av överensstämmelse som ansöker om att utses till anmälda organ gör denna ansökan i enlighet med de koder, kategorier och motsvarande typer av AI- system som avses i en ny bilaga XIV vad gäller kommissionens informationssystem Nando (New Approach Notified and Designated Organisations) och ger kommissionen befogenhet att ändra dessa koder, kategorier och motsvarande typer mot bakgrund av den tekniska utvecklingen.
•Punkt 13 förtydligar det förfarande för bedömning av överensstämmelse som fastställs i artikel 43 i AI-förordningen i de situationer där ett AI-system med hög risk omfattas av unionens harmoniseringslagstiftning som förtecknas i avsnitt A i bilaga I till AI-förordningen och där ett AI-system klassificeras som hög risk enligt både bilaga I och bilaga III till AI-förordningen.
| SV | 8 | SV |
•Punkterna 15 och 16 tar bort kommissionens befogenheter att, enligt artiklarna 50 och 56 i AI-förordningen, anta genomförandeakter för att därigenom ge förfarandekoder för AI-modeller för allmänna ändamål och transparensskyldigheter för vissa AI-system allmän giltighet i unionen.
•Punkt 17 inför ändringar av reglerna för regulatoriska sandlådor för AI enligt artikel 57 i AI-förordningen, bland annat genom att tillhandahålla en rättslig grund för AI- byrån att införa en regulatorisk sandlåda för AI på EU-nivå för vissa AI-system inom sin exklusiva befogenhet för tillsyn, och ålägger medlemsstaterna att stärka samarbetet över gränserna avseende deras sandlådor.
•Punkt 18 fastställer kommissionens befogenhet att anta genomförandeakter som specificerar de närmare arrangemangen för inrättande, utveckling, genomförande, drift, styrning och tillsyn av regulatoriska sandlådor för AI.
•Punkt 19 inför ändringar av testningen av AI-system med hög risk under verkliga förhållanden utanför regulatoriska sandlådor för AI enligt vad som föreskrivs i artikel 60 i AI-förordningen, bland annat utökas denna möjlighet till att omfatta AI-system med hög risk enligt avsnitt A i bilaga I.
•Punkt 20 tillhandahåller en ytterligare rättslig grund för intresserade medlemsstater och kommissionen att, på frivillig basis, ingå skriftliga avtal om att testa sådana AI- system med hög risk som avses i avsnitt B i bilaga I under verkliga förhållanden.
•Punkt 21 utökar det undantag som ger mikroföretag rätt att efterleva vissa delar av det kvalitetsstyrningssystem som krävs enligt artikel 17 i AI-förordningen på ett förenklat sätt till att även gälla små och medelstora företag.
•Punkt 22 tar bort kommissionens befogenhet att, enligt artikel 69 i AI-förordningen, anta en genomförandeakt vad gäller ersättning för experter i den vetenskapliga panelen när dessa anlitas av medlemsstaterna i syfte att förenkla förfarandet.
•Punkt 23 utökar fokuset för vägledning som nationella myndigheter får tillhandahålla små och medelstora företag till att även omfatta små midcapföretag.
•Punkt 24 ersätter kommissionens befogenhet enligt artikel 72 i AI-förordningen att anta en genomförandeakt vad gäller planen för övervakning efter utsläppande på marknaden.
•Punkt 25 gör ändringar av tillsynen och kontrollen av efterlevnaden avseende vissa AI-system enligt artikel 75 i AI-förordningen enligt följande:
•Led a ändrar rubriken.
•Led b förstärker AI-byråns befogenhet vad gäller tillsyn och kontroll av efterlevnaden avseende vissa AI-system som bygger på en AI-modell för allmänna ändamål, där modellen och systemet tillhandahålls av samma leverantör. Samtidigt förtydligar bestämmelsen att AI-system med koppling till produkter som omfattas av bilaga I inte ingår i denna tillsyn. Dessutom förtydligas det att tillsynen och kontrollen av efterlevnaden av AI-system som är inbyggda i utsedda mycket stora onlineplattformar eller mycket stora onlinesökmotorer bör omfattas av AI-byråns befogenhet.
•Led c inför ett flertal nya punkter: för det första ges kommissionen befogenhet
att anta genomförandeakter för att fastställa AI-byråns efterlevnadsbefogenheter och förfaranden för att utöva dessa befogenheter, för det andra införs en hänvisning till förordning (EU) 2019/1020 för att
| SV | 9 | SV |
säkerställa att vissa rättssäkerhetsgarantier tillämpas för de leverantörer som omfattas och för det tredje ges kommissionen befogenhet att genomföra
bedömningar av överensstämmelse avseende AI-system inom tillämpningsområdet för artikel 75.
•Punkt 26 ändrar artikel 77 i AI-förordningen vad gäller myndigheters eller organs befogenheter att skydda grundläggande rättigheter och samarbete med marknadskontrollmyndigheter.
•Punkterna 27 och 28 utökar de bestämmelser i artiklarna 95 och 96 som kräver att frivilliga stödverktyg tar hänsyn till behoven hos små och medelstora företag till att även omfatta små midcapföretag.
•Punkt 29 utökar de befintliga fördelaktiga reglerna för små och medelstora företag i artikel 99 i AI-förordningen vad gäller sanktioner till att även omfatta små midcapföretag.
•Punkt 30 innehåller ändringar av artikel 111 i AI-förordningen som är ett resultat av ändringar som gjorts i punkt 30 och inför en övergångsperiod på 6 månader för leverantörer som behöver inkludera tekniska lösningar retroaktivt i sina generativa AI-system för att göra dem maskinläsbara och se till att de kan upptäckas som artificiellt genererade eller manipulerade.
•Punkt 31 inför ändringar av tillämpningsdatumet för vissa bestämmelser i AI- förordningen.
•Vad gäller skyldigheterna för AI-system med hög risk i kapitel III införs en mekanism som kopplar tillämpningsdatumet till tillgången till åtgärder som stöder efterlevnaden av reglerna för hög risk enligt AI-förordningen, t.ex. harmoniserade standarder, gemensamma specifikationer och kommissionens riktlinjer. Denna tillgång kommer att bekräftas av kommissionen genom ett beslut och därefter kommer reglerna för AI-system med hög risk att börja tillämpas efter en lämplig övergångsperiod. Denna flexibilitet bör dock endast gälla under en begränsad tid och ett fast datum då reglerna börjar tillämpas bör oavsett fastställas. Dessutom är det lämpligt att göra skillnad mellan de två typer av AI-system som klassificeras som hög risk och tillämpa en längre övergångsperiod för sådana AI-system som klassificeras som hög risk enligt artikel 6.1 i och bilaga I till AI-förordningen.
•Det förtydligas att de ändringar som är nödvändiga för att inkorporera kraven för hög risk i den sektorsspecifika lagstiftning som förtecknas i avsnitt B i bilaga I blir tillämpliga i och med den digitala omnibusförordningens ikraftträdande.
•Punkt 33 är kopplad till ändringen i punkt 11 och inför en ny bilaga XIV vari koder, kategorier och motsvarande typer av AI-system som avses i ny bilaga XIV vad gäller kommissionens informationssystem Nando.
Artikel 2 gör ändringar vad gäller förordning (EU) 2018/1139 för att möjliggöra en smidig integrering av AI-förordningens krav för hög risk i den förordningen.
Artikel 3 tillhandahåller en bestämmelse om ikraftträdande och om att förordningen är bindande.
| SV | 10 | SV |
2025/0359 (COD)
Förslag till
EUROPAPARLAMENTETS OCH RÅDETS FÖRORDNING
om ändring av förordningarna (EU) 2024/1689 och (EU) 2018/1139 vad gäller förenkling
av genomförandet av de harmoniserade reglerna om artificiell intelligens (digital
omnibusförordning om AI)
(Text av betydelse för EES)
EUROPAPARLAMENTET OCH EUROPEISKA UNIONENS RÅD HAR ANTAGIT DENNA FÖRORDNING
med beaktande av fördraget om Europeiska unionens funktionssätt, särskilt artikel 114, med beaktande av Europeiska kommissionens förslag,
efter översändande av utkastet till lagstiftningsakt till de nationella parlamenten, med beaktande av Europeiska ekonomiska och sociala kommitténs yttrande1, med beaktande av Regionkommitténs yttrande2,
i enlighet med det ordinarie lagstiftningsförfarandet, och av följande skäl:
(1)Europaparlamentets och rådets förordning (EU) 2024/16893 fastställer harmoniserade regler om artificiell intelligens (AI) och syftar till att förbättra den inre marknadens funktion, främja användningen av människocentrerad och tillförlitlig artificiell intelligens och samtidigt säkerställa en hög skyddsnivå för hälsa, säkerhet och grundläggande rättigheter samt stödja innovation. Förordning (EU) 2024/1689 trädde i kraft den 1 augusti 2024. Bestämmelserna börjar tillämpas stegvis och alla regler kommer att börja tillämpas senast den 2 augusti 2027.
(2)Erfarenhet från genomförandet av de delar av förordning (EU) 2024/1689 som redan har börjat tillämpas kan ligga till grund för genomförandet av de delar som ännu inte har börjat tillämpas. I detta sammanhang har den försenade utarbetningen av standarder, som bör tillhandahålla tekniska lösningar för leverantörer av AI-system med hög risk i syfte att säkerställa efterlevnad av deras skyldigheter enligt den
1
2
3
EUT C , , s. . EUT C , , s. .
Europaparlamentets och rådets förordning (EU) 2024/1689 av den 13 juni 2024 om harmoniserade regler för artificiell intelligens och om ändring av förordningarna (EG) nr 300/2008, (EU) nr 167/2013, (EU) nr 168/2013, (EU) 2018/858, (EU) 2018/1139 och (EU) 2019/2144 samt direktiven 2014/90/EU,
(EU) 2016/797 och (EU) 2020/1828 (förordning om artificiell intelligens) (EUT L, 2024/1689, 12.7.2024, ELI: http://data.europa.eu/eli/reg/2024/1689/oj).
| SV | 11 | SV |
förordningen, och det försenade inrättandet av styrningsramar och ramar för bedömning av överensstämmelse på nationell nivå resulterat i en efterlevnadsbörda som är tyngre än väntat. Genom samråd med berörda parter har det dessutom framkommit att det finns ett behov av att ytterligare förenkla och förtydliga när det gäller genomförandet och efterlevnaden av förordningen, utan att minska nivån av skydd för hälsa, säkerhet och grundläggande rättigheter från risker kopplade till AI som bestämmelserna i förordning (EU) 2024/1689 strävar efter att uppnå.
(3)Som en följd av detta är det nödvändigt att göra riktade ändringar av förordning (EU) 2024/1689 för att lösa vissa utmaningar med genomförandet och därigenom effektivt kunna tillämpa bestämmelserna.
(4)Företag som vuxit ur definitionen av mikroföretag samt små och medelstora företag – små midcapföretag – spelar en avgörande roll för unionens ekonomi. Jämfört med små och medelstora företag tenderar små midcapföretag att ha högre tillväxttakt, innovationsnivå och digitaliseringsnivå. När det gäller administrativ börda står de dock inför liknande utmaningar som små och medelstora företag, vilket leder till ett behov av proportionalitet i genomförandet av förordning (EU) 2024/1689 och av riktat stöd. För att möjliggöra en smidig övergång för små eller medelstora företag till små midcapföretag är det viktigt att på ett enhetligt sätt ta itu med den påverkan som regleringar kan få på deras verksamhet när de vuxit ur segmentet små eller medelstora företag och måste följa de regler som gäller för stora företag. Förordning (EU) 2024/1689 föreskriver ett flertal åtgärder för småskaliga leverantörer, vilka bör utökas till att även omfatta små midcapföretag. I syfte att förtydliga hur små och medelstora företag och små midcapföretag hanteras i förordning (EU) 2024/1689 är det nödvändigt att föra in definitioner för små och medelstora företag och små
midcapföretag och dessa bör motsvara de definitioner som fastställs i bilagan till kommissionens rekommendation 2003/361/EG4 och bilagan till kommissionens rekommendation 2025/3500/EU5.
(5)Enligt artikel 4 i förordning (EU) 2024/1689 är alla leverantörer och tillhandahållare av AI-system för närvarande skyldiga att säkerställa att deras personal har tillräcklig AI-kunnighet. En utvecklad AI-kunnighet som tar avstamp i utbildning och fortsätter i ett livslångt lärande är avgörande för att förse leverantörer, tillhandahållare och andra berörda personer med den information som krävs för att fatta välgrundade beslut om utveckling av AI-system. De erfarenheter som berörda parter har delat med sig av gör tydligt att det inte finns någon universallösning som fungerar för alla typer av leverantörer och tillhandahållare i fråga om att främja AI-kunnighet, vilket medför att en sådan horisontell skyldighet inte är effektiv för att nå målet med bestämmelsen. Dessutom tyder vissa indikationer på att om en sådan skyldighet införs så kan detta medföra en ytterligare efterlevnadsbörda, i synnerhet för mindre företag, trots att AI- kunnighet borde vara en strategisk prioritering – oavsett om det är en lagstadgad skyldighet och oavsett eventuella sanktioner. Med tanke på detta bör artikel 4 i
4
5
Kommissionens rekommendation av den 6 maj 2003 om definitionen av mikroföretag samt små och medelstora företag (EUT L 124, 20.5.2003, s. 36, ELI: http://data.europa.eu/eli/reco/2003/361/oj). Kommissionens rekommendation (EU) 2025/1099 av den 21 maj 2025 om definition av små midcapföretag (EUT L, 2025/1099, 28.5.2025, ELI: http://data.europa.eu/eli/reco/2025/1099/oj).
| SV | 12 | SV |
förordning (EU) 2024/1689 ändras och föreskriva att medlemsstaterna och kommissionen, utan att det påverkar deras respektive befogenheter, enskilt, gemensamt och i samarbete med relevanta berörda parter uppmuntrar leverantörer och tillhandahållare att förse sin personal och andra personer som för deras räkning arbetar med drift och användning av AI-system med tillräcklig AI-kunnighet, däribland genom att tillhandahålla utbildningsmöjligheter och informationsresurser samt möjliggöra utbyte av god praxis och andra icke rättsligt bindande initiativ. Europeiska styrelsen för artificiell intelligens (styrelsen) kommer att säkerställa ett fortlöpande samarbete mellan kommissionen och medlemsstaterna i frågan och alliansen för AI- tillämpningar kommer att möjliggöra utbyten med samhället i stort. Denna ändring påverkar inte de bredare åtgärder som kommissionen och medlemsstaterna har vidtagit för att främja AI-kunnigheten och kompetensen hos allmänheten, dvs. elever, studerande och invånare i olika åldrar, särskilt genom utbildningssystemet.
(6)Det är avgörande för allmänhetens intresse att bias upptäcks och korrigeras eftersom detta skyddar fysiska personer från de negativa konsekvenser som bias medför, däribland diskriminering. Diskriminering kan vara en konsekvens av bias i AI- modeller och andra AI-system än AI-system med hög risk för vilka förordning (EU) 2024/1689 redan tillhandahåller en rättslig grund att behandla särskilda kategorier av personuppgifter enligt artikel 9.2 g i Europaparlamentets och rådets förordning (EU) 2016/6796. Med tanke på att diskriminering även kan orsakas av andra AI-system och AI-modeller är det därför lämpligt att förordning (EU) 2024/1689 föreskriver en rättslig grund för att även leverantörer och tillhandahållare av andra AI-system och AI- modeller, samt även tillhandahållare av AI-system med hög risk, ska kunna behandla särskilda kategorier av personuppgifter. Den rättsliga grunden fastställs i
överensstämmelse med artikel 9.2 g i förordning (EU) 2016/679, artikel 10.2 g i Europaparlamentets och rådets förordning (EU) 2018/17257 och artikel 10 a i Europaparlamentets och rådets direktiv (EU) 2016/6808 och utgör en rättslig grund som gör det möjligt för leverantörer och tillhandahållare av alla AI-system och AI- modeller att, när så är nödvändigt för att upptäcka och undanröja bias, behandla särskilda kategorier av personuppgifter, under förutsättning att lämpliga säkerhetsåtgärder som kompletterar förordning (EU) 2016/679, förordning (EU) 2018/1725 och direktiv (EU) 2016/680 (enligt vad som är lämpligt) följs.
6
7
8
Europaparlamentets och rådets förordning (EU) 2016/679 av den 27 april 2016 om skydd för fysiska personer med avseende på behandling av personuppgifter och om det fria flödet av sådana uppgifter och om upphävande av direktiv 95/46/EG (allmän dataskyddsförordning) (EUT L 119, 4.5.2016, s. 1, ELI: http://data.europa.eu/eli/reg/2016/679/oj).
Europaparlamentets och rådets förordning (EU) 2018/1725 av den 23 oktober 2018 om skydd för fysiska personer med avseende på behandling av personuppgifter som utförs av unionens institutioner, organ och byråer och om det fria flödet av sådana uppgifter samt om upphävande av förordning (EG)
nr 45/2001 och beslut nr 1247/2002/EG (EUT L 295, 21.11.2018, s. 39, ELI: http://data.europa.eu/eli/reg/2018/1725/oj).
Europaparlamentets och rådets direktiv (EU) 2016/680 av den 27 april 2016 om skydd för fysiska personer med avseende på behöriga myndigheters behandling av personuppgifter för att förebygga, förhindra, utreda, avslöja eller lagföra brott eller verkställa straffrättsliga påföljder, och det fria flödet av sådana uppgifter och om upphävande av rådets rambeslut 2008/977/RIF (EUT L 119, 4.5.2016, s. 89, ELI: http://data.europa.eu/eli/dir/2016/680/oj).
| SV | 13 | SV |
(7)I syfte att säkerställa överensstämmelse, undvika dubbelarbete och minimera den administrativa bördan i förhållande till förfarandet för att utse anmälda organ enligt förordning (EU) 2024/1689 och samtidigt bibehålla samma granskningsnivå bör en enda ansökan och ett enda bedömningsförfarande göras tillgängliga för nya organ för bedömning av överensstämmelse och anmälda organ som utses enligt unionens harmoniseringslagstiftning som förtecknas i avsnitt A i bilaga I till förordning (EU) 2024/1689, exempelvis enligt Europaparlamentets och rådets förordningar (EU) 2017/7459 och (EU) 2017/74610, om ett sådant förfarande har fastställts enligt unionens harmoniseringslagstiftning. Förfarandet med en enda ansökan och en enda bedömning syftar till att underlätta, stödja och påskynda utseendeförfarandet enligt förordning (EU) 2024/1689 och samtidigt säkerställa efterlevnad av de krav som är tillämpliga på anmälda organ enligt den förordningen och unionens harmoniseringslagstiftning som förtecknas i avsnitt A i bilaga I till den.
(8)I syfte att säkerställa att förordning (EU) 2024/1689 tillämpas smidigt och är konsekvent behöver förordningen ändras. En teknisk ändring av artikel 43.3 första stycket i förordning (EU) 2024/1689 bör läggas till för att anpassa kraven för bedömning av överensstämmelse med kraven på leverantörer av AI-system med hög risk i artikel 16 i samma förordning. Dessutom bör det tydliggöras att om en leverantör av ett AI-system med hög risk omfattas av ett förfarande för bedömning av överensstämmelse enligt unionens harmoniseringslagstiftning som förtecknas i avsnitt A i bilaga I till förordning (EU) 2024/1689 och bedömningen av överensstämmelse utökas till efterlevnad av kvalitetsstyrningssystemet i samma förordning och sådan unionsharmoniseringslagstiftning, bör leverantören kunna inkludera aspekter som rör kvalitetsstyrningssystemen enligt den förordningen som en del av kvalitetsstyrningssystemen enligt sådan unionsharmoniseringslagstiftning, i linje med artikel 17.3 i förordning (EU) 2024/1689. Artikel 43.3 andra stycket bör ändras för att förtydliga att anmälda organ som har anmälts enligt unionens harmoniseringslagstiftning som förtecknas i avsnitt A i bilaga I till förordning (EU) 2024/1689 och vars syfte är att bedöma AI-system med hög risk som omfattas av unionens harmoniseringslagstiftning som förtecknas i avsnitt A i bilaga I till den förordningen bör ansöka om att utses som anmält organ enligt den förordningen inom 18 månader från och med [den dag då denna förordning börjar tillämpas]. Denna ändring påverkar inte tillämpningen av artikel 28 i förordning (EU) 2024/1689. Dessutom bör förordning (EU) 2024/1689 ändras för att förtydliga att om ett AI- system med hög risk omfattas av både unionens harmoniseringslagstiftning som förtecknas i avsnitt A i bilaga I till förordning (EU) 2024/1689 och av något av de användningsfall som förtecknas i bilaga III till samma förordning bör leverantören följa det relevanta förfarandet för bedömning av överensstämmelse enligt vad som krävs i den relevanta harmoniseringslagstiftningen.
9
10
Europaparlamentets och rådets förordning (EU) 2017/745 av den 5 april 2017 om medicintekniska produkter, om ändring av direktiv 2001/83/EG, förordning (EG) nr 178/2002 och förordning (EG) nr 1223/2009 och om upphävande av rådets direktiv 90/385/EEG och 93/42/EEG (EUT L 117, 5.5.2017, s. 1, ELI: http://data.europa.eu/eli/reg/2017/745/oj).
Europaparlamentets och rådets förordning (EU) 2017/746 av den 5 april 2017 om medicintekniska produkter för in vitro-diagnostik och om upphävande av direktiv 98/79/EG och kommissionens beslut 2010/227/EU (EUT L 117, 5.5.2017, s. 176, ELI: http://data.europa.eu/eli/reg/2017/746/oj).
| SV | 14 | SV |
(9)För att effektivisera efterlevnaden och minska de därmed sammanhängande kostnaderna bör leverantörer av AI-system inte åläggas att registrera sådana AI-system som avses i artikel 6.3 i förordning (EU) 2024/1689 i EU-databasen i enlighet med artikel 49.2 i samma förordning. Med tanke på att sådana system inte är att betrakta som hög risk under vissa förutsättningar, nämligen i fall då de inte utgör en betydande risk för skada på människors hälsa, säkerhet eller grundläggande rättigheter, skulle en påförd registreringsskyldighet utgöra en oproportionerlig efterlevnadsbörda. En leverantör som anser att ett AI-system omfattas av artikel 6.3 måste dock fortfarande upprätta dokumentation för sin bedömning innan systemet släpps ut på marknaden eller tas i bruk. Denna bedömning kan begäras ut av de nationella behöriga myndigheterna.
(10)Artiklarna 57, 58 och 60 i förordning (EU) 2024/1689 bör ändras för att ytterligare stärka samarbetet på unionsnivå om regulatoriska sandlådor för AI, främja tydlighet och enhetlighet vad gäller styrningen av regulatoriska sandlådor för AI och utöka omfattningen av testning under verkliga förhållanden utanför regulatoriska sandlådor för AI till att även gälla för AI-system med hög risk som omfattas av unionens harmoniseringslagstiftning som förtecknas i bilaga I till samma förordning. För att möjliggöra förenkling av förfarandet för projekt som sker under tillsyn i de regulatoriska sandlådorna för AI och som även omfattar testning under verkliga förhållanden bör planen för testning under verkliga förhållanden i tillämpliga fall integreras i samma dokument som den sandlådeplan som leverantörer eller potentiella leverantörer och den behöriga myndigheten kommit överens om. Dessutom är det lämpligt att föreskriva en möjlighet för AI-byrån att inrätta en regulatorisk sandlåda för AI på unionsnivå för AI-system som omfattas av artikel 75.1 i förordning (EU) 2024/1689. Genom att använda denna infrastruktur och underlätta det gränsöverskridande samarbetet kommer samordningen att strömlinjeformas och resurserna att användas på ett optimalt sätt.
(11)I syfte att främja innovation är det även lämpligt att utöka omfattningen av testning under verkliga förhållanden utanför regulatoriska sandlådor för AI enligt artikel 60 i förordning (EU) 2024/1689, som för närvarande är tillämplig på sådana AI-system med hög risk som förtecknas i bilaga III till samma förordning, och göra det möjligt för leverantörer och potentiella leverantörer av AI-system med hög risk som omfattas av unionens harmoniseringslagstiftning som förtecknas i bilaga I till samma förordning att även testa sådana system under verkliga förhållanden. Detta påverkar inte tillämpningen av annan unionsrätt eller nationell rätt som rör testning under verkliga förhållanden av AI-system med hög risk som är relaterade till produkter som omfattas av unionens harmoniseringslagstiftning. För att hantera den specifika situationen vad gäller AI-system med hög risk som omfattas av unionens harmoniseringslagstiftning som förtecknas i avsnitt B i bilaga I till förordningen är det nödvändigt att tillåta ingående av frivilliga avtal mellan kommissionen och medlemsstaterna för att möjliggöra testning av sådana AI-system med hög risk under verkliga förhållanden.
(12)Genom artikel 63 i förordning (EU) 2024/1689 ges mikroföretag som är leverantörer av AI-system med hög risk möjlighet att efterleva kravet på att inrätta ett kvalitetsstyrningssystem på ett förenklat sätt. I syfte att förenkla efterlevnaden för fler innovatörer bör den möjligheten utökas till att omfatta alla små och medelstora företag, inbegripet uppstartsföretag.
(13)Artikel 69 i förordning (EU) 2024/1689 bör ändras för att förenkla den vetenskapliga panelens struktur för avgifter. Om medlemsstaterna anlitar panelens experter bör de
| SV | 15 | SV |
avgifter som de kan åläggas att betala dem motsvara den ersättning som åligger kommissionen att betala i liknande situationer. För att förenkla förfarandena bör medlemsstaterna kunna konsultera experterna i den vetenskapliga panelen direkt, utan inblandning från kommissionen.
(14)I syfte att stärka styrningssystemet för AI-system som bygger på AI-modeller för allmänna ändamål är det nödvändigt att förtydliga AI-byråns roll vad gäller övervakning och tillsyn avseende att sådana AI-system är i överensstämmelse med förordning (EU) 2024/1689, medan AI-system som är relaterade till produkter som omfattas av unionens harmoniseringslagstiftning som förtecknas i bilaga I till den förordningen undantas. Sektorsmyndigheter har även fortsättningsvis ansvar för tillsyn av AI-system som är relaterade till produkter som omfattas av unionens harmoniseringslagstiftning, men artikel 75.1 i förordning (EU) 2024/1689 bör ändå ändras så att alla AI-system som bygger på AI-modeller för allmänna ändamål som utvecklats av samma leverantör omfattas av AI-byråns tillsyn. Detta innefattar inte AI- system som släpps ut på marknaden, tas i bruk eller används av unionens institutioner, byråer eller organ, för vilka tillsynen sköts av Europeiska datatillsynsmannen i enlighet med artikel 74.9 i förordning (EU) 2024/1689. För att säkerställa effektiv tillsyn av dessa AI-system i enlighet med de uppgifter och ansvarsområden som tilldelats marknadskontrollmyndigheter enligt förordning (EU) 2024/1689 bör AI- byrån få befogenhet att vidta lämpliga åtgärder och fatta lämpliga beslut för att kunna utöva de befogenheter som föreskrivs i det avsnittet och i Europaparlamentets och rådets förordning (EU) 2019/102011. Artikel 14 i förordning (EU) 2019/1020 bör gälla i tillämpliga delar. Vidare bör de myndigheter som är involverade i tillämpningen av förordning (EU) 2024/1689 samarbeta aktivt när de utövar sina befogenheter för att säkerställa effektiv efterlevnad, i synnerhet i fall då efterlevnadsåtgärder behöver vidtas på en medlemsstats territorium.
(15)Med beaktande av det befintliga systemet för tillsyn och kontroll av efterlevnaden enligt Europaparlamentets och rådets förordning (EU) 2022/206512 är det lämpligt att ge kommissionen en behörig marknadskontrollmyndighets befogenheter enligt förordning (EU) 2024/1689 för fall då ett AI-system räknas som en mycket stor onlineplattform eller en mycket stor onlinesökmotor i den mening som avses i förordning (EU) 2022/2065, eller för fall då det är inbyggt i en sådan plattform eller sökmotor. Detta bör bidra till att säkerställa att utövandet av kommissionens befogenheter avseende tillsyn och kontroll av efterlevnaden enligt förordning (EU) 2024/1689 och förordning (EU) 2022/2065, samt de befogenheter som är tillämpliga på AI-modeller för allmänna ändamål som är inbyggda i sådana plattformar eller sökmotorer, utövas på ett enhetligt sätt. När det gäller AI-system som är inbyggda i
11
12
Europaparlamentets och rådets förordning (EU) 2019/1020 av den 20 juni 2019 om marknadskontroll och överensstämmelse för produkter och om ändring av direktiv 2004/42/EG och förordningarna (EG)
nr 765/2008 och (EU) nr 305/2011 (EUT L 169, 25.6.2019, s. 1, ELI: http://data.europa.eu/eli/reg/2019/1020/oj).
Europaparlamentets och rådets förordning (EU) 2022/2065 av den 19 oktober 2022 om en inre marknad för digitala tjänster och om ändring av direktiv 2000/31/EG (förordningen om digitala tjänster) (EUT L 277, 27.10.2022, s. 1, ELI: http://data.europa.eu/eli/reg/2022/2065/oj).
| SV | 16 | SV |
eller som räknas som mycket stora onlineplattformar eller onlinesökmotorer är de första leden i bedömningen av dessa AI-system riskbedömning, riskbegränsande åtgärder och revisionsskyldigheter enligt vad som föreskrivs i artiklarna 34, 35 och 37 i förordning (EU) 2022/2065, utan att det påverkar AI-byråns befogenheter att undersöka och kontrollera bristande efterlevnad av reglerna i denna förordning i efterhand. Vad gäller analysen av riskbedömningen, de riskbegränsande åtgärderna och revisionerna kan de kommissionsavdelningar som är ansvariga för kontrollen av efterlevnaden av förordning (EU) 2022/2065 be om AI-byråns synpunkter på resultatet av en möjlig tidigare eller parallell riskbedömning som genomförts enligt denna förordning och på tillämpligheten avseende förbuden enligt denna förordning. Dessutom bör AI-byrån och de behöriga nationella myndigheterna enligt förordning (EU) 2024/1689 samordna sina efterlevnadsåtgärder med behöriga myndigheter för tillsyn och kontroll av efterlevnaden av förordning (EU) 2022/2065, inbegripet kommissionen, i syfte att säkerställa att principerna om lojalt samarbete, proportionalitet och ne bis in idem respekteras samtidigt som information som erhållits enligt den ena förordningen kan användas i syfte att utöva tillsyn eller kontrollera efterlevnaden av den andra, under förutsättning det berörda företaget samtycker till det. Myndigheterna bör i synnerhet utbyta synpunkter regelbundet och ta i beaktande, för sina respektive behörighetsområden, eventuella sanktionsavgifter och sanktioner som påförts samma leverantör för samma beteende genom ett slutligt beslut i förfaranden kopplade till en överträdelse av andra unionsregler eller nationella regler i syfte att säkerställa att de övergripande sanktionsavgifter och sanktioner som påförs är proportionerliga och motsvarar överträdelsens allvarlighetsgrad.
(16)För att ytterligare omsätta AI-byråns tillsyn och kontroll av efterlevnaden i praktiken, enligt vad som anges i artikel 75.1 i förordning (EU) 2024/1689, är det nödvändigt att ytterligare fastställa vilka av de befogenheter som förtecknas i artikel 14 i förordning (EU) 2019/1020 som bör tilldelas AI-byrån. Kommissionen bör därför ges befogenhet att anta genomförandeakter för att precisera dessa befogenheter, inbegripet möjligheten att fastställa sanktioner, exempelvis sanktionsavgifter eller andra administrativa sanktioner, i enlighet med de villkor och tak som avses i artikel 99 och med tillämpliga förfaranden. Detta bör säkerställa att AI-byrån har de verktyg som krävs för att på ett effektivt sätt övervaka och utöva tillsyn i enlighet med förordning (EU) 2024/1689.
(17)Det är dessutom av avgörande betydelse att säkerställa att effektiva rättssäkerhetsgarantier gäller för leverantörer av AI-system som omfattas av AI-byråns övervakning och tillsyn. I detta syfte bör de processuella rättigheter som föreskrivs i artikel 18 i förordning (EU) 2019/1020 gälla i tillämpliga delar för leverantörer av AI- system, utan att det påverkar mer specifika processuella rättigheter som föreskrivs i förordning (EU) 2024/1689.
(18)För att möjliggöra tillträde till unionsmarknaden för AI-system som står under AI- byråns tillsyn i enlighet med artikel 75 i förordning (EU) 2024/1689 och som omfattas av tredjepartsbedömning av överensstämmelse bör kommissionen ha möjlighet att genomföra bedömningar av överensstämmelse före utsläppandet på marknaden av sådana system.
(19)Artikel 77 och därtill relaterade bestämmelser i förordning (EU) 2024/1689 utgör en viktig styrningsmekanism eftersom syftet med dem är att myndigheter eller organ som ansvarar för att kontrollera efterlevnaden eller utöva tillsynen avseende unionslagstiftning som syftar till att skydda de grundläggande rättigheterna ska ha möjlighet att fullgöra sitt mandat under vissa förutsättningar, samtidigt som samarbete
| SV | 17 | SV |
främjas med marknadskontrollmyndigheter som ansvarar för tillsyn och kontroll av efterlevnaden av samma förordning. Det är nödvändigt att förtydliga omfattningen av ett sådant samarbete samt vilka offentliga myndigheter eller organ som gynnas av det. I syfte att förstärka samarbetet bör det förtydligas att begäranden om tillgång till
information och dokumentation bör göras till den behöriga marknadskontrollmyndigheten, vilken bör svara på sådana begäranden, och att de berörda myndigheterna eller organen bör ha en ömsesidig skyldighet att samarbeta.
(20)För att ge leverantörer av generativa AI-system som omfattas av den märkningsskyldighet som fastställs i artikel 50.2 i förordning (EU) 2024/1689 tillräckligt med tid för att anpassa sina metoder inom rimlig tid utan att störa marknaden är det lämpligt att införa en övergångsperiod på sex månader för leverantörer som har släppt ut sina system på marknaden före den 2 augusti 2026.
(21)För att ge leverantörer av AI-system med hög risk tillräckligt med tid och för att förtydliga vilka regler som är tillämpliga på AI-system som redan har släppts ut på marknaden eller tagits i bruk innan de relevanta bestämmelserna i förordning (EU) 2024/1689 har börjat tillämpas är det lämpligt att förtydliga tillämpningen av den anståndsperiod som anges i artikel 111.2 i samma förordning. Anståndsperioden, vid tillämpningen av artikel 111.2, bör tillämpas på en typ och modell av AI-system som redan har släppts ut på marknaden. Detta innebär att om åtminstone en enskild enhet i AI-systemet med hög risk lagligen har släppts ut på marknaden eller tagits i bruk innan det datum som anges i artikel 111.2 omfattas andra enskilda enheter av samma typ och modell av AI-systemet med hög risk av den anståndsperiod som anges i artikel 111.2 och får därmed fortsätta att släppas ut, göras tillgängliga eller tas i bruk på unionsmarknaden utan några ytterligare skyldigheter, krav eller behov av ytterligare certifiering, så länge utformningen av det AI-systemet med hög risk förblir oförändrad. Vid tillämpning av den anståndsperiod som avses i artikel 111.2 är den avgörande faktorn det datum då den första enheten av den typen och modellen av AI- systemet med hög risk släpptes ut på marknaden eller togs i bruk på unionsmarknaden för första gången. Alla betydande förändringar av utformningen av det AI-systemet efter det datum som anges i artikel 111.2 bör utlösa skyldigheten för leverantören att till fullo efterleva alla relevanta bestämmelser i denna förordning som är tillämpliga för AI-system med hög risk, inbegripet skyldigheterna vad gäller bedömning av överensstämmelse.
(22)Artikel 113 i förordning (EU) 2024/1689 fastställer de datum då förordningen träder i kraft och börjar tillämpas, i synnerhet att det datum då förordningen allmänt sett börjar tillämpas är den 2 augusti 2026. För de krav och skyldigheter avseende AI-system med hög risk som fastställs i avsnitten 1, 2 och 3 i kapitel III i förordning (EU) 2024/1689 har den försenade tillgängligheten till standarder, gemensamma specifikationer och alternativ vägledning samt det försenade inrättandet av nationella behöriga myndigheter lett till utmaningar som äventyrar den faktiska tillämpningen av dessa krav och skyldigheter och som riskerar att i betydande grad öka genomförandekostnaderna på ett sätt som inte kan motivera att det ursprungliga tillämpningsdatumet (alltså den 2 augusti 2026) bibehålls. Utifrån tidigare erfarenhet är det lämpligt att inrätta en mekanism som kopplar tillämpningsdatumet till tillgången till åtgärder som stöder efterlevnaden av kapitel III, vilket kan innefatta harmoniserade standarder, gemensamma specifikationer och kommissionens riktlinjer. Detta bör bekräftas av kommissionen genom ett beslut och som en följd därav bör reglerna om krav för AI-system med hög risk börja tillämpas efter sex månader för AI-system som klassificeras som hög risk enligt artikel 6.2 och bilaga III och efter tolv månader för
| SV | 18 | SV |
AI-system som klassificeras som hög risk enligt artikel 6.1 och bilaga I till förordning (EU) 2024/1689. Denna flexibilitet bör dock endast utökas till och med den 2 december 2027 för AI-system som klassificeras som hög risk enligt artikel 6.2 och bilaga III och till och med den 2 augusti 2028 för AI-system som klassificeras som hög risk enligt artikel 6.1 och bilaga I till samma förordning, och under alla omständigheter bör reglerna börja tillämpas senast dessa datum. Skillnaden mellan tillämpningsdatumen för regler vad gäller AI-system som klassificeras som hög risk enligt artikel 6.2 och bilaga III respektive artikel 6.1 och bilaga I till den förordningen är i linje med skillnaden mellan de första tillämpningsdatum som planerades i förordning (EU) 2024/1689 och syftar till att ge tillräckligt med tid för anpassning och genomförande av de motsvarande kraven.
(23)I syfte att minska genomförandeutmaningarna för invånare, företag och offentliga förvaltningar är det mycket viktigt att harmoniserade villkor för genomförandet av vissa regler endast antas där det är absolut nödvändigt. Därför är det lämpligt att ta bort vissa befogenheter som tilldelats kommissionen i fråga om att anta sådana harmoniserade villkor genom genomförandeakter för fall där dessa villkor inte är uppfyllda. Förordning (EU) 2024/1689 bör därför ändras för att ta bort de befogenheter som tilldelats kommissionen i artiklarna 50.7, 56.6 och 72.3 i förordningen avseende antagande av genomförandeakter. Borttagandet av befogenheten att anta en harmoniserad mall för en plan för övervakning efter utsläppande på marknaden i artikel 72.3 i förordning (EU) 2024/1689 medför ytterligare en fördel, nämligen att det på så vis blir mer flexibelt för leverantörer av AI-system med hög risk att införa system för övervakning efter utsläppande på marknaden som är anpassade efter deras organisation. Samtidigt erkänns behovet att förtydliga hur leverantörer av AI-system med hög risk förväntas efterleva regelverket och därför bör kommissionen åläggas att offentliggöra vägledning.
(24)För att bedöma om AI-system med hög risk är i överensstämmelse med förordning (EU) 2024/1689 kan organ för bedömning av överensstämmelse behöva involveras. Endast organ för bedömning av överensstämmelse som har utsetts enligt den förordningen får genomföra bedömningar av överensstämmelse och de får endast göras för den verksamhet som gäller de kategorier och de typer av AI-system som berörs. För att göra det möjligt att närmare precisera omfattningen för utseendet av organ för bedömning av överensstämmelse som anmälts i enlighet med artikel 30 i förordning (EU) 2024/1689 måste det upprättas en förteckning över koder, kategorier och motsvarande typer av AI-system. Förteckningen över koder bör ta hänsyn till huruvida AI-systemet är en del av en produkt eller en produkt i sig själv som omfattas av unionens harmoniseringslagstiftning som förtecknas i bilaga I (betecknad med en
”AIP-kod”, vilket innebär att det rör sig om ett AI-system som omfattas av produktlagstiftning) eller ett system som avses i bilaga III till förordning (EU) 2024/1689 som för närvarande endast gäller biometriska AI-system enligt vad som avses i punkt 1 i bilaga III (betecknade med en ”AIB-kod”, vilket innebär att det rör sig om biometriska AI-system). Både AIP- och AIB-koderna är vertikala koder. AIP- koderna är hänvisningskoder som tillhandahåller en koppling till unionens harmoniseringslagstiftning som förtecknas i avsnitt A i bilaga I till förordning (EU) 2024/1689. AIB-koderna är nya koder som är specifika för förordning (EU) 2024/1689 och har till syfte att identifiera biometriska AI-system enligt vad som avses i punkt 1 i bilaga III till samma förordning. Förteckningen över koder bör även ta hänsyn till specifika typer av och underliggande teknik för AI-systemen (betecknade med en
”AIH-kod”, vilket innebär att det rör sig om horisontella koder för AI-system). AIH- koderna är nya teknikspecifika koder för AI och kan tillämpas tillsammans med de
| SV | 19 | SV |
vertikala AIP- eller AIB-koderna. AIH-koderna omfattar AI-systemens underliggande typer och tekniker. Förteckningen över koder, inbegripet dessa tre kategorier, bör utgöra en flerdimensionell typologi för AI-system som säkerställer att organ för bedömning av överensstämmelse som utsetts som anmälda organ är fullt ut behöriga för de AI-system som de måste bedöma.
(25)I Europaparlamentets och rådets förordning (EU) 2018/113913 fastställs gemensamma bestämmelser på det civila luftfartsområdet. Artikel 108 i förordning (EU) 2024/1689 fastställer ändringar av förordning (EU) 2018/1139 för att säkerställa att kommissionen, på grundval av de tekniska och regleringsmässiga särdragen i den civila luftfartssektorn och utan att inkräkta på befintliga mekanismer för styrelseformer, för kontroll av överensstämmelse och för kontroll av efterlevnad och myndigheter som inrättats inom ramen för dessa, beaktar de obligatoriska krav för AI- system med hög risk som fastställs i förordning (EU) 2024/1689 när den antar relevanta delegerade akter eller genomförandeakter på grundval av den förordningen. En teknisk ändring som utökar vissa artiklar i förordning (EU) 2018/1139 är nödvändig för att säkerställa att de obligatoriska krav för AI-system med hög risk som fastställs i förordning (EU) 2024/1689 till fullo täcks när relevanta delegerade akter eller genomförandeakter antas på grundval av förordning (EU) 2018/1139.
(26)I syfte att säkerställa rättssäkerhet så snart som möjligt, mot bakgrund av den nära förestående tillämpningen av förordning (EU) 2024/1689, bör denna förordning träda i kraft så snart som möjligt.
HÄRIGENOM FÖRESKRIVS FÖLJANDE.
Artikel 1
Ändringar av förordning (EU) 2024/1689
Förordning (EU) 2024/1689 ska ändras på följande sätt:
(1)I artikel 1.2 ska led g ersättas med följande:
”g) åtgärder till stöd för innovation med särskild inriktning på små midcapföretag och små och medelstora företag, inbegripet uppstartsföretag.”
(2)Artikel 2.2 ska ersättas med följande:
”2. För AI-system som klassificeras som AI-system med hög risk enligt artikel
6.1och som är relaterade till produkter som omfattas av unionens harmoniseringslagstiftning som förtecknas i avsnitt B i bilaga I är endast
13Europaparlamentets och rådets förordning (EU) 2018/1139 av den 4 juli 2018 om fastställande av gemensamma bestämmelser på det civila luftfartsområdet och inrättande av Europeiska unionens byrå
för luftfartssäkerhet, och om ändring av Europaparlamentets och rådets förordningar (EG) nr 2111/2005, (EG) nr 1008/2008, (EU) nr 996/2010, (EU) nr 376/2014 och direktiv 2014/30/EU och 2014/53/EU, samt om upphävande av Europaparlamentets och rådets förordningar (EG) nr 552/2004 och (EG) nr 216/2008 och rådets förordning (EEG) nr 3922/91 (EUT L 212, 22.8.2018, s. 1, ELI: http://data.europa.eu/eli/reg/2018/1139/oj).
| SV | 20 | SV |
artiklarna 6.1, 60a, 102–109, 111 och 112 tillämpliga. Artikel 57 är endast tillämplig i den mån som kraven för AI-system med hög risk
enligt denna förordning har integrerats i den unionsharmoniseringslagstiftningen.”
(3)I artikel 3 ska följande punkter införas som punkterna 14a och 14b:
”14a. mikroföretag samt små och medelstora företag (SMF-företag): mikroföretag samt små och medelstora företag enligt definitionen i artikel 2 i bilagan till kommissionens rekommendation 2003/361/EG.
14b. små midcapföretag: små midcapföretag enligt definitionen i punkt 2 i bilagan till kommissionens rekommendation (EU) 2025/1099.”
(4)Artikel 4 ska ersättas med följande:
| ” | Artikel 4 |
| AI-kunnighet |
Kommissionen och medlemsstaterna ska uppmuntra leverantörer och tillhandahållare av AI-system att vidta åtgärder för att säkerställa att deras personal och andra personer som för deras räkning arbetar med drift och användning av AI-system har tillräcklig AI-kunnighet, med beaktande av deras tekniska kunskaper, erfarenhet och utbildningsnivå samt det sammanhang i vilket AI-systemen ska användas, och med hänsyn till de personer eller grupper av personer på vilka AI-systemen ska användas.”
(5)Följande artikel ska införas i kapitel I som artikel 4a:
”Artikel 4a
Behandling av särskilda kategorier av personuppgifter för upptäckt och begränsning av bias
1.I den utsträckning det är nödvändigt för att säkerställa upptäckt och korrigering av bias i samband med AI-system med hög risk i enlighet med artikel 10.2 f och g i denna förordning får leverantörer av sådana system undantagsvis behandla särskilda kategorier av personuppgifter, med förbehåll för lämpliga skyddsåtgärder för fysiska personers grundläggande rättigheter och friheter. Utöver de skyddsåtgärder som fastställs i förordningarna (EU) 2016/679 och (EU) 2018/1725 och direktiv (EU) 2016/680, beroende på vad som är tillämpligt, ska samtliga följande villkor vara uppfyllda för att sådan behandling ska kunna äga rum:
a)Upptäckt och korrigering av bias kan inte uppnås på ett effektivt sätt genom behandling av andra data, inbegripet syntetiska eller anonymiserade data.
b)De särskilda kategorierna av personuppgifter omfattas av tekniska begränsningar för vidareutnyttjande av personuppgifter samt säkerhetsåtgärder och integritetsbevarande åtgärder på en nivå som motsvarar den senaste utvecklingen, inbegripet pseudonymisering.
c)De särskilda kategorierna av personuppgifter omfattas av åtgärder för att säkerställa att de personuppgifter som behandlas är säkra, skyddade, omfattas av lämpliga skyddsåtgärder, inbegripet strikta kontroller och
| SV | 21 | SV |
dokumentation av åtkomsten, för att undvika missbruk och säkerställa att endast personer som är behöriga har tillgång till dessa personuppgifter med lämpliga konfidentialitetsskyldigheter.
d)De särskilda kategorierna av personuppgifter översänds eller överförs inte och görs inte på annat sätt tillgängliga för andra parter.
e)De särskilda kategorierna av personuppgifter raderas när biasen har korrigerats eller personuppgifternas lagringstid har löpt ut, beroende på vilket som inträffar först.
f)Registren över behandling enligt förordningarna (EU) 2016/679 och (EU) 2018/1725 och direktiv (EU) 2016/680 innehåller skälen till varför behandlingen av särskilda kategorier av personuppgifter var nödvändig för att upptäcka och korrigera biaser och varför detta mål inte kunde uppnås genom behandling av andra data.
2.Punkt 1 får tillämpas på leverantörer och tillhandahållare av andra AI-system och AI-modeller och tillhandahållare av AI-system med hög risk när så är nödvändigt och proportionellt om behandlingen sker i de syften som anges däri och under förutsättning att de villkor som fastställs inom ramen för de skyddsåtgärder som anges i den punkten är uppfyllda.”
(6)Artikel 6.4 ska ersättas med följande:
”4. En leverantör som anser att ett AI-system som avses i bilaga III inte är ett AI-system med hög risk ska dokumentera sin bedömning innan systemet släpps ut på marknaden eller tas i bruk. På begäran av nationella behöriga myndigheter ska leverantören tillhandahålla den dokumentation som legat till grund för bedömningen.”
(7)Artikel 10 ska ändras på följande sätt:
(a)Punkt 1 ska ersättas med följande:
”1. AI-system med hög risk som använder teknik som inbegriper träning av AI- modeller med data ska utvecklas på grundval av tränings-, validerings- och testdataset som uppfyller de kvalitetskriterier som avses i punkterna
2, 3 och 4 i denna artikel och i artikel 4a.1 när sådana dataset används.”
(b)Punkt 5 ska utgå.
(c)Punkt 6 ska ersättas med följande:
”6. För utvecklingen av AI-system med hög risk som inte använder teknik som inbegriper träning av AI-modeller är punkterna 2, 3 och 4 i denna artikel och artikel 4a.1 endast tillämpliga på testdataset.”
(8)I artikel 11.1 ska andra stycket ersättas med följande:
”Den tekniska dokumentationen ska upprättas på ett sådant sätt att det visas att AI-systemet med hög risk är förenligt med kraven i detta avsnitt, och så att nationella behöriga myndigheter och anmälda organ får den information som krävs i klar och begriplig form för att bedöma om AI- systemet uppfyller dessa krav. Den ska minst innehålla de delar som anges i bilaga IV. Små midcapföretag och SMF-företag, inbegripet uppstartsföretag, får tillhandahålla de delar av den tekniska dokumentation som anges i bilaga IV på ett förenklat sätt. För detta
| SV | 22 | SV |
ändamål ska kommissionen upprätta ett förenklat formulär för teknisk dokumentation som är inriktat på små midcapföretags samt SMF- företags, inbegripet uppstartsföretags, behov. Om ett litet midcapföretag eller ett SMF-företag, inbegripet ett uppstartsföretag, väljer att tillhandahålla den information som krävs enligt bilaga IV på ett förenklat sätt ska företaget använda det formulär som avses i denna punkt. Anmälda organ ska godta formuläret för bedömning av överensstämmelse.”
(9)Artikel 17.2 ska ersättas med följande:
”2. Genomförandet av de aspekter som avses i punkt 1 ska stå i proportion till storleken på leverantörens organisation, i synnerhet om leverantören är ett litet midcapföretag eller ett SMF-företag, inbegripet uppstartsföretag. Leverantörer ska i alla händelser iaktta den grad av noggrannhet och den skyddsnivå som krävs för att säkerställa att deras AI-system med hög risk står i överensstämmelse med denna förordning.”
(10)I artikel 28 ska följande punkt läggas till som punkt 8:
”8. Anmälande myndigheter som utsetts enligt denna förordning och är
ansvariga för AI-system som omfattas av unionens harmoniseringslagstiftning som förtecknas i avsnitt A i bilaga I ska fastställas, organiseras och drivas på ett sätt som säkerställer att det organ för bedömning av överensstämmelse som ansöker om att bli utsett både enligt denna förordning och enligt unionens harmoniseringslagstiftning som förtecknas i avsnitt A i bilaga I ska ges möjlighet att lämna in en enda ansökan och genomgå ett enda förfarande för bedömning för att utses enligt denna förordning och unionens harmoniseringslagstiftning som förtecknas i avsnitt A i bilaga I, om den relevanta unionsharmoniseringslagstiftningen möjliggör en enda ansökan och ett enda bedömningsförfarande.
Den enda ansökan och det enda bedömningsförfarande som avses i denna punkt ska även göras tillgängliga för anmälda organ som redan har utsetts enligt unionens harmoniseringslagstiftning som förtecknas i avsnitt A i bilaga I om dessa anmälda organ ansöker om utseende enligt denna förordning, under förutsättning att ett sådant förfarande är möjligt enligt den relevanta unionsharmoniseringslagstiftningen.
Den enda ansökan och det enda bedömningsförfarandet ska bidra till att undvika onödigt dubbelarbete genom att bygga vidare på befintliga förfaranden för utseende enligt unionens harmoniseringslagstiftning som förtecknas i avsnitt A i bilaga I och säkerställa efterlevnad av kraven för anmälda organ både enligt denna förordning och enligt relevant unionsharmoniseringslagstiftning.”
(11)Artikel 29.4 ska ersättas med följande:
”4. För anmälda organ som utsetts enligt annan unionsharmoniseringslagstiftning får alla dokument och intyg kopplade till dessa fall av utseende användas för att stödja och påskynda deras utseendeförfarande enligt denna förordning, beroende på vad som är lämpligt.
| SV | 23 | SV |
Anmälda organ som har utsetts enligt någon av den unionsharmoniseringslagstiftning som förtecknas i avsnitt A i bilaga I och som ansöker om den enda bedömning som avses i artikel 28.8 ska lämna in den enda ansökan om bedömning till den anmälande myndighet som utsetts i enlighet med den unionsharmoniseringslagstiftningen.
Det anmälda organet ska uppdatera den dokumentation som avses i punkterna 2 och 3 i denna artikel när relevanta ändringar görs, för att myndigheten med ansvar för anmälda organ ska kunna övervaka och kontrollera att samtliga krav som föreskrivs i artikel 31 alltid uppfylls.”
(12)Artikel 30.2 ska ersättas med följande:
”2. Anmälande myndigheter ska till kommissionen och övriga medlemsstater, på grundval av förteckningen över koder, kategorier och motsvarande typer av AI-system som avses i bilaga XIV och med hjälp av det elektroniska anmälningsverktyg som har utvecklats och förvaltas av kommissionen, anmäla varje organ för bedömning av överensstämmelse som avses i punkt 1.
Kommissionen har befogenhet att anta delegerade akter i enlighet med artikel 97 för att ändra bilaga XIV mot bakgrund av teknisk utveckling, kunskapsutveckling eller nya vetenskapliga rön genom att i förteckningen över koder, kategorier och motsvarande typer av AI- system lägga till nya koder, kategorier eller typer av AI-system, ta bort befintliga koder, kategorier eller typer av AI-system från förteckningen eller flytta koder eller typer av AI-system från en kategori till en annan.”
(13)Artikel 43.3 ska ersättas med följande:
”För AI-system med hög risk som omfattas av unionens harmoniseringslagstiftning som förtecknas i avsnitt A i bilaga I ska leverantören av systemet följa det relevanta förfarande för bedömning av
överensstämmelse som krävs enligt den relevanta unionsharmoniseringslagstiftningen. Kraven i avsnitt 2 i detta kapitel ska tillämpas på de AI-systemen med hög risk och ska ingå i den bedömningen. Bedömning av det kvalitetsstyrningssystem som fastställs
iartikel 17 och bilaga VII ska också tillämpas.
Vid denna bedömning av överensstämmelse ska anmälda organ som har anmälts enligt unionens harmoniseringslagstiftning som förtecknas i avsnitt A i bilaga I ha befogenhet att bedöma huruvida AI-system med hög risk överensstämmer med kraven enligt avsnitt 2, förutsatt att dessa anmälda organs överensstämmelse med kraven i artikel 31.4, 31.5, 31.10 och 31.11 har bedömts i samband med anmälningsförfarandet enligt den relevanta unionsharmoniseringslagstiftningen. Utan att det påverkar tillämpningen av artikel 28 ska sådana anmälda organ som har anmälts enligt unionens harmoniseringslagstiftning i avsnitt A i bilaga I ansöka om att bli utsedda i enlighet med avsnitt 4 senast den [18 månader från och med det att denna förordning börjar tillämpas].
Om unionens harmoniseringslagstiftning som förtecknas i avsnitt A i bilaga I ger produkttillverkaren alternativet att välja att inte delta i en tredjepartsbedömning av överensstämmelse får tillverkaren, om den har tillämpat harmoniserade standarder som omfattar alla relevanta krav,
| SV | 24 | SV |
använda detta alternativ endast om den också har tillämpat harmoniserade standarder eller, i tillämpliga fall, de gemensamma specifikationer som avses i artikel 41, som omfattar samtliga krav som anges i avsnitt 2 i detta kapitel.
Om ett AI-system med hög risk omfattas av både unionens harmoniseringslagstiftning som förtecknas i avsnitt A i bilaga I och av en av de kategorier som förtecknas i bilaga III ska leverantören av systemet följa det relevanta förfarande för bedömning av överensstämmelse som krävs enligt den relevanta unionsharmoniseringslagstiftning som förtecknas i avsnitt A i bilaga I.”
(14)Artikel 49.2 ska utgå.
(15)Artikel 50.7 ska ersättas med följande:
”7. AI-byrån ska uppmuntra och underlätta utarbetandet av förfarandekoder på unionsnivå för att underlätta ett effektivt genomförande av skyldigheterna avseende upptäckt och märkning av artificiellt skapat eller manipulerat innehåll. Kommissionen får bedöma huruvida tillämpning av dessa förfarandekoder är tillräckligt för att säkerställa efterlevnad av den skyldighet som fastställs i punkt 2, i enlighet med det förfarande som fastställs i artikel 56.6 första stycket. Om kommissionen anser att förfarandekoden inte är tillräcklig får den anta en genomförandeakt som specificerar gemensamma regler för genomförandet av dessa skyldigheter
ienlighet med det granskningsförfarande som fastställs i artikel 98.2.”
(16)I artikel 56.6 ska första stycket ersättas med följande:
”6. Kommissionen och styrelsen ska regelbundet övervaka och utvärdera hur deltagarna uppnår förfarandekodernas mål och hur de bidrar till en korrekt tillämpning av denna förordning. Kommissionen ska, med största möjliga hänsyn tagen till styrelsens yttrande, bedöma huruvida förfarandekoderna omfattar de skyldigheter som fastställs i artiklarna 53 och 55 och ska regelbundet övervaka och utvärdera om målen i dem uppnås. Kommissionen ska offentliggöra sin bedömning av förfarandekodernas lämplighet.”
(17)Artikel 57 ska ändras på följande sätt:
(a)Följande punkt ska införas som punkt 3a:
”AI-byrån får också inrätta en regulatorisk sandlåda för AI på unionsnivå för AI-system som omfattas av artikel 75.1. En sådan regulatorisk sandlåda för AI ska genomföras i nära samarbete med relevanta behöriga myndigheter, i synnerhet om tillsyn utövas avseende annan unionslagstiftning än denna förordning i den regulatoriska sandlådan för AI, och SMF-företag ska ha prioriterad tillgång.”
(b)Punkt 5 ska ersättas med följande:
”5. Regulatoriska sandlådor för AI som inrättats enligt denna artikel ska tillhandahålla en kontrollerad miljö som främjar innovation och underlättar utveckling, träning, testning och validering av innovativa AI- system under en begränsad tid innan de släpps ut på marknaden eller tas i bruk i enlighet med en särskild sandlådeplan som leverantörerna eller de potentiella leverantörerna och den behöriga myndigheten kommer
| SV | 25 | SV |
överens om, varvid det säkerställs att lämpliga säkerhetsåtgärder finns på plats. Sådana sandlådor får omfatta testning under verkliga förhållanden under tillsyn i sandlådorna. I tillämpliga fall ska sandlådeplanen innehålla planen för testning under verkliga förhållanden i ett enda dokument.”
(c)Punkt 9 e ska ersättas med följande:
”e) Underlätta och påskynda tillträdet till unionsmarknaden för AI-system, särskilt för sådana som tillhandahålls av små midcapföretag och av SMF- företag, inbegripet uppstartsföretag.”
(d)Punkt 13 ska ersättas med följande:
”13. De regulatoriska sandlådorna för AI ska utformas och genomföras på ett sådant sätt att de underlättar gränsöverskridande samarbete mellan nationella behöriga myndigheter.”
(e)Punkt 14 ska ersättas med följande:
”14. De nationella behöriga myndigheterna ska samordna sin verksamhet och samarbeta inom ramen för styrelsen. De ska stödja det gemensamma inrättandet och den gemensamma driften av regulatoriska sandlådor för AI, inbegripet i olika sektorer.”
(18)Artikel 58.1 ska ersättas med följande:
”1. För att undvika fragmentering i hela unionen ska kommissionen anta genomförandeakter som specificerar de närmare arrangemangen för inrättande, utveckling, genomförande, drift, styrning och tillsyn av regulatoriska sandlådor för AI. Dessa genomförandeakter ska innehålla gemensamma principer i följande frågor:
a)Behörighets- och urvalskriterier för deltagande i den regulatoriska sandlådan för AI.
b)Förfarandet för tillämpning, deltagande, övervakning, utträde ur och avslutande av den regulatoriska sandlådan för AI, inbegripet sandlådeplanen och slutrapporten.
c)De villkor som gäller för deltagarna.
d)De detaljerade regler som gäller för styrning av regulatoriska sandlådor för AI enligt artikel 57, inbegripet vad gäller de behöriga myndigheternas utförande av sina uppgifter samt samordning och samarbete på nationell nivå och på EU-nivå.”
(19)Artikel 60 ska ändras på följande sätt:
(a)I punkt 1 ska första stycket ersättas med följande:
”Testning av AI-system med hög risk under verkliga förhållanden utanför regulatoriska sandlådor för AI får utföras av leverantörer eller potentiella leverantörer av AI-system med hög risk som förtecknas i bilaga III eller som omfattas av unionens harmoniseringslagstiftning som förtecknas i avsnitt A i bilaga I, i enlighet med denna artikel och den plan för testning under verkliga förhållanden som avses i denna artikel, utan att det påverkar förbuden enligt artikel 5.”
(b)Punkt 2 ska ersättas med följande:
| SV | 26 | SV |
”2. Leverantörer eller potentiella leverantörer får på egen hand eller i partnerskap med en eller flera tillhandahållare eller potentiella tillhandahållare utföra testning under verkliga förhållanden av AI-system med hög risk som avses i bilaga III eller som omfattas av unionens harmoniseringslagstiftning som förtecknas i avsnitt A i bilaga I när som helst innan AI-systemet släpps ut på marknaden eller tas i bruk.”
(20)Följande artikel ska införas som artikel 60a:
”Artikel 60a
Testning av AI-system med hög risk som omfattas av unionens harmoniseringslagstiftning som förtecknas i avsnitt B i bilaga I
under verkliga förhållanden utanför regulatoriska sandlådor för AI
1.Testning av AI-system med hög risk under verkliga förhållanden utanför regulatoriska sandlådor för AI får utföras av leverantörer eller potentiella leverantörer av AI-baserade produkter som omfattas av unionens harmoniseringslagstiftning som förtecknas i avsnitt B i bilaga I, i enlighet med denna artikel och en frivillig överenskommelse om testning under verkliga förhållanden, utan att det påverkar förbuden enligt artikel 5.
2.Den frivilliga överenskommelse om testning under verkliga förhållanden som avses i punkt 1 ska slutas skriftligen mellan intresserade medlemsstater och kommissionen. Den ska fastställa kraven för testning av de AI-baserade produkter som omfattas av unionens harmoniseringslagstiftning som förtecknas i avsnitt B i bilaga I under verkliga förhållanden.
3.Medlemsstater, kommissionen, marknadskontrollmyndigheter och offentliga myndigheter med ansvar för förvaltning och drift av
infrastruktur och produkter som omfattas av unionens harmoniseringslagstiftning som förtecknas i avsnitt B i bilaga I ska ha ett nära samarbete i god tro och ska undanröja eventuella praktiska hinder, inbegripet processuella regler om tillgång till fysisk offentlig infrastruktur, när så är nödvändigt, för att på ett framgångsrikt sätt genomföra den frivilliga överenskommelsen om testning under verkliga förhållanden och därmed testa AI-baserade produkter som omfattas av unionens harmoniseringslagstiftning som förtecknas i avsnitt B i bilagan.
4.De parter som undertecknat den frivilliga överenskommelsen om testning under verkliga förhållanden ska ange villkor för testningen under verkliga förhållanden och fastställa ingående delar av planen för testning under verkliga förhållanden för sådana AI-system som omfattas av unionens harmoniseringslagstiftning som förtecknas i avsnitt B i bilaga I.
5.Artikel 60.2, 60.5 och 60.9 ska gälla.”
(21)Artikel 63.1 ska ersättas med följande:
”1. SMF-företag, inbegripet uppstartsföretag, får efterleva vissa delar av det kvalitetsstyrningssystem som krävs enligt artikel 17 på ett förenklat sätt. För detta ändamål ska kommissionen utarbeta riktlinjer för de delar av kvalitetsstyrningssystemet som får efterlevas på ett förenklat sätt med beaktande av SMF-företags behov, utan att det påverkar skyddsnivån
| SV | 27 | SV |
eller behovet av efterlevnad av kraven med avseende på AI-system med hög risk.”
(22) Artikel 69 ska ändras på följande sätt:
(a)Punkt 2 ska ersättas med följande:
”2. Medlemsstaterna kan åläggas att betala avgifter för experternas rådgivning och stöd till en taxa som motsvarar den ersättning som gäller för kommissionen i enlighet med den genomförandeakt som avses i artikel
68.1.”
(b)Punkt 3 ska utgå.
(23)Artikel 70.8 ska ersättas med följande:
”8. Nationella behöriga myndigheter får ge vägledning och rådgivning om genomförandet av denna förordning, i synnerhet till små midcapföretag och SMF-företag, inbegripet uppstartsföretag, med beaktande av styrelsens och kommissionens vägledning och rådgivning beroende på vad som är lämpligt. När de nationella behöriga myndigheterna avser att ge vägledning och rådgivning om ett AI-system på områden som omfattas av annan unionsrätt, ska samråd ske med de nationella behöriga myndigheterna enligt den unionsrätten, när så är lämpligt.”
(24)Artikel 72.3 ska ersättas med följande:
”3. Systemet för övervakning efter utsläppande på marknaden ska baseras på en plan för övervakning efter utsläppande på marknaden. Planen för övervakning efter utsläppande på marknaden ska vara en del av den tekniska dokumentation som avses i bilaga IV. Kommissionen ska anta vägledning om planen för övervakning efter utsläppande på marknaden.”
(25)Artikel 75 ska ändras på följande sätt:
(a)Rubriken till artikel 75 ska ersättas med följande:
”Marknadskontroll och kontroll av AI-system samt ömsesidigt bistånd”
(b)Punkt 1 ska ersättas med följande:
”1. Om ett AI-system bygger på en AI-modell för allmänna ändamål, utom AI- system som är relaterade till produkter som omfattas av unionens harmoniseringslagstiftning som förtecknas i bilaga I, och modellen och systemet har utvecklats av samma leverantör ska AI-byrån ha exklusiv befogenhet att utöva tillsyn och kontroll av efterlevnaden avseende det systemet i förhållande till skyldigheterna enligt denna förordning, i enlighet med de uppgifter och ansvarsområden som enligt förordningen tilldelas marknadskontrollmyndigheter. AI-byrån ska även ha exklusiv befogenhet att utöva tillsyn och kontroll av efterlevnaden av skyldigheterna enligt denna förordning vad gäller AI-system som utgör eller som är inbyggda i en utsedd mycket stor onlineplattform eller i en mycket stor onlinesökmotor i den mening som avses i förordning (EU) 2022/2065.
När AI-byrån utövar tillsyn och kontrollerar efterlevnaden enligt första stycket ska den ha alla befogenheter som en marknadskontrollmyndighet har enligt detta avsnitt och enligt förordning (EU) 2019/1020. AI-byrån ska
| SV | 28 | SV |
ha befogenhet att vidta lämpliga åtgärder och fatta lämpliga beslut för att utöva sina befogenheter i fråga om tillsyn och kontroll av efterlevnaden på ett tillfredsställande sätt. Artikel 14 i förordning (EU) 2019/1020 ska gälla i tillämpliga delar.
De myndigheter som är involverade i tillämpningen av denna förordning ska samarbeta aktivt när de utövar dessa befogenheter, i synnerhet i fall då efterlevnadsåtgärder behöver vidtas på en medlemsstats territorium.”
(c)Följande punkter ska införas som punkterna 1a–1c:
”1a. Kommissionen ska anta en genomförandeakt för att fastställa AI-byråns efterlevnadsbefogenheter och förfaranden för utövandet av dessa befogenheter, inbegripet dess förmåga vad gäller påförande av sanktioner såsom böter eller andra administrativa sanktionsavgifter, i enlighet med de villkor och tak som fastställs i artikel 99, när det gäller sådana AI- system som avses i punkterna 1 och 1a i denna artikel som har konstaterats inte uppfylla kraven i denna förordning, avseende byråns övervaknings- och tillsynsuppgifter enligt denna artikel.”
”1b. Artikel 18 i förordning (EU) 2019/1020 ska i tillämpliga delar gälla för leverantörer av AI-system som avses i punkt 1, utan att det påverkar de mer specifika processuella rättigheter som föreskrivs i den här förordningen.”
”1c. Kommissionen ska organisera och genomföra bedömningar av
överensstämmelse före utsläppandet på marknaden och tester av sådana AI-system som avses i punkt 1 som klassificeras som hög risk och omfattas av tredjepartsbedömning av överensstämmelse enligt artikel 43 innan sådana AI-system släpps ut på marknaden eller tas i bruk. Dessa tester och bedömningar ska kontrollera att systemen följer relevanta bestämmelser i denna förordning och kan släppas ut på marknaden eller tas i bruk i unionen i enlighet med denna förordning. Kommissionen får anförtro utförandet av dessa tester eller bedömningar till anmälda organ som utsetts enligt denna förordning och i sådana fall ska det anmälda organet agera på kommissionens vägnar. Artikel 34.1 och 34.2 ska gälla i tillämpliga delar för kommissionen när den utövar sina befogenheter enligt denna punkt.
Kostnaderna för testning och bedömning ska påföras leverantören av ett AI- system med hög risk som till kommissionen har ansökt om tredjepartsbedömning av överensstämmelse. Kostnaderna kopplade till de tjänster som kommissionen har anförtrott de anmälda organen i enlighet med denna artikel ska betalas direkt av leverantören till det anmälda organet.”
(26) Artikel 77 ska ändras på följande sätt:
(a)Rubriken ska ersättas med följande:
”Myndigheternas befogenheter att skydda grundläggande rättigheter och samarbete med marknadskontrollmyndigheter”
(b)Punkt 1 ska ersättas med följande:
”1. Nationella offentliga myndigheter eller organ som utövar tillsyn över eller kontrollerar efterlevnaden av skyldigheter enligt unionsrätt om skydd av
| SV | 29 | SV |
grundläggande rättigheter, inbegripet rätten till icke-diskriminering, ska ha befogenhet att begära och få åtkomst till all information eller dokumentation som skapas eller upprätthålls från den berörda marknadskontrollmyndigheten enligt denna förordning på ett språk och i ett format som är tillgängligt när åtkomst till sådan information eller dokumentation är nödvändig för att de effektivt ska kunna fullgöra sina mandat inom ramen för sin jurisdiktion.”
(c)Följande punkter ska införas som punkterna 1a och 1b:
”1a. Med förbehåll för de villkor som anges i denna artikel ska marknadskontrollmyndigheten ge den berörda offentliga myndighet eller det berörda organ som avses i punkt 1 åtkomst till sådan information eller dokumentation, inbegripet genom att, om nödvändigt, begära sådan
information eller dokumentation från leverantören eller tillhandahållaren.”
”1b. Marknadskontrollmyndigheter och offentliga myndigheter eller organ som avses i punkt 1 ska samarbeta nära och ge varandra det ömsesidiga bistånd som krävs för att de ska kunna fullgöra sina respektive mandat, i syfte att säkerställa en enhetlig tillämpning av denna förordning och unionsrätt om skydd av grundläggande rättigheter samt förenkla förfarandena. Detta ska i synnerhet inbegripa utbyte av information, om det är nödvändigt för en effektiv tillsyn och kontroll av efterlevnaden av denna förordning och respektive annan unionslagstiftning.”
(27)Artikel 95.4 ska ersättas med följande:
”4. När AI-byrån och medlemsstaterna uppmuntrar och underlättar utarbetandet av förfarandekoder ska de ta hänsyn till de särskilda intressena och behoven hos små midcapföretag och SMF-företag, inbegripet uppstartsföretag.”
(28)I artikel 96.1 ska andra stycket ersättas med följande:
”När kommissionen utfärdar sådana riktlinjer ska den ägna särskild uppmärksamhet åt behoven hos små midcapföretag och SMF-företag, inbegripet uppstartsföretag, lokala offentliga myndigheter och de sektorer som mest sannolikt kommer att beröras av denna förordning.”
(29)Artikel 99 ska ändras på följande sätt:
(a)Punkt 1 ska ersättas med följande:
”1. Medlemsstaterna ska i enlighet med de villkor som fastställs i denna förordning fastställa bestämmelser om sanktioner och andra efterlevnadsåtgärder, som också kan innefatta varningar och ickemonetära åtgärder, som ska tillämpas vid operatörers överträdelser av bestämmelserna i denna förordning och vidta alla nödvändiga åtgärder för att se till att de tillämpas korrekt och effektivt, varvid hänsyn ska tas till de riktlinjer som kommissionen utfärdat enligt artikel 96. Sanktionerna ska vara effektiva, proportionella och avskräckande. Medlemsstaterna ska ta hänsyn till små midcapföretags och SMF- företags, inbegripet uppstartsföretags, intressen och deras ekonomiska bärkraft vid åläggandet av sanktioner.”
(b)Punkt 6 ska ersättas med följande:
| SV | 30 | SV |
”6. När det gäller små midcapföretag och SMF-företag, inbegripet uppstartsföretag, ska varje sanktionsavgift som avses i denna artikel uppgå till högst de procentsatser eller belopp som avses i punkterna 3, 4 och 5, beroende på vilket belopp som är lägre.”
(30) Artikel 111 ska ändras på följande sätt:
(a)Punkt 2 ska ersättas med följande:
”2. Utan att det påverkar tillämpningen av artikel 5 enligt artikel 113.3 tredje stycket a ska denna förordning tillämpas på operatörer av andra AI- system med hög risk än de system som avses i punkt 1 i den här artikeln och som har släppts ut på marknaden eller tagits i bruk före tillämpningsdagen för kapitel III och motsvarande skyldigheter som avses i artikel 113, endast om dessa system från och med den dagen förändras betydligt när det gäller sin utformning. Under alla omständigheter ska leverantörer och tillhandahållare av AI-system med hög risk som är avsedda att användas av offentliga myndigheter vidta nödvändiga åtgärder för att uppfylla kraven och skyldigheterna enligt denna förordning senast den 2 augusti 2030.”
(b)Följande punkt ska läggas till som punkt 4:
”4. Leverantörer av AI-system, inbegripet AI-system för allmänna ändamål, som genererar syntetiskt ljud-, bild-, video- eller textinnehåll och som har släppts ut på marknaden före den 2 augusti 2026 ska vidta de åtgärder som krävs för att uppfylla skyldigheterna enligt artikel 50.2 senast den 2 februari 2027.”
(31) Artikel 113 ska ändras på följande sätt:
(a)I tredje stycket ska led d läggas till:
”d) Kapitel III avsnitten 1, 2 och 3 ska tillämpas efter det att ett kommissionsbeslut har antagits som bekräftar att det finns lämpliga åtgärder till stöd för efterlevnaden av kapitel III från och med följande datum:
i)6 månader efter antagandet av det beslutet för AI-system som klassificeras som hög risk enligt artikel 6.2 och bilaga III.
ii)12 månader efter antagandet av det beslutet för AI-system som klassificeras som hög risk enligt artikel 6.1 och bilaga I.
Om det beslut som avses i första stycket inte har antagits eller om de datum som anges nedan är tidigare än de datum som följer antagandet av beslutet ska avsnitten 1, 2 och 3 i kapitel III tillämpas enligt följande:
i)Den 2 december 2027 för AI-system som klassificeras som hög risk enligt artikel 6.2 och bilaga III.
ii)Den 2 augusti 2028 för AI-system som klassificeras som hög risk enligt artikel 6.1 och bilaga I.”
(b)I tredje stycket ska led e läggas till:
”3. Artiklarna 102–110 ska tillämpas från och med den [datum då denna förordning börjar tillämpas].”
(32) I bilaga VIII ska avsnitt B utgå.
| SV | 31 | SV |
(33)En ny bilaga XIV ska läggas till enligt följande:
”BILAGA XIV
Förteckning över koder, kategorier och motsvarande typer av AI-system för det
anmälningsförfarande som avses i artikel 30 som specificerar tillämpningsområdet vad
gäller utseendet av anmälda organ
1.Inledning
För att bedöma om AI-system med hög risk är i överensstämmelse med denna förordning kan organ för bedömning av överensstämmelse behöva involveras. Endast organ för bedömning av överensstämmelse som har utsetts i enlighet med denna förordning får genomföra bedömningar av överensstämmelse och de får endast göras för den verksamhet som gäller de typer av AI-system som berörs. Förteckningen över koder, kategorier och motsvarande typer av AI-system fastställer tillämpningsområdet för utseendet av organ för bedömning av överensstämmelse som anmälts enligt artikel 30 i denna förordning.
2.Förteckning över koder, kategorier och motsvarande AI-system
1. AI-system som omfattas av bilaga I till AI-förordningen
| Kod | inom | |||||||||||
| ramen | för | |||||||||||
| AI- | ||||||||||||
| förordningen | ||||||||||||
| AIP 0101 | AI-system | som | omfattas | av | avsnitt | A.1 | i | bilaga | I | till | AI- | |
| förordningen | ||||||||||||
| AIP 0102 | AI-system | som | omfattas | av | avsnitt | A.2 | i | bilaga | I | till | AI- | |
| förordningen | ||||||||||||
| AIP 0103 | AI-system | som | omfattas | av | avsnitt | A.3 | i | bilaga | I | till | AI- | |
| förordningen | ||||||||||||
| AIP 0104 | AI-system | som | omfattas | av | avsnitt | A.4 | i | bilaga | I | till | AI- | |
| förordningen | ||||||||||||
| AIP 0105 | AI-system | som | omfattas | av | avsnitt | A.5 | i | bilaga | I | till | AI- | |
| förordningen | ||||||||||||
| AIP 0106 | AI-system | som | omfattas | av | avsnitt | A.6 | i | bilaga | I | till | AI- | |
| förordningen | ||||||||||||
| AIP 0107 | AI-system | som | omfattas | av | avsnitt | A.7 | i | bilaga | I | till | AI- | |
| förordningen | ||||||||||||
| AIP 0108 | AI-system | som | omfattas | av | avsnitt | A.8 | i | bilaga | I | till | AI- | |
| förordningen | ||||||||||||
| AIP 0109 | AI-system | som | omfattas | av | avsnitt | A.9 | i | bilaga | I | till | AI- | |
| SV | 32 | SV |
| förordningen | |||||||||||
| AIP 0110 | AI-system | som | omfattas | av | avsnitt | A.10 | i | bilaga | I | till | AI- |
| förordningen | |||||||||||
| AIP 0111 | AI-system | som | omfattas | av | avsnitt | A.11 | i | bilaga | I | till | AI- |
| förordningen | |||||||||||
| AIP 0112 | AI-system | som | omfattas | av | avsnitt | A.12 | i | bilaga | I | till | AI- |
| förordningen | |||||||||||
2.AI-system som omfattas av punkt 1 i bilaga III till AI-förordningen
Kod inom ramen för AI- förordningen
AIB 0201 System för biometrisk fjärridentifiering enligt punkt 1 a i bilaga III till AI-förordningen som är avsedda att tas i bruk av unionens institutioner, organ eller byråer.
| AIB 0202 | AI-system för biometrisk kategorisering enligt punkt 1 b i bilaga | ||||
| III till AI-förordningen som är avsedda att tas i bruk av unionens | |||||
| institutioner, organ eller byråer. | |||||
| AIB 0203 | AI-system för känsloigenkänning enligt punkt 1 c i bilaga III till | ||||
| AI-förordningen som är avsedda att tas i bruk av unionens | |||||
| institutioner, organ eller byråer. | |||||
| AIB 0204 | System för biometrisk fjärridentifiering enligt punkt 1 a i bilaga III | ||||
| till AI-förordningen som är avsedda att tas i bruk av | |||||
| brottsbekämpande | myndigheter, | migrationsmyndigheter | eller | ||
| asylmyndigheter. | |||||
| AIB 0205 | AI-system för biometrisk kategorisering enligt punkt 1 b i bilaga | ||||
| III till AI-förordningen som är avsedda att tas i bruk av | |||||
| brottsbekämpande | myndigheter, | migrationsmyndigheter | eller | ||
| asylmyndigheter. | |||||
| AIB 0206 | AI-system för känsloigenkänning enligt punkt 1 c i bilaga III till | ||||
| AI-förordningen som är avsedda att tas i bruk av brottsbekämpande | |||||
| myndigheter, migrationsmyndigheter eller asylmyndigheter. | |||||
| AIB 0207 | System för biometrisk fjärridentifiering enligt punkt 1 a i bilaga III | ||||
| till AI-förordningen (allmänna). | |||||
| AIB 0208 | AI-system för biometrisk kategorisering enligt punkt 1 b i bilaga | ||||
| III till AI-förordningen (allmänna). | |||||
| AIB 0209 | AI-system för känsloigenkänning enligt punkt 1 c i bilaga III till | ||||
| AI-förordningen (allmänna). | |||||
3.Teknikspecifika koder för AI
| SV | 33 | SV |
SV
a)Symbolisk AI, expertsystem och matematisk optimering
| Kod | inom | ||
| ramen | för | ||
| AI- | |||
| förordningen | |||
| AIH 0101 | Logik- och kunskapsbaserade AI-system som drar slutsatser av | ||
| kodad kunskap eller symbolisk representation, expertsystem | |||
| AIH 0102 | Logikbaserade AI-system, utom grundläggande databehandling | ||
b)Maskininlärning, utom AI för allmänna ändamål och generativ AI för en modalitet
| Kod | inom | ||
| ramen | för | ||
| AI- | |||
| förordningen | |||
| AIH 0201 | AI-system som behandlar strukturerade data | ||
| AIH 0202 | AI-system som behandlar signal- och ljuddata | ||
| AIH 0203 | AI-system som behandlar textdata | ||
| AIH 0204 | AI-system som behandlar bild och video | ||
| AIH 0205 | AI-system som lär sig från sin miljö, utom agentisk AI | ||
c)AI-system som bygger på AI-modeller för allmänna ändamål eller generativ AI för en modalitet
| Kod | inom | ||
| ramen | för | ||
| AI- | |||
| förordningen | |||
| AIH 0301 | Generativa AI-system för en modalitet | ||
| AIH 0302 | Multimodala generativa AI-system, inbegripet AI-system som | ||
| bygger på AI-modeller för allmänna ändamål | |||
d)Agentisk AI
| Kod | inom | |
| ramen | för | |
| AI- | ||
| förordningen | ||
| AIH 0401 | Agentisk AI | |
| 34 | SV |
3.Ansökan om att utses
Organ för bedömning av överensstämmelse ska använda den förteckning över koder, kategorier och motsvarande typer av AI-system som anges i denna bilaga när de anger typer av AI-system i den ansökan om att utses som avses i artikel 29 i denna förordning.”
Artikel 2
Ändringar av förordning (EU) 2018/1139
Förordning (EU) 2018/1139 ska ändras på följande sätt:
(1)I artikel 27 ska följande punkt läggas till:
”3. Utan att det påverkar tillämpningen av punkt 2 ska kraven i kapitel III avsnitt 2 i Europaparlamentets och rådets förordning (EU) 2024/168914 beaktas vid antagandet av genomförandeakter enligt punkt 1 rörande system för artificiell intelligens som är säkerhetskomponenter i den mening som avses i den förordningen.”
(2)I artikel 31 ska följande punkt läggas till:
”3. Utan att det påverkar tillämpningen av punkt 2 ska kraven i kapitel III avsnitt 2 i Europaparlamentets och rådets förordning (EU) 2024/1689 beaktas vid antagandet av genomförandeakter enligt punkt 1 rörande system för artificiell intelligens som är säkerhetskomponenter i den mening som avses i den förordningen.”
(3)I artikel 32 ska följande punkt läggas till:
”3. Vid antagandet av delegerade akter enligt punkt 1 rörande system för artificiell intelligens som är säkerhetskomponenter i den mening som avses i Europaparlamentets och rådets förordning (EU) 2024/1689 (*) ska kraven i kapitel III avsnitt 2 i den förordningen beaktas.”
(4)I artikel 36 ska följande punkt läggas till:
”3. Utan att det påverkar tillämpningen av punkt 2 ska kraven i kapitel III avsnitt 2 i Europaparlamentets och rådets förordning (EU) 2024/1689 beaktas vid antagandet av genomförandeakter enligt punkt 1 rörande system för artificiell intelligens som är säkerhetskomponenter i den mening som avses i den förordningen.”
14Europaparlamentets och rådets förordning (EU) 2024/1689 av den 13 juni 2024 om harmoniserade regler för artificiell intelligens och om ändring av förordningarna (EG) nr 300/2008, (EU) nr 167/2013, (EU) nr 168/2013, (EU) 2018/858, (EU) 2018/1139 och (EU) 2019/2144 samt direktiven 2014/90/EU,
(EU) 2016/797 och (EU) 2020/1828 (förordning om artificiell intelligens) (EUT L, 2024/1689, 12.7.2024, ELI: http://data.europa.eu/eli/reg/2024/1689/oj).
| SV | 35 | SV |
(5)I artikel 39 ska följande punkt läggas till:
”3. Vid antagandet av delegerade akter enligt punkt 1 rörande system för artificiell intelligens som är säkerhetskomponenter i den mening som avses i Europaparlamentets och rådets förordning (EU) 2024/1689 ska kraven i kapitel III avsnitt 2 i den förordningen beaktas.”
(6)I artikel 50 ska följande punkt läggas till:
”3. Utan att det påverkar tillämpningen av punkt 2 ska kraven i kapitel III avsnitt 2 i Europaparlamentets och rådets förordning (EU) 2024/1689 beaktas vid antagandet av genomförandeakter enligt punkt 1 rörande system för artificiell intelligens som är säkerhetskomponenter i den mening som avses i den förordningen.”
(7)I artikel 53 ska följande punkt läggas till:
”3. Utan att det påverkar tillämpningen av punkt 2 ska kraven i kapitel III avsnitt 2 i Europaparlamentets och rådets förordning (EU) 2024/1689 beaktas vid antagandet av genomförandeakter enligt punkt 1 rörande system för artificiell intelligens som är säkerhetskomponenter i den mening som avses i den förordningen.”
Artikel 3
Ikraftträdande och tillämpning
Denna förordning träder i kraft den tredje dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
Denna förordning är till alla delar bindande och direkt tillämplig i alla medlemsstater. Utfärdad i Bryssel den
| På Europaparlamentets vägnar | På rådets vägnar |
| Ordförande | Ordförande |
| SV | 36 | SV |
FINANSIERINGSÖVERSIKT OCH DIGITAL ÖVERSIKT FÖR RÄTTSAKT
| 1. | GRUNDLÄGGANDE UPPGIFTER OM FÖRSLAGET ELLER INITIATIVET ..... | 3 |
| 1.1 | Förslagets eller initiativets titel .................................................................................... | 3 |
| 1.2 | Berörda politikområden ............................................................................................... | 3 |
| 1.3 | Mål ............................................................................................................................... | 3 |
| 1.3.1 | Allmänt/allmänna mål.................................................................................................. | 3 |
| 1.3.2 | Specifikt/specifika mål................................................................................................. | 3 |
| 1.3.3 | Verkan eller resultat som förväntas.............................................................................. | 3 |
| 1.3.4 | Prestationsindikatorer................................................................................................... | 3 |
| 1.4 | Förslaget eller initiativet avser ..................................................................................... | 4 |
| 1.5 | Grunder för förslaget eller initiativet ........................................................................... | 4 |
1.5.1Krav som ska uppfyllas på kort eller lång sikt, inbegripet en detaljerad tidsplan för
| genomförandet av initiativet ........................................................................................ | 4 |
1.5.2Mervärdet av en åtgärd på EU-nivå (som kan följa av flera faktorer, t.ex. samordningsfördelar, rättssäkerhet, ökad effektivitet eller komplementaritet). Med
”mervärdet av en åtgärd på EU-nivå” i detta avsnitt avses det värde en åtgärd från unionens sida tillför utöver det värde som annars skulle ha skapats av enbart
| medlemsstaterna. .......................................................................................................... | 4 | |
| 1.5.3 | Erfarenheter från tidigare liknande åtgärder ................................................................ | 4 |
1.5.4Förenlighet med den fleråriga budgetramen och eventuella synergieffekter med andra
| relevanta instrument ..................................................................................................... | 5 |
1.5.5Bedömning av de olika finansieringsalternativ som finns att tillgå, inbegripet
| möjligheter till omfördelning ....................................................................................... | 5 | |
| 1.6 | Förslagets eller initiativets varaktighet och budgetkonsekvenser ................................ | 6 |
| 1.7 | Planerad(e) genomförandemetod(er) ........................................................................... | 6 |
| 2. | FÖRVALTNING ......................................................................................................... | 8 |
| 2.1 | Regler om uppföljning och rapportering...................................................................... | 8 |
| 2.2 | Förvaltnings- och kontrollsystem................................................................................. | 8 |
2.2.1Motivering av den budgetgenomförandemetod, de finansieringsmekanismer, de
| betalningsvillkor och den kontrollstrategi som föreslås .............................................. | 8 |
2.2.2Uppgifter om identifierade risker och om det eller de interna kontrollsystem som
| inrättats för att begränsa riskerna ................................................................................. | 8 |
2.2.3Beräkning och motivering av kontrollernas kostnadseffektivitet (dvs. förhållandet mellan kostnaden för kontrollerna och värdet av de medel som förvaltas) och en
| bedömning av den förväntade risken för fel (vid betalning och vid avslutande)......... | 8 | |
| 2.3 | Åtgärder för att förebygga bedrägeri och oriktigheter ................................................. | 9 |
3.FÖRSLAGETS ELLER INITIATIVETS BERÄKNADE
| BUDGETKONSEKVENSER.................................................................................... | 10 |
3.1Berörda rubriker i den fleråriga budgetramen och utgiftsposter i den årliga budgeten10
| SV | 1 | SV |
| 3.2 | Förslagets beräknade budgetkonsekvenser för anslagen............................................ | 12 |
| 3.2.1 | Sammanfattning av beräknad inverkan på driftsanslagen.......................................... | 12 |
| 3.2.1.1 | Anslag i den antagna budgeten .................................................................................. | 12 |
| 3.2.1.2 | Anslag från externa inkomster avsatta för särskilda ändamål.................................... | 17 |
| 3.2.2 | Beräknad output som finansieras med driftsanslag.................................................... | 22 |
| 3.2.3 | Sammanfattning av beräknad inverkan på de administrativa anslagen ..................... | 24 |
| 3.2.3.1 Anslag i den antagna budgeten..................................................................................... | 24 | |
| 3.2.3.2 | Anslag från externa inkomster avsatta för särskilda ändamål.................................... | 24 |
| 3.2.3.3 | Totala anslag .............................................................................................................. | 24 |
| 3.2.4 | Beräknat personalbehov ............................................................................................. | 25 |
| 3.2.4.1 | Finansierat med den antagna budgeten ...................................................................... | 25 |
| 3.2.4.2 | Finansierat med externa inkomster avsatta för särskilda ändamål............................. | 26 |
| 3.2.4.3 | Totalt personalbehov .................................................................................................. | 26 |
| 3.2.5 | Översikt över beräknad inverkan på it-relaterade investeringar ................................ | 28 |
| 3.2.6 | Förenlighet med den gällande fleråriga budgetramen................................................ | 28 |
| 3.2.7 | Bidrag från tredje part ................................................................................................ | 28 |
| 3.3 | Beräknad inverkan på inkomsterna ............................................................................ | 29 |
| 4. | DIGITALA INSLAG ................................................................................................. | 29 |
| 4.1 | Krav med digital relevans .......................................................................................... | 30 |
| 4.2 | Data ............................................................................................................................ | 30 |
| 4.3 | Digitala lösningar ....................................................................................................... | 31 |
| 4.4 | Interoperabilitetsbedömning ...................................................................................... | 31 |
| 4.5 | Åtgärder till stöd för digitalt genomförande .............................................................. | 32 |
| SV | 2 | SV |
1.GRUNDLÄGGANDE UPPGIFTER OM FÖRSLAGET ELLER INITIATIVET
1.1Förslagets eller initiativets titel
Förslag till Europaparlamentets och rådets förordning om ändring av förordningarna (EU) 2024/1689 och (EU) 2018/1139 vad gäller förenkling av genomförandet av harmoniserade regler om artificiell intelligens (digitalt omnibuspaket om artificiell intelligens)
1.2Berörda politikområden Kommunikationsnät, innehåll och teknik
Inre marknaden, industri, entreprenörskap samt små och medelstora företag Budgetkonsekvenserna avser de nya uppgifter som anförtrotts AI-byrån.
1.3Mål
1.3.1Allmänt/allmänna mål
1.Att stärka AI-byråns övervakning och tillsyn av vissa kategorier av AI-system.
2.Att underlätta utvecklingen och testningen på EU-nivå av innovativa AI-system under strikt tillsyn innan systemen i fråga släpps ut på marknaden eller på annat sätt tas i bruk.
1.3.2Specifikt/specifika mål Specifikt mål nr 1
Att förbättra styrningen och effektiv kontroll av efterlevnaden av AI-förordningens bestämmelser om AI-system genom att stärka de tillämpliga befogenheterna och förfarandena samt genom att förse den AI-byrå som ansvarar för kontrollen med nya resurser.
Specifikt mål nr 2
Att införa en sandlåda på EU-nivå som möjliggör gränsöverskridande verksamhet och testning.
1.3.3Verkan eller resultat som förväntas
Beskriv den verkan som förslaget eller initiativet förväntas få på de mottagare eller den del av befolkningen som berörs.
AI-leverantörer bör omfattas av en centraliserad styrningsnivå och få tillgång till en sandlåda på EU-nivå för vissa kategorier av AI-system för att undvika överlappande förfaranden och dubbla kostnader.
1.3.4Prestationsindikatorer
Ange indikatorer för övervakning av framsteg och resultat.
Indikator 1
Antal AI-system som omfattas av de övervaknings- och tillsynsuppgifter som ska utföras av AI-byrån.
Indikator 2
| SV | 3 | SV |
Antal leverantörer och potentiella leverantörer som begär tillgång till sandlådan på EU-nivå.
1.4Förslaget eller initiativet avser
en ny åtgärd
en ny åtgärd som bygger på ett pilotprojekt eller en förberedande åtgärd26 en förlängning av en befintlig åtgärd
en sammanslagning eller omdirigering av en eller flera åtgärder mot en annan/en ny åtgärd
1.5Grunder för förslaget eller initiativet
1.5.1Krav som ska uppfyllas på kort eller lång sikt, inbegripet en detaljerad tidsplan för genomförandet av initiativet
De ytterligare delar som är relevanta för att förbättra AI-byråns styrningsstruktur bör finnas på plats innan de bestämmelser som är tillämpliga på AI-system träder i kraft.
Den första EU-sandlådan förväntas tas i bruk 2028, men vissa viktiga detaljer bör fastställas innan dess.
1.5.2Mervärdet av en åtgärd på EU-nivå (som kan följa av flera faktorer, t.ex. samordningsfördelar, rättssäkerhet, ökad effektivitet eller komplementaritet). Med ”mervärdet av en åtgärd på EU-nivå” i detta avsnitt avses det värde en åtgärd från unionens sida tillför utöver det värde som annars skulle ha skapats av enbart medlemsstaterna.
AI-byrån kommer att ha befogenhet att övervaka och kontrollera efterlevnaden för alla AI-system som bygger på AI-modeller för allmänna ändamål, där modellen och systemet utvecklats av samma leverantör, samt alla AI-system som är inbyggda i eller utgör mycket stora onlineplattformar eller sökmotorer, även om leverantören av systemet och leverantören av AI-modellen för allmänna ändamål inte är desamma. De uppgifter som AI-byrån skulle behöva utföra för detta stora antal AI-system är
bland annat att begära fullständig tillgång till dokumentation, utbildning/validering/testning av datauppsättningar och, vid behov, källkoden för AI- system med hög risk, övervaka testning under verkliga förhållanden, kartlägga och utvärdera risker, hantera allvarliga incidenter, vidta förebyggande och korrigerande åtgärder samtidigt som man säkerställer samarbete med nationella marknadskontrollmyndigheter, hantera AI-system som leverantören har klassificerat som icke-högrisksystem, hantera klagomål om bristande efterlevnad och ålägga sanktioner. För att möjliggöra marknadstillträde för AI-system som omfattas av denna bestämmelse och som också är föremål för tredjepartsbedömning av överensstämmelse före utsläppande på marknaden enligt AI-förordningen kommer AI-byrån dessutom att vara ansvarigt organ för utförandet av bedömningar av överensstämmelse. Alla dessa åtgärder kräver resurser och att en uppsättning
26I den mening som avses i artikel 58.2 a eller b i budgetförordningen.
| SV | 4 | SV |
förfaranden för efterlevnadskontroll utarbetas och genomförs, liksom lämpligt tekniskt stöd för att bedöma och utvärdera systemen.
AI-byråns roll när det gäller att säkerställa efterlevnad skulle också innebära att säkerställa synergier med utvärderingen av AI-modeller för allmänna ändamål, vilket skulle stärka de övergripande utvärderingarna av modeller och system som tillhandahålls av samma leverantör. Detta skulle ge en mer övergripande förståelse av AI-systemen och deras risker, vilket skulle möjliggöra en mer effektiv övervakning och efterlevnadskontroll. AI-byrån kommer också att behöva överväga de unika utmaningarna med agentisk AI, som kan fungera självständigt och fatta beslut som kan få betydande konsekvenser, och utarbeta strategier för att hantera dessa risker i linje med kommissionens politik.
En förbättring av AI-byråns styrning skulle medföra många fördelar för regleringen av AI-system i EU. En av de främsta fördelarna är den konsekvens och samstämmighet som det skulle säkerställa vid tillämpningen av AI-förordningen i hela EU. Genom att ha en enda myndighet som övervakar genomförandet av AI- förordningen för vissa kategorier av AI-system skulle risken för motstridiga tolkningar och beslut minska avsevärt, vilket skulle ge klarhet och säkerhet för företag som är verksamma i EU.
Detta skulle dessutom förenkla det rättsliga landskapet för företagen eftersom de bara skulle behöva vända sig till en tillsynsmyndighet i stället för flera nationella myndigheter. Detta kommer att minska komplexiteten och den administrativa bördan med att hantera olika regelverk, vilket ger företagen möjlighet att fokusera på innovation och tillväxt. Detta centraliserade tillvägagångssätt skulle också göra det möjligt att inom kommissionen utveckla specialiserad sakkunskap om AI-system och AI-modeller för allmänna ändamål, vilket skulle möjliggöra en mer effektiv övervakning och efterlevnadskontroll med avseende på AI-förordningen.
Genom detta tillvägagångssätt skulle man undvika att de berörda AI-systemen omfattas av olika nationella efterlevnadskontroller, som kan leda till fragmentering av den inre marknaden och minska rättssäkerheten för aktörerna. Detta skulle också hjälpa medlemsstaterna med de utmaningar som de står inför när det gäller att säkra specialiserade resurser för personalen vid de myndigheter som ansvarar för att genomföra AI-förordningen och övervaka AI-systemen på sina territorier. Genom att centralisera marknadskontrollmyndigheternas befogenheter inom AI-byrån skulle detta scenario göra det möjligt för AI-byrån att ta på sig ansvaret för att utvärdera och övervaka komplexa AI-system som tillhandahålls av samma modelleverantör samt AI-system som utgör eller är inbyggda i plattformar, vilket skulle minska bördan för de nationella myndigheterna. Genom detta skulle man utnyttja AI-byråns befintliga sakkunskap när det gäller att utvärdera AI-modeller för allmänna ändamål och övervaka deras lagenlighet, vilket skulle skapa en unik koncentration av specialiserad kunskap och kapacitet. Detta skulle ge AI-byrån goda förutsättningar att tillhandahålla en konsekvent och effektiv tillsyn, samtidigt som den även skulle stödja medlemsstaterna i deras ansträngningar för att genomföra AI-förordningen och säkerställa ett harmoniserat regelverk i hela EU. Om AI-byrån skulle hantera dessa ytterligare uppgifter skulle de nationella myndigheterna kunna fokusera mer på sin efterlevnadskontroll enligt AI-förordningen, vilket skulle möjliggöra en mer effektiv resursfördelning och ett mer effektivt genomförande av AI-förordningen i hela EU.
| SV | 5 | SV |
1.5.3Erfarenheter från tidigare liknande åtgärder
Europeiska kommissionens erfarenhet av att kontrollera efterlevnaden av förordningen om digitala tjänster ger värdefulla lärdomar som kan tillämpas vid kontroller av efterlevnaden av AI-förordningen. I synnerhet utgör inrättandet av en robust och transparent efterlevnadskontrollram, som fastställer tydliga förfaranden för hur överträdelser av förordningen om digitala tjänster ska utredas och hanteras och för hur det nära samarbetet med nationella myndigheter ska se ut, i syfte att säkerställa att efterlevnadskontrollen är samordnad och effektiv, relevanta delar i detta sammanhang.
Kommissionens erfarenheter av förordningen om digitala tjänster har visat att denna strategi kan vara effektiv när det gäller att främja efterlevnad och skydda användarnas rättigheter. Kommissionen har till exempel redan vidtagit åtgärder mot flera onlineplattformar för överträdelser av förordningen om digitala tjänster och har samarbetat med nationella myndigheter för att utarbeta vägledning och bästa praxis för efterlevnad.
Genom att bygga vidare på lärdomarna från kontrollen av efterlevnaden av förordningen om digitala tjänster kan kommissionen utarbeta en effektiv efterlevnadskontrollram för AI-förordningen som främjar efterlevnad och stöder utarbetandet av ett tillförlitligt och innovativt AI-ekosystem i EU. Detta kommer att innebära en förstärkning av AI-byråns uppgift att på vederbörligt sätt övervaka och kontrollera vissa kategorier av AI-system och ett nära samarbete med nationella myndigheter för att säkerställa att kontrollen av att AI-förordningen efterlevs sker på ett konsekvent och effektivt sätt.
Möjligheten att tillhandahålla en sandlåda på EU-nivå bör ses som ett komplement till de sandlådor som inrättats på nationell nivå och de bör inrättas på ett sätt som underlättar gränsöverskridande samarbete mellan nationella behöriga myndigheter.
1.5.4Förenlighet med den fleråriga budgetramen och eventuella synergieffekter med andra relevanta instrument
De ändringar av AI-förordningen som föreslås i detta initiativ skulle leda till en betydande ökning av antalet AI-system som omfattas av AI-byråns övervakning och tillsyn och en motsvarande ökning av antalet system som kan vara berättigade att delta i en sandlåda på EU-nivå. För att effektivt hantera denna utökning är det viktigt att stärka den europeiska reglerings- och samordningsfunktionen, enligt vad som föreslås i detta initiativ. Denna förstärkning skulle göra det möjligt för AI-byrån att effektivt övervaka det växande antalet AI-system, säkerställa efterlevnaden av regelverket och tillhandahålla en stödjande miljö för innovation och testning genom sandlådan på EU-nivå.
1.5.5Bedömning av de olika finansieringsalternativ som finns att tillgå, inbegripet möjligheter till omfördelning
AI-byrån kommer att försöka omplacera en del av den personal som tilldelats men kan endast göra det till viss del (15 heltidsekvivalenter) eftersom personalen för närvarande har fördelats fullt ut på uppgifter med direkt koppling till att säkerställa ett snabbt och korrekt genomförande av AI-förordningen. Nya resurser kommer att behövas (uppskattningsvis ytterligare 38 heltidsekvivalenter) för att effektivt utföra de nya efterlevnadskontrolluppgifterna.
| SV | 6 | SV |
AI-byrån planerar i synnerhet att hitta kollegor med juridisk och förfarandemässig sakkunskap som kan delta i de kommande nya efterlevnadskontrolluppgifterna. I detta skede uppskattar vi att cirka fem kontraktsanställda med relevanta profiler kan omplaceras för detta ändamål.
AI-byrån kommer dessutom att försöka omplacera fem tjänstemän.
AI-byrån planerar att se till att sandlådan på EU-nivå för AI-system som omfattas av AI-byråns övervakning fungerar fullt ut 2028, vilket kommer att möjliggöra en omplacering av de tre kontraktsanställda som behövs för att upprätta och driva sandlådan. Detta stegvisa tillvägagångssätt skulle göra det möjligt att säkerställa att sandlådan har uppnått fullständig operativ kapacitet senast 2028 och kommer i synnerhet att ge AI-byrån tid att hitta den personal som lämpar sig bäst för att täcka denna uppgift och säkerställa en korrekt projektledning för att underlätta utveckling, utbildning, testning och validering av innovativa AI-system.
Dessutom kommer AI-byrån att utforska möjligheter att utöka tillämpningsområdet för befintliga it-verktyg till stöd för AI-förordningen (för närvarande håller dessa på att utvecklas eller är i en förlanseringsfas) så att verktygen även omfattar relevanta nya efterlevnadskontrolluppgifter (dvs. ärendehantering, AI-systemregister, övervakning och rapportering, informationsutbyte med myndigheter). Två heltidsekvivalenter med it-profiler och administrativa profiler kommer att omplaceras för att sköta dessa it-verktyg. Detta kommer att bidra till att delvis täcka behoven med avseende på de nya uppgifterna.
På det hela taget kommer dessa omplaceringsinsatser och synergieffekter att bidra till att tillgodose en del av personalbehoven för de nya efterlevnadskontrolluppgifterna, medan ytterligare resurser kommer att krävas för att säkerställa ett effektivt genomförande av AI-förordningen.
Ytterligare personal kommer att finansieras genom stöd inom ramen för programmet för ett digitalt Europa, med tanke på att målen för de föreslagna ändringarna direkt bidrar till ett viktigt mål för ett digitalt Europa: att påskynda utvecklingen och införandet av AI i Europa.
| SV | 7 | SV |
1.6Förslagets eller initiativets varaktighet och budgetkonsekvenser
begränsad varaktighet
– verkan från och med [den DD/MM]ÅÅÅÅ till och med [den DD/MM]ÅÅÅÅ
– budgetkonsekvenser från och med ÅÅÅÅ till och med ÅÅÅÅ för åtagandebemyndiganden och från och med ÅÅÅÅ till och med ÅÅÅÅ för betalningsbemyndiganden.
obegränsad varaktighet
–Efter en inledande period 2026–2027,
–beräknas genomförandetakten nå en stabil nivå.
1.7Planerad(e) genomförandemetod(er)
Direkt förvaltning som sköts av kommissionen
– via dess avdelningar, vilket också inbegriper personalen vid unionens delegationer;
– via genomförandeorgan
Delad förvaltning med medlemsstaterna
Indirekt förvaltning genom att uppgifter som ingår i budgetgenomförandet anförtros
– tredjeländer eller organ som de har utsett
– internationella organisationer och organ kopplade till dem (ange vilka)
– Europeiska investeringsbanken och Europeiska investeringsfonden
– organ som avses i artiklarna 70 och 71 i budgetförordningen
– offentligrättsliga organ
– privaträttsliga organ som har anförtrotts offentliga förvaltningsuppgifter i den utsträckning som de har försetts med tillräckliga ekonomiska garantier
– organ som omfattas av privaträtten i en medlemsstat, som anförtrotts genomförandeuppgifter inom ramen för ett offentlig-privat partnerskap och som har försetts med tillräckliga ekonomiska garantier
– organ eller personer som anförtrotts genomförandet av särskilda åtgärder inom den gemensamma utrikes- och säkerhetspolitiken enligt avdelning V i fördraget om Europeiska unionen och som fastställs i den grundläggande akten
– organ som är etablerade i en medlemsstat och som omfattas av en medlemsstats privaträtt eller unionsrätten och som i enlighet med sektorsspecifika regler kan anförtros genomförandet av unionsmedel eller budgetgarantier, i den mån sådana organ kontrolleras av offentligrättsliga organ eller privaträttsliga organ som anförtrotts offentliga förvaltningsuppgifter och har tillräckliga finansiella garantier i form av gemensamt och solidariskt ansvar från kontrollorganens sida eller likvärdiga finansiella garantier, som för varje åtgärd kan vara begränsad till det högsta beloppet för unionens stöd.
| SV | 8 | SV |
2.FÖRVALTNING
2.1Regler om uppföljning och rapportering
Ange intervall och andra villkor för sådana åtgärder:
De förstärkta bestämmelserna kommer att ses över och utvärderas tillsammans med hela AI-förordningen i augusti 2029. Kommissionen kommer att rapportera resultaten av utvärderingen till Europaparlamentet, rådet och Europeiska ekonomiska och sociala kommittén.
2.2Förvaltnings- och kontrollsystem
2.2.1Motivering av den budgetgenomförandemetod, de finansieringsmekanismer, de betalningsvillkor och den kontrollstrategi som föreslås
Genom förordningen stärks EU:s policy med avseende på harmoniserade regler för tillhandahållande av AI-system på den inre marknaden, samtidigt som säkerheten och de grundläggande rättigheterna respekteras. Den förenklade gemensamma tillsynen säkerställer enhetlighet vid gränsöverskridande tillämpning av skyldigheterna enligt denna förordning.
För att klara av dessa nya uppgifter är det nödvändigt att på lämpligt sätt förse kommissionens avdelningar med resurser. Det beräknas att 53 heltidsekvivalenter behövs för att kontrollera efterlevnaden av den nya förordningen.
2.2.2Uppgifter om identifierade risker och om det eller de interna kontrollsystem som inrättats för att begränsa riskerna
Riskerna motsvarar standardriskerna i kommissionens verksamhet och täcks på lämpligt sätt av befintliga standardförfaranden för riskminimering.
2.2.3Beräkning och motivering av kontrollernas kostnadseffektivitet (dvs. förhållandet mellan kostnaden för kontrollerna och värdet av de medel som förvaltas) och en bedömning av den förväntade risken för fel (vid betalning och vid avslutande)
Med tanke på det låga värdet per transaktion (t.ex. ersättning av resekostnader för en delegat för ett möte) förefaller standardkontrollförfarandena vara tillräckliga när det gäller möteskostnaderna.
2.3Åtgärder för att förebygga bedrägeri och oriktigheter
Beskriv förebyggande åtgärder (befintliga eller planerade), t.ex. från strategi för bedrägeribekämpning.
De befintliga bedrägeriförebyggande åtgärder som är tillämpliga på kommissionen kommer att täcka de ytterligare anslag som krävs för denna förordning.
| SV | 9 | SV |
3. FÖRSLAGETS ELLER INITIATIVETS BERÄKNADE BUDGETKONSEKVENSER
3.1Berörda rubriker i den fleråriga budgetramen och utgiftsposter i den årliga budgeten
•Befintliga budgetposter
Redovisa enligt de berörda rubrikerna i den fleråriga budgetramen i nummerföljd
| Budgetpost | Typ av | Bidrag | |||||
| utgifter | |||||||
| Rubrik i | |||||||
| från | |||||||
| den | |||||||
| fleråriga | Nummer | kandidatlän | från andra | övriga inkomster | |||
| budgetrame | Diff./Icke- | från Efta- | der och | avsatta för | |||
| tredjeländ | |||||||
| n | diff.27 | länder28 | potentiella | särskilda | |||
| er | |||||||
| kandidater | ändamål | ||||||
| 29 | |||||||
| 7 | 20 02 06 Administrativa utgifter | Ingen | Antal | ||||
| diff. | |||||||
| 1 | 02 04 03 DEP Artificiell intelligens | Diff. | JA | NEJ | ja | NEJ | |
| 1 | 02 01 30 01 Stödutgifter för programmet | Ingen | ja | ja | |||
| för ett digitalt Europa | diff. | ||||||
27
28
29
Differentierade respektive icke-differentierade anslag. Efta: Europeiska frihandelssammanslutningen.
Kandidatländer och i förekommande fall potentiella kandidater i västra Balkan.
| SV | 10 | SV |
3.2Förslagets beräknade budgetkonsekvenser för anslagen
3.2.1Sammanfattning av beräknad inverkan på driftsanslagen
– Förslaget/initiativet kräver inte att driftsanslag tas i anspråk
– Förslaget/initiativet kräver att driftsanslag tas i anspråk enligt följande:
3.2.1.1Anslag i den antagna budgeten
[
Miljoner EUR (avrundat till tre decimaler)
| Rubrik i den fleråriga budgetramen | 1 | |||||||||||
| GD: Kommunikationsnät, innehåll och teknik | År | År | År | År | Efter 2027 | TOTALT | ||||||
| Budgetram | ||||||||||||
| 2024 | 2025 | 2026 | 2027 | Efter 2027 | 2021–2027 | |||||||
| Åtaganden | (1a) | 0,50030 | 0,50031 | 1,000 | ||||||||
| Budgetpost 02 04 03 | ||||||||||||
| Betalningar | (2a) | 0,500 | 0,500 | 1,000 | ||||||||
Anslag av administrativ natur som finansieras genom ramanslagen för särskilda program
30
31
Denna budget är redan öronmärkt i DEP WP 26-27 för AI-byrån. Denna budget är redan öronmärkt i DEP WP 26-27 för AI-byrån.
| SV | 11 | SV |
| Budgetpost 02 01 30 01 | (3) | 2,64232 | 6 283 33 | 7,283 | 8,925 | ||||||||
| TOTALA anslag | Åtaganden | =1a+1b+3 | 3,142 | 6,783 | 7,283 | 9,925 | |||||||
| för GD Kommunikationsnät, | |||||||||||||
| innehåll och teknik | Betalningar | =2a+2b+3 | 2,642 | 6,783 | 7,783 | 9,925 | |||||||
| TOTALT | År | År | År | År | Efter 2027 | TOTALT | |||||||
| Budgetram | |||||||||||||
| 2024 | 2025 | 2026 | 2027 | Efter 2027 | 2021–2027 | ||||||||
| Åtaganden | (1a) | 0,50034 | 0,50035 | 1,000 | |||||||||
| Budgetpost 02 04 03 | |||||||||||||
| Betalningar | (2a) | 0,500 | 0,500 | 1,000 | |||||||||
Anslag av administrativ natur som finansieras genom ramanslagen för särskilda program
32
33
34
35
Denna budget motsvarar [48] ytterligare heltidsekvivalenter för sex månader [(43 kontraktsanställda och 5 utsända nationella experter)], där baslinjen är den personalnivå som man kommit överens om inom ramen för budgetförfarandet för 2026. Budgeten kommer att omfördelas i den administrativa budgeten för programmet för ett digitalt Europa för att täcka de extra kostnaderna.
Beloppet kommer att omfördelas från 02.0403 (SO2 artificiell intelligens) 2027. Begäran kommer att tas med i budgetförfarandet 2027.
Denna budget är redan öronmärkt i DEP WP 26-27 för AI-byrån.
Denna budget är redan öronmärkt i DEP WP 26-27 för AI-byrån.
| SV | 12 | SV |
| Budgetpost 02 01 30 01 | (3) | 2,64236 | 6 283 37 | 7,283 | 8,925 | ||||||||||||
| TOTALA anslag | Åtaganden | =1a+1b+3 | 3,142 | 6,783 | 7,283 | 9,925 | |||||||||||
| för GD Kommunikationsnät, | |||||||||||||||||
| 9,925 | |||||||||||||||||
| innehåll och teknik | Betalningar | =2a+2b+3 | 2,642 | 6,783 | 7,783 | ||||||||||||
]
[
| Rubrik i den fleråriga budgetramen | 7 | ”Administrativa utgifter” | ||||||
| GD: Kommunikationsnät, innehåll och teknik | År | År | År | År | TOTALT | |||
| 2024 | 2025 | 2026 | 2027 | Budgetram | ||||
| 2021–2027 | ||||||||
| Personalresurser | 0,940 | 0,940 | 1,880 | |||||
| Övriga administrativa utgifter | 0,025 | 0,025 | 0,050 | |||||
| TOTALT GD Kommunikationsnät, innehåll och | Anslag | 0,965 | 0,965 | 1,930 | ||||
| teknik | ||||||||
36
37
Denna budget motsvarar [48] ytterligare heltidsekvivalenter för sex månader (43 kontraktsanställda och 5 utsända nationella experter), där baslinjen är den personalnivå som man överenskommits om inom ramen för budgetförfarandet för 2026. Budgeten kommer att omfördelas i den administrativa budgeten för programmet för ett digitalt Europa för att täcka de extra kostnaderna.
Beloppet kommer att omfördelas från 02.0403 (SO2 artificiell intelligens) 2027. Begäran kommer att tas med i budgetförfarandet 2027.
| SV | 13 | SV |
TOTALA anslag för RUBRIK 7 i den fleråriga budgetramen
| (summa | ||||
| åtaganden = | 0,965 | 0,965 | 1,930 | |
| summa | ||||
betalningar)
Miljoner EUR (avrundat till tre decimaler)
| År | År | År | År | Efter 2027 | TOTALT | ||||
| Budgetram | |||||||||
| 2024 | 2025 | 2026 | 2027 | 2021–2027 | |||||
| TOTALA anslag för RUBRIKERNA 1–7 | Åtaganden | 4,107 | 7,748 | 8,248 | 11,855 | ||||
| i den fleråriga budgetramen | Betalningar | 3,607 | 7,748 | 8,748 | 11,855 | ||||
]
3.2.2Beräknad output som finansierats med driftsanslag (ska inte fyllas i för decentraliserade byråer)
Åtagandebemyndiganden i miljoner EUR (avrundat till tre decimaler)
Ange mål och
output
Geno
Typ38 msnitt liga
kostna
der
År
2024
| Antal | Kostn. |
År
2025
| Antal | Kostn. |
År
2026
| Antal | Kostn. |
| År | För in så många år som behövs för att redovisa | ||||||||||
| hur länge resursanvändningen påverkas (jfr | TOTALT | ||||||||||
| 2027 | |||||||||||
| avsnitt 1.6) | |||||||||||
| OUTPUT | |||||||||||
| Antal | Antal | . | Antal | Antal | antal | kostnad | |||||
| Kostn. | Kostn | Kostn. | Kostn. | Totalt | Total | ||||||
38Output som ska anges är de produkter eller tjänster som levererats (t.ex. antal studentutbyten som har finansierats eller antal kilometer väg som har byggts).
| SV | 14 | SV |
SPECIFIKT MÅL nr 139…
-Output
-Output
-Output
Delsumma för specifikt mål nr 1
SPECIFIKT MÅL nr 2…
- Output
Delsumma för specifikt mål nr 2
TOTALT
39Mål som redovisats under avsnitt 1.3.2: ”Specifikt/specifika mål”.
| SV | 15 | SV |
3.2.3Sammanfattning av beräknad inverkan på de administrativa anslagen
– Förslaget/initiativet kräver inte att anslag av administrativ natur tas i anspråk
– Förslaget/initiativet kräver att anslag av administrativ natur tas i anspråk enligt följande: 3.2.3.1 Anslag i den antagna budgeten
[
| ANTAGNA ANSLAG | År | År | År | År | TOTALT 2021–2027 | |||||
| 2024 | 2025 | 2026 | 2027 | |||||||
| RUBRIK 7 | ||||||||||
| Personalresurser | 0,940 | 0,940 | 1,880 | |||||||
| Övriga administrativa utgifter | 0,025 | 0,025 | 0,050 | |||||||
| Delsumma för RUBRIK 7 | 0,965 | 0,965 | 1,930 | |||||||
| Utanför RUBRIK 7 | ||||||||||
| Personalresurser | 2,429 | 4,858 | 7,287 | |||||||
| Andra utgifter av administrativ natur | 0,213 | 1,425 | 1,638 | |||||||
| Delsumma utanför RUBRIK 7 | 2,642 | 6,283 | 8,925 | |||||||
]
Personalbehov och andra utgifter av administrativ natur ska täckas genom anslag inom generaldirektoratet som redan har avdelats för att förvalta åtgärden i fråga, eller genom en omfördelning av personal inom generaldirektoratet, samt vid behov kompletterat med ytterligare resurser som kan tilldelas det förvaltande generaldirektoratet som ett led i det årliga förfarandet för tilldelning av anslag och med hänsyn tagen till begränsningar i fråga om budgetmedel.
3.2.4Beräknat personalbehov
– Förslaget/initiativet kräver inte att personalresurser tas i anspråk
– Förslaget/initiativet kräver att personalresurser tas i anspråk enligt följande:
| SV | 16 | SV |
3.2.4.1 Finansierat med den antagna budgeten
Beräkningarna ska anges i heltidsekvivalenter
[
| ANTAGNA ANSLAG | År | År | År | År | |||||
| 2024 | 2025 | 2026 | 2027 | ||||||
| Tjänster som tas upp i tjänsteförteckningen (tjänstemän och tillfälligt anställda) | |||||||||
| 20 01 02 01 (vid huvudkontoret eller vid kommissionens kontor i medlemsstaterna) | 0 | 0 | 5 | 5 | |||||
| 20 01 02 03 (EU:s delegationer) | 0 | 0 | 0 | 0 | |||||
| 01 01 01 01 (indirekta forskningsåtgärder) | 0 | 0 | 0 | 0 | |||||
| 01 01 01 11 (direkta forskningsåtgärder) | |||||||||
| 0 | 0 | 0 | 0 | ||||||
| Andra budgetposter (ange vilka) | 0 | 0 | 0 | 0 | |||||
| • Extern personal (heltidsekvivalenter) | |||||||||
| 20 02 01 (kontraktsanställda och nationella experter finansierade genom ramanslaget) | 0 | 0 | 0 | 0 | |||||
| 20 02 03 (kontraktsanställda, lokalanställda, nationella experter och unga experter som tjänstgör vid EU:s delegationer) | 0 | 0 | 0 | 0 | |||||
| Post för admin. stöd | - vid huvudkontoret | 0 | 0 | 0 | 0 | ||||
| [XX.01.YY.YY] | - vid EU:s delegationer | ||||||||
| 0 | 0 | 0 | 0 | ||||||
| 01 01 01 02 (kontraktsanställda och nationella experter – indirekta forskningsåtgärder) | 0 | 0 | 0 | 0 | |||||
| 01 01 01 12 (kontraktsanställda och nationella experter – direkta forskningsåtgärder) | 0 | 0 | 0 | 0 | |||||
| Andra budgetposter (ange vilka) – rubrik 7 | |||||||||
| 0 | 0 | 0 | 0 | ||||||
| Andra budgetposter (02 01 30 01) – utanför rubrik 7 | |||||||||
| 0 | 0 | 48 | 48 | ||||||
| TOTALT | 0 | 0 | 53 | 53 | |||||
]
Personal som behövs för att genomföra förslaget (heltidsekvivalenter):
| Täcks av befintlig | Särskild ytterligare personal* | |
| personal vid | ||
| SV | 17 | SV |
kommissionens
avdelningar
| Finansieras | Finansieras | Finansieras | ||
| genom rubrik 7 | genom BA-post | genom avgifter | ||
| eller forskning | ||||
| Tjänster | i | 5 | Ej tillämpligt | |
| tjänsteförteckningen | ||||
| Extern | personal | 10 | 38 | |
| (kontraktsanställda, | ||||
| nationella | experter, | |||
| vikarier) | ||||
Beskrivning av arbetsuppgifter:
| Tjänstemän och tillfälligt anställda | Förstärkningen av AI-byråns centrala tillsyn kommer att leda till en betydande ökning | |
| av antalet AI-system. Denna uppgift kan inte utföras av den nuvarande | ||
| Extern personal | ||
| personalstyrkan, som bara är tillräcklig för den nuvarande tillsynen. | ||
3.2.5Översikt över beräknad inverkan på it-relaterade investeringar
Obligatoriskt: Bästa tillgängliga skattning av de it-relaterade investeringar som förslaget/initiativet medför ska anges i tabellen nedan. När så krävs för genomförandet av förslaget/initiativet ska i undantagsfall anslag under rubrik 7 anges på därför avsedd rad.
Anslagen under rubrikerna 1–6 ska redovisas som ”It-utgifter inom operativa program som inte omfattas av kommissionens administrativa självständighet och institutionella befogenheter”. Dessa utgifter avser den driftsbudget som tas i anspråk för att återanvända/köpa in/utveckla it-plattformar och it-verktyg med direkt koppling till initiativets genomförande, med tillhörande investeringar (t.ex. licenser, undersökningar och datalagring). Informationen i denna tabell bör överensstämma med detaljerna i avsnitt 4 ”Digitala inslag”.
| TOTALT Anslag för digital teknik och | År | År | År | År | TOTALT | |
| it | Budgetra | |||||
| SV | 18 | SV |
| 2024 | 2025 | 2026 | 2027 | m 2021– | ||||||||||||
| 2027 | ||||||||||||||||
| RUBRIK 7 | ||||||||||||||||
| It-utgifter (centralt) | 0,000 | 0,000 | 0,000 | 0,000 | 0,000 | |||||||||||
| Delsumma för RUBRIK 7 | 0,000 | 0,000 | 0,000 | 0,000 | 0,000 | |||||||||||
| Utanför RUBRIK 7 | ||||||||||||||||
| It-utgifter inom operativa program som | ||||||||||||||||
| inte omfattas av kommissionens | 0,000 | 0,000 | 0,000 | 0,000 | 0,000 | |||||||||||
| administrativa självständighet och | ||||||||||||||||
| institutionella befogenheter | ||||||||||||||||
| Delsumma utanför RUBRIK 7 | 0,000 | 0,000 | 0,000 | 0,000 | 0,000 | |||||||||||
| TOTALT | 0,000 | 0,000 | 0,000 | 0,000 | 0,000 | |||||||||||
3.2.6Förenlighet med den gällande fleråriga budgetramen Förslaget/initiativet
– kan finansieras fullständigt genom omfördelningar inom den berörda rubriken i den fleråriga budgetramen
Beloppen kommer att omfördelas från 02.013001, stödutgifter för programmet för ett digitalt Europa, för 2026 och från 02.0403 (SO2, artificiell intelligens) för 2027.
– kräver användning av den outnyttjade marginalen under den relevanta rubriken i den fleråriga budgetramen och/eller användning av särskilda instrument enligt definitionen i förordningen om den fleråriga budgetramen
– kräver en översyn av den fleråriga budgetramen
3.2.7Bidrag från tredje part Förslaget/initiativet
– innehåller inga bestämmelser om samfinansiering från tredje parter
– innehåller bestämmelser om samfinansiering från tredje parter enligt följande uppskattning:
Anslag i miljoner EUR (avrundat till tre decimaler)
| SV | 19 | SV |
| År | År | År | År | Totalt | |
| 2024 | 2025 | 2026 | 2027 | ||
Ange vilket organ som deltar i samfinansieringen
TOTALA anslag som tillförs genom samfinansiering
3.3Beräknad inverkan på inkomsterna
– Förslaget/initiativet påverkar inte inkomsterna.
– Förslaget/initiativet påverkar inkomsterna på följande sätt:
– Påverkan på egna medel
– Påverkan på andra inkomster
– Ange om inkomsterna är avsatta för särskilda utgiftsposter
Miljoner EUR (avrundat till tre decimaler)
| Belopp som förts in för det | Förslagets/initiativets inverkan på inkomsterna40 | |||||
| Inkomstposter i den årliga budgeten: | ||||||
| innevarande budgetåret | År 2024 | År 2025 | År 2026 | År 2027 | ||
| Artikel …………. | ||||||
För inkomster avsatta för särskilda ändamål, ange vilka utgiftsposter i budgeten som berörs.
40Vad gäller traditionella egna medel (tullar, sockeravgifter) ska nettobeloppen anges, dvs. bruttobeloppen minus 20 % avdrag för uppbördskostnader.
| SV | 20 | SV |
Övriga anmärkningar (t.ex. vilken metod/formel som har använts för att beräkna inverkan på inkomsterna eller andra relevanta uppgifter).
4.DIGITALA INSLAG
4.1Krav med digital relevans
| Hänvisning till | Beskrivning av kravet | Aktörer som påverkas eller | Övergripande | Kategorier | |
| kravet | berörs av kravet | processer | |||
| Artikel 1.5 | Införande av artikel 4a: Att tillåta | Leverantörer och | Behandling av | Data | |
| leverantörer och tillhandahållare av AI-system | tillhandahållare av AI-system | uppgifter | |||
| och AI-modeller att i undantagsfall behandla | och AI-modeller | ||||
| särskilda kategorier av personuppgifter i den | Berörda registrerade | ||||
| utsträckning som krävs för att säkerställa | |||||
| upptäckt och korrigering av bias, på vissa | |||||
| villkor. | |||||
| Artikel 1.8 | Ändring av artikel 11.1 andra stycket: | Leverantörer av AI-system | Teknisk | Data | |
| Avser den tekniska dokumentation av AI- | med hög risk (inklusive små | dokumentation | |||
| system med hög risk som måste utarbetas | midcapföretag och SMF- | ||||
| innan system släpps ut på marknaden eller tas | företag) | ||||
| i bruk. Små midcapföretag och SMF-företag | Nationella behöriga | ||||
| ges vissa rättsliga privilegier när det gäller | myndigheter | ||||
| detta tillhandahållande av information. | Anmälda organ | ||||
| Europeiska kommissionen | |||||
| SV | 21 | SV |
| Artikel 1.10 | Ändring av artikel 28, införande av punkt | Organ för bedömning av | Inlämnande av | Data | ||
| 1a: Organ för bedömning av | överensstämmelse | ansökan | ||||
| överensstämmelse som ansöker om utseende | Anmälande myndigheter | |||||
| får ges möjlighet att lämna in en enda ansökan | ||||||
| och genomgå ett enda bedömningsförfarande. | ||||||
| Artikel 1.11 | Ändring av artikel 29.4: Anmälda organ som | Anmälda organ | Inlämnande av | Data | ||
| ansöker om en enda bedömning ska lämna in | Anmälande myndighet | ansökan | ||||
| den enda ansökan till den anmälande | ||||||
| myndigheten. Det anmälda organet ska | ||||||
| uppdatera dokumentationen om relevanta | ||||||
| ändringar inträffar. | ||||||
| Artikel 1.16 | Ändring av artikel 56.6: Kommissionen ska | Europeiska kommissionen | Offentliggörande | Data | ||
| offentliggöra sin bedömning av | av bedömning | |||||
| förfarandekodernas lämplighet. | ||||||
| Artikel 1.26 | Ändring av artikel 77: | Nationella offentliga | Informationsutbyte | Data | ||
| • Punkt 1: Nationella offentliga | myndigheter/organ som | |||||
| övervakar/kontrollerar | ||||||
| myndigheter/organ som | ||||||
| efterlevnaden av skyldigheter | ||||||
| övervakar/kontrollerar efterlevnaden | ||||||
| enligt EU-lagstiftningen vad | ||||||
| av skyldigheter enligt EU- | ||||||
| gäller skyddet av de | ||||||
| lagstiftningens vad gäller skyddet av | ||||||
| grundläggande rättigheterna | ||||||
| de grundläggande rättigheterna kan | ||||||
| Marknadskontrollmyndigheter | ||||||
| lämna in en motiverad begäran och få | ||||||
| tillgång till all | Leverantörer/tillhandahållare | |||||
| information/dokumentation från den | ||||||
| av AI-system | ||||||
| berörda | ||||||
| marknadskontrollmyndigheten. | ||||||
| • Punkt 1a: | ||||||
| Marknadskontrollmyndigheten ska | ||||||
| SV | 22 | SV | ||||
bevilja tillgång och vid behov begära information från leverantören/tillhandahållaren.
•Punkt 1b: Vid behov ska ovannämnda marknadskontrollmyndigheter och offentliga myndigheter/organ utbyta information.
| 4.2 | Data | ||
| Övergripande beskrivning av data som omfattas | |||
| Typ av data | Hänvisning till kravet/kraven | Standard och/eller specifikation (i tillämpliga | |
| fall) | |||
| Särskilda kategorier av personuppgifter (där | Artikel 1.5 | // | |
| behandling krävs för att upptäcka/korrigera bias) | |||
| Teknisk dokumentation för AI-system med hög risk | Artikel 1.8 | Den tekniska dokumentationen ska minst innehålla | |
| de delar som anges i bilaga IV till AI-förordningen. | |||
| Kommissionen ska upprätta ett förenklat formulär | |||
| för teknisk dokumentation som riktar sig till små | |||
| midcapföretag och SMF-företag. | |||
| Ansökningar om utseende från organ för | Artikel 1.10 | // | |
| bedömning av överensstämmelse | |||
| Ansökningar om anmälan från organ för bedömning | Artikel 1.11 | Det anmälda organet ska uppdatera den relevanta | |
| SV | 23 | SV |
| av överensstämmelse | dokumentationen när relevanta ändringar inträffar. | |
| Kommissionens bedömning av förfarandekodernas | Artikel 1.16 | // |
| lämplighet | ||
| Begäran om tillgång till information om AI-system | Artikel 1.26 | // |
| Information eller dokumentation som begärs av | Artikel 1.26 | Ska tillhandahållas på ett språk och i ett format som |
| nationella offentliga myndigheter/organ som | är lättillgängligt. | |
| övervakar/kontrollerar efterlevnaden av | ||
| skyldigheter i fråga om grundläggande rättigheter | ||
Överensstämmelse med EU:s datastrategi
Förklara hur kravet/kraven överensstämmer med EU:s datastrategi
Artikel 1.4 fastställer att behandlingen av särskilda kategorier av personuppgifter ska omfattas av lämpliga skyddsåtgärder för fysiska personers grundläggande rättigheter och friheter. Detta är i linje med förordningarna (EU) 2016/679 och (EU) 2018/1725 (EU:s dataskyddsförordning).
Överensstämmelse med engångsprincipen
Förklara hur engångsprincipen har beaktats och hur möjligheten att återanvända befintliga data har utforskats
Artikel 1.10 fastställer att organ för bedömning av överensstämmelse får ges möjlighet att lämna in en enda ansökan och genomgå ett enda bedömningsförfarande.
Förklara hur nyskapade data är sökbara, tillgängliga, kompatibla och återanvändbara samt uppfyller standarder för hög kvalitet
| SV | 24 | SV |
Dataflöden
Övergripande beskrivning av dataflöden
| Typ av data | Hänvisning/hänvisni | Aktör som | Aktör som tar emot | Utlösande faktor för | Frekvens |
| ngar till | tillhandahåller data | data | datautbyte | (i | |
| kravet/kraven | tillämplig | ||||
| a fall) | |||||
| Ansökningar om anmälan | Artikel 1.11 | Anmälda organ som har | Anmält organ som har | Ansökan om en enda | // |
| från organ för bedömning | utsetts enligt den | utsetts enligt den | bedömning | ||
| av överensstämmelse | harmoniserade | harmoniserade | |||
| unionslagstiftning som | unionslagstiftning som | ||||
| förtecknas i avsnitt A i | förtecknas i avsnitt A i | ||||
| bilaga I | |||||
| bilaga I | |||||
| Kommissionens | Artikel 1.16 | Europeiska | Allmänheten | Genomförande av en | Regelbun |
| bedömning av | kommissionen | bedömning av | det | ||
| förfarandekodernas | förfarandekoderna | ||||
| lämplighet | |||||
| Begäran om tillgång till | Artikel 1.26 | Nationella offentliga | Marknadskontrollmyndig | Nationella offentliga | // |
| information om AI- | myndigheter eller organ | het | myndigheter/organ | ||
| system | som övervakar eller | behöver informationen för | |||
| kontrollerar efterlevnaden | att kunna fullgöra sina | ||||
| av skyldigheter om skydd | uppdrag | ||||
| av de grundläggande | |||||
| rättigheterna enligt | |||||
| unionsrätten | |||||
| SV | 25 | SV |
| Information eller | Artikel 1.26 | Marknadskontrollmyndig | Nationella offentliga | Inlämning av en | // | ||
| dokumentation som | het | myndigheter eller organ | motiverad begäran om | ||||
| begärs av nationella | som övervakar eller | tillgång till information | |||||
| offentliga | kontrollerar efterlevnaden | ||||||
| myndigheter/organ som | av skyldigheter om skydd | ||||||
| av de grundläggande | |||||||
| övervakar/kontrollerar | |||||||
| rättigheterna enligt | |||||||
| efterlevnaden av | |||||||
| unionsrätten | |||||||
| skyldigheter i fråga om | |||||||
| grundläggande rättigheter | |||||||
| Information eller | Artikel 1.26 | Marknadskontrollmyndig | Leverantörer/tillhandahål | Marknadskontrollmyndig | // | ||
| dokumentation som | heter | lare av AI-system | heten behöver | ||||
| begärs av | informationen för att | ||||||
| marknadskontrollmyndig | kunna besvara en begäran | ||||||
| heter | från nationella offentliga | ||||||
| myndigheter/organ som | |||||||
| övervakar/kontrollerar | |||||||
| efterlevnaden av | |||||||
| skyldigheter avseende | |||||||
| grundläggande rättigheter | |||||||
| Informationsutbyte som | Artikel 1.26 | Marknadskontrollmyndig | Marknadskontrollmyndig | Behov av | // | ||
| en del av samarbetet | heter | heter | informationsutbyte som | ||||
| mellan | /offentliga | /offentliga | fastställts i samband med | ||||
| marknadskontrollmyndig | samarbete och ömsesidigt | ||||||
| myndigheter/organ | myndigheter/organ | ||||||
| heter och offentliga | bistånd | ||||||
| myndigheter/organ som | |||||||
| övervakar/kontrollerar | |||||||
| efterlevnaden av | |||||||
| skyldigheter avseende | |||||||
| SV | 26 | SV | |||||
grundläggande rättigheter
4.3 Digitala lösningar
Övergripande beskrivning av digitala lösningar
| Användning | |||||||
| Digital | Hänvisning/hänvisningar | Huvudsakliga | Ansvarigt | Hur tillgodoses | Hur övervägs | av AI- | |
| föreskrivna | möjligheten till | teknik (i | |||||
| lösning | till kravet/kraven | organ | tillgängligheten? | ||||
| funktioner | återanvändning? | tillämpliga | |||||
| fall) |
Ej tillämpligt (de föreslagna ändringarna av AI- förordningen förutser inte införande av nya digitala lösningar)
Förklara, för varje digital lösning, hur den digitala lösningen uppfyller tillämplig digital politik och lagstiftning.
| Digital lösning nr 1 | |
| Digital och/eller sektoriell politik (i tillämpliga | Beskrivning av överensstämmelse |
| fall) | |
| Förordningen om artificiell intelligens | |
| SV | 27 | SV |
EU:s cybersäkerhetsram
eIDA
Den gemensamma digitala ingången och IMI
Övriga
4.4 Interoperabilitetsbedömning
Övergripande beskrivning av den digitala offentliga tjänst/de digitala offentliga tjänster som påverkas av kravet
| Digital offentlig | Beskrivning | Hänvisning/hänvisningar | Lösning(ar) för ett | Andra | ||
| tjänst eller | ||||||
| till kravet/kraven | interoperabelt Europa | interoperabilitetslösningar | ||||
| kategori av | ||||||
| (EJ TILLÄMPLIGT) | ||||||
| digitala offentliga | ||||||
| tjänster | ||||||
| Ej tillämpligt (de | ||||||
| föreslagna | ||||||
| ändringarna av AI- | ||||||
| förordningen har | ||||||
| ingen påverkan på | ||||||
| digitala offentliga | ||||||
| tjänster) | ||||||
Kravets/kravens inverkan på gränsöverskridande interoperabilitet vad gäller digitala offentliga tjänster
Digital offentlig tjänst nr 1
| SV | 28 | SV |
| Bedömning | Åtgärd/åtgärder | Potentiella återstående hinder |
| (i tillämpliga fall) | ||
| Överensstämmelse med befintlig | ||
| digital och sektoriell politik | ||
| Ange tillämplig digital och | ||
| sektoriell politik som identifierats | ||
| Organisatoriska åtgärder för ett | ||
| smidigt tillhandahållande av | ||
| gränsöverskridande digitala | ||
| offentliga tjänster | ||
| Ange planerade | ||
| förvaltningsåtgärder | ||
| Åtgärder som vidtagits för att | ||
| säkerställa en samstämmig | ||
| förståelse av data | ||
| Ange dessa åtgärder | ||
| Användning av gemensamt | ||
| överenskomna öppna tekniska | ||
| specifikationer och standarder | ||
| Ange dessa åtgärder | ||
4.5 Åtgärder till stöd för digitalt genomförande
Övergripande beskrivning av åtgärder till stöd för digitalt genomförande
| SV | 29 | SV |
| Beskrivning av åtgärden | Hänvisning/hänvisningar | Kommissionens | Aktörer som ska | Förväntad tidsplan |
| till kravet/kraven | roll | involveras | (i tillämpliga fall) | |
| (i tillämpliga fall) | (i tillämpliga fall) | |||
| Ej tillämpligt | ||||
| SV | 30 | SV |