Autonoma vapensystem

Interpellation 2017/18:20 av Stig Henriksson (V)

Interpellationen är besvarad

Händelser

Inlämnad
2017-10-06
Överlämnad
2017-10-09
Anmäld
2017-10-10
Svarsdatum
2017-10-20
Besvarad
2017-10-20
Sista svarsdatum
2017-10-23

Interpellationer

Interpellationer är en typ av frågor som debatteras i kammaren nästan varje vecka. Ledamoten ställer interpellationen skriftligt till en minister i regeringen och får svar både skriftligt och muntligt av ministern som kommer till kammaren. Debatterna dokumenteras i kammarens protokoll.

PDF

Interpellationen

till Utrikesminister Margot Wallström (S)

 

Medan världen fortfarande diskuterar automatiserade vapensystem går utvecklingen vidare mot autonoma vapen. Lethal autonomous weapons systems (LAWS) – autonoma vapen – är ett ämne som väcker både frågor och farhågor. Många har uppfattningar om hur frågan ska behandlas. Martin Hagström, forskningsledare på FOI, skriver i Mänsklig Säkerhet den 13 juni 2016 om vikten av att strukturera debatten och göra en bred analys med fokus på ansvar för användning.

Datorutvecklingen har gjort artificiell intelligens (AI) alltmer ”intelligent”. I dag är det möjligt för maskiner att uträtta saker som förr bara var möjliga för människor. Det skapar nya användningsområden för tekniken, inte minst inom det militära. Många uttrycker stora förhoppningar om hur teknikutvecklingen kan skapa helt nya militära verktyg. Förutom de taktiska och militärtekniska argument som driver utvecklingen finns det även de som menar att en ökad automatisering bör leda till större precision. Detta innebär i sin tur minskade risker för civila och färre mänskliga felgrepp i militära operationer.

Samtidigt finns också en stor oro för hur dessa system kan komma att användas. Den internationella kampanjen Stop Killer Robots lanserades 2013 som en motreaktion på utvecklingen av intelligenta robotar i militär tillämpning. Kampanjen syftar till att förbjuda LAWS eftersom man menar att autonoma vapen riskerar att användas i strid med folkrätten och att de kommer att öka de säkerhetspolitiska spänningarna i världen, med kapprustning som följd.

Human Rights Watch har publicerat en 50-sidig rapport – Losing Humanity: The Case Against Killer Robots – tillsammans med Harvard Law School International Human Rights Clinic. Rapporten tar bland annat upp att autonoma vapen inte kan skilja mellan civila och soldater, att de inte kan ha medkänsla för sina offer och att diktatorer skulle kunna rikta dem mot den egna befolkningen. Ytterligare argument är att det skulle det bli svårare att hålla någon ansvarig för vapeninsatserna och att det skulle bli lättare att starta krig.

Oberoende av hur man ser på teknikens möjligheter respektive faror behöver alla länder utveckla strategier och principer för användning av teknik med alltmer komplex automation. På samma sätt finns det behov av att utreda konsekvenserna för ansvarsfrågor, försvarsekonomi och ledning av militära operationer. Får till exempel beslut om liv och död överlämnas åt en maskin, och kan en maskin agera ”moraliskt korrekt”? Kan en maskin följa internationell humanitär rätt? Kan maskinen avgöra proportionaliteten i ett anfall? Kan en maskin läsa av situationen på rätt sätt? Och vem är krigsförbrytare om svaret är nej?

FN:s konvention om vissa konventionella vapen skapades 1980 och brukar benämnas CCV. Målet är att begränsa eller förbjuda vissa konventionella vapen som uppfattas som överdrivet skadliga eller vars effekter är urskillningslösa. Konventionen behandlar bland annat minor, försåtminering, brandbomber och förblindande laservapen, och 120 länder har skrivit under den. Inom ramen för CCV har ”informella diskussioner” också förts om autonoma vapensystem, men mycket lite har kommit ut om dessa samtal.

Under tiden håller autonoma vapen­robotar i tysthet på att utvecklas i militärindustrins laboratorier i flera länder. USA är ledande, men andra följer efter. I Ryssland håller man till exempel på att utveckla både en helt autonom pansarvagn, T-14 Armata, och den autonoma drönaren Mig Skat, som i första hand ska användas vid anfall med luftvärnsrobotar i högriskområden. Ett enklare autonomt vapensystem finns redan vid gränsen mellan Nord- och Sydkorea. Kulsprutan Super Aegis II ska självständigt kunna hitta, sikta och låsa ett mål av mänsklig storlek upp till tre kilometer bort oavsett väder. Också Sverige går samma väg. Projektet Neuron är ett samarbete mellan sex europeiska länder med målet att utveckla ett helt självständigt flygplan som är kapabelt att attackera markmål.

Jag vill mot bakgrund av ovanstående fråga utrikesminister Margot Wallström:

 

1. Vilka initiativ avser ministern att ta i den komplexa frågan om LAWS?

2. Är det ministerns mening att dessa vapen bör föras in under CCV, och bör de i så fall begränsas eller helt förbjudas?

3. Bör Sverige enligt ministern aktivt delta i utvecklandet av LAWS?

Debatt

(7 Anföranden)
Stillbild från Interpellationsdebatt 2017/18:20, Autonoma vapensystem

Interpellationsdebatt 2017/18:20

Webb-tv: Autonoma vapensystem

Dokument från debatten

Protokoll från debatten

Anf. 1 Utrikesminister Margot Wallström (S)

Herr talman! Stig Henriksson har frågat mig vilka initiativ jag avser att ta i den komplexa frågan om autonoma vapensystem, om det är min mening att dessa vapen bör föras in under 1980 års vapenkonvention och om de i så fall bör begränsas eller helt förbjudas, samt om Sverige enligt mig aktivt bör delta i utvecklandet av LAWS.

Frågan om autonoma vapen - lethal autonomous weapon systems eller LAWS, som det förkortas - är komplex. Till att börja med handlar det om system som ännu inte finns men som skulle kunna komma att utvecklas. Att definiera LAWS har därmed också hittills visat sig svårt.

En viktig utgångspunkt är att internationell humanitär rätt gäller för användning av alla slags vapen i en väpnad konflikt och att stater är ansvariga för vapnens användning inom ramen för internationell humanitär rätt.

Enligt artikel 36 i tilläggsprotokoll I till Genèvekonventionerna har varje statspart en skyldighet att vid studium, utveckling, anskaffning eller val av ett nytt vapen avgöra om dess användning under vissa eller alla omständigheter skulle vara förbjuden enligt statspartens folkrättsliga åtaganden. Jag ser detta som ett viktigt led i staternas arbete med att bedöma utvecklingen i fråga om ny vapenteknik, till exempel LAWS.

Inom ramen för 1980 års konvention om vissa konventionella vapen - Convention on Certain Conventional Weapons, CCW - har frågan om autonoma vapen diskuterats vid flera tillfällen. Vid CCW:s översynskonferens förra året beslutades att inrätta en så kallad governmental group of experts för att fortsätta arbetet med frågan om LAWS. Sverige tillhörde de stater som välkomnade ett beslut om en sådan expertgrupp.

STYLEREF Kantrubrik \* MERGEFORMAT Svar på interpellationer

Expertgruppen kommer att sammanträda i november i år och kommer sannolikt att fortsätta arbetet under 2018. I mandatet för gruppen ingår bland annat att se på frågan om en arbetsdefinition, liksom frågan om tillämpningen av internationell rätt, däribland internationell humanitär rätt, i fråga om LAWS.

För att belysa de olika frågeställningar som kan göra sig gällande - rättsliga, militära, tekniska och etiska - har frågan återkommande diskuterats i regeringens folkrätts- och nedrustningsdelegation.

Om det kommer att behövas en särskild reglering av LAWS och hur en eventuell sådan reglering skulle kunna utformas går inte att säga i dagsläget. Inte minst det fortsatta arbetet i CCW kommer att ge mer underlag för att ta ställning.


Anf. 2 Stig Henriksson (V)

Herr talman! Tack för svaret!

Jag har alltså ställt frågan om dessa autonoma vapensystem. Datorutvecklingen har gjort artificiell intelligens, AI, alltmer intelligent, om man får säga så. I dag är det möjligt för maskiner att uträtta saker som förr bara var möjliga för människor. Vapenforskarna sitter inte sysslolösa. De utvecklar på många håll vad en del, med viss rätt, kallar mördarrobotar, för att beskriva det enkelt och klatschigt.

Det finns en oro som sprider sig kring dessa vapen. Över 100 experter inom robotteknik och AI vill att FN förbjuder utveckling av autonoma robotar vars enda syfte är att döda. Experterna, med Elon Musk i spetsen, vill att de hamnar på listan över moraliskt felaktiga vapen, tillsammans med bländande laser och kemiska vapen - och, hoppas jag, snart också kärnvapen. Men det, herr talman, är en annan historia.

Men i Sverige är det ganska tyst om denna fråga trots att vi alltså är med och utvecklar sådana här vapen. Projektet Neuron är ett samarbete mellan sex europeiska länder - bland annat Sverige är med och finansierar - och svenska företag som Saab. Målet är att utveckla ett helt självständigt flygplan som är kapabelt att attackera markmål.

Det finns en internationell kampanj, Stop Killer Robots, som lanserades 2013 som en motreaktion på utvecklingen av intelligenta robotar i militär tillämpning. Kampanjen syftar till att förbjuda dessa eftersom man menar att autonoma vapen riskerar att användas i strid med folkrätten och att de kommer att öka de säkerhetspolitiska spänningarna i världen, med kapprustning som följd.

Det är väl rätt, tror jag. Vi vet nog inte säkert, men jag tror att ministern har rätt i att de inte finns ännu. Men vi vet att det arbetas intensivt på dessa vapen. USA är ledande, men andra fortsätter och följer efter. Vi vet att man i Ryssland håller på att utveckla både en helt autonom pansarvagn, T14 Armata, och den autonoma drönaren Mig Skat.

Det finns redan ett i och för sig enklare automatiserat vapensystem vid gränsen mellan Nord- och Sydkorea. En sådan kulspruta, Super Aegis II, är programmerad att självständigt, utan mänsklig hjälp, hitta ett mål, sikta och låsa målet på upp till tre kilometers avstånd, oavsett väder.

STYLEREF Kantrubrik \* MERGEFORMAT Svar på interpellationer

Detta är intressant. Om man tänker sig att den är programmerad kan den fortfarande inte skilja på om det är fientliga soldater eller flyktingar som kommer strömmande över gränsen; det senare kanske är minst lika troligt. Detta pågår - det finns i alla fall embryon till det.

Det finns andra rapporter. Human Rights Watch har en 50-sidig rapport om detta, och Harvard Law School International Human Rights Clinic har tagit upp det och just denna problematik: att dessa vapen inte kan skilja mellan civila och soldater. Vem är ansvarig för eventuella folkrättsbrott, programmerarna eller ordergivarna? Frågorna är ganska många.

Jag tycker att det är bra att Sverige välkomnat den expertgrupp som bildats i frågan. Men mina frågor handlade om Sverige och gällde om ministern tar några initiativ i frågan. Att bara följa den verkar lite passivt. Borde dessa vapen begränsas eller helt förbjudas? Vad är vår ståndpunkt? Och ska Sverige verkligen aktivt, via till exempel projektet Neuron, bidra till utvecklandet av mördarrobotar?

För övrigt anser jag att Sverige borde signera avtalet om ett förbud mot kärnvapen.


Anf. 3 Utrikesminister Margot Wallström (S)

Herr talman! Tack så mycket, Stig Henriksson! Denna fråga väcker, som vi båda redan har konstaterat, både frågor och farhågor. Detta är komplext också därför att vi diskuterar ett system som ännu inte finns men som vi vet skulle kunna komma att utvecklas.

Att definiera LAWS har också visat sig svårt. Vi tog upp denna fråga direkt när vi på nytt startade Folkrätts- och nedrustningsdelegationen. Då tillsatte vi en av arbetsgrupperna, som ska syssla just med denna fråga. Det gäller rättsliga, militära, operativa, tekniska och etiska frågor. Just de rättsliga frågor som hänger samman med användning av autonoma vapensystem har vi sett som särskilt viktiga.

Den här arbetsgruppen fortsätter att jobba. Den kommer förstås att rapportera av till hela delegationen, och det kommer att vara underlag för våra ställningstaganden framöver. De gör ju detta på ett väldigt seriöst och genomgripande sätt.

Vad är då Sveriges inställning till automatiserade vapensystem? Några av de här exemplen är ju snarare sådana, och den frågan kommer nog att besvaras av försvarsministern i den interpellationsdebatt som följer efter den här. Det är viktigt att hålla isär dessa båda begrepp. LAWS är ju teknologi som ännu inte är i bruk. Då finns det en klar distinktion mot till exempel drönare, obemannade luftfarkoster, så kallade unmanned area vehicles, som alltså är fjärrstyrda av mänskliga operatörer.

Möjligen kan begreppet "meningsfull mänsklig kontroll" när det gäller autonoma vapen vara en väg framåt för att närma sig en definition. Det har också civilsamhällets olika organisationer framfört. Men då behöver det begreppet också förtydligas och förklaras närmare. Vilka är de kritiska funktionerna där mänsklig kontroll behövs? Ja, det beror ju på var vapensystemet opererar. Jag tror att det också är sådana frågor som kommer att diskuteras när expertgruppen CCW möts i nästa månad.

För mig är det helt klart att en människa alltid i sista hand måste ta ansvar för beslut om liv och död.


Anf. 4 Stig Henriksson (V)

STYLEREF Kantrubrik \* MERGEFORMAT Svar på interpellationer

Herr talman! Man kan diskutera om det i dag finns autonoma vapensystem. Men jag kan inte annat förstå än att till exempel det sydkoreanska exemplet, med en programmerad kulspruta som upp till tre kilometer automatiskt kommer att utlösa beskjutning när vissa parametrar är uppfyllda, är så nära ett autonomt vapensystem som man kan komma.

Visst, det är svårt att definiera, och det kommer nog alltid att finnas en gråzon. Men det brukar inte hindra oss vare sig i vardagslivet eller annars. Det är svårt att exakt definiera gränsen mellan natt och dag, men det finns ändå ett antal tydliga exempel på det ena eller andra som vi alla kan vara överens om. Sedan kan vi fortsätta diskutera exakt var gränsen går. Detta är i sig inte ett argument för att inte göra så mycket nu utan diskutera frågan, även om jag tycker att det är bra att den diskuteras.

Jag förstår att det inte finns någon färdig ståndpunkt. Men några preliminära synpunkter tycker jag att utrikesministern kan ge. Är det rimligt att beslut om liv och död överlämnas till en maskin? Kan vi ens tänka oss att en maskin kan agera moraliskt korrekt? Kan en maskin följa internationell humanitär rätt? Kan en maskin avgöra proportionaliteten i ett anfall? Kan en maskin läsa av situationen på rätt sätt? Och, som sagt, vem är krigsförbrytaren om svaret på dessa frågor är nej?

Detta är frågor som jag tycker att man absolut skulle kunna diskutera.


Anf. 5 Utrikesminister Margot Wallström (S)

Herr talman! Stig Henriksson ställer precis de rätta frågorna. Det var också dessa frågor som var utgångspunkten för vårt arbete när vi tog oss an den här frågan i Folkrätts- och nedrustningsdelegationen. Som jag sa i mitt förra inlägg menar jag att när det fattas beslut om liv eller död måste det vara människor inblandade. Dessutom är det en viktig utgångspunkt för oss att internationell humanitär rätt gäller för användning av alla slags vapen i väpnad konflikt och att parter och stater är ansvariga för vapnens användning.

Stater har också enligt folkrätten skyldighet att utvärdera om nya vapen är lagliga. Därför är det vår utgångspunkt i arbetet i CCW att Sverige ska fortsätta hävda att folkrätten alltid måste respekteras.

Samtidigt är det bara ett mindre antal av världens stater som har system och rutiner på plats för att faktiskt genomföra den här typen av utvärdering enligt artikel 36 i Genèvekonventionen, och det är ett problem. Vi tycker att det borde finnas en ökad transparens, där stater och parter kan utbyta information och dokumentation om hur stater applicerar och implementerar artikel 36.

Sedan finns det forskning som Sipri genomför, bland annat om utvärdering av vapenprojekt inom nya teknologiområden. Detta är också viktigt att föra in i diskussionen.

Den svenska Delegationen för folkrättslig granskning av vapenprojekt har till uppgift att utvärdera nya vapen och stridsmetoder för svensk del, men de har bara mandat att utvärdera vapen för potentiellt nationellt bruk.

Min inriktning är att vi tillsammans med andra likasinnade ska verka för att fler stater utvecklar system och rutiner för legala utvärderingar och att kunskap och best practices kan bli föremål för internationellt utbyte, till exempel inom CCW:s ram. Att vi tog upp detta i Folkrätts- och nedrustningsdelegationen berodde på att vi först och främst ville samla en så komplett bild som möjligt av hur läget är för närvarande och vilka olika aspekter av den här frågan som kan bli tillämpliga och kan komma att beröra oss: Hur ska vi engagera oss? När vi har en bättre bild av detta - det hela är ju ännu i sin linda - kan vi också besluta hur vi ska föra frågan vidare. Men än så länge är inriktningen samarbete, information och dokumentation och att vi ska få en så komplett bild som möjligt av vilka beslut som detta kan behöva leda till.

STYLEREF Kantrubrik \* MERGEFORMAT Svar på interpellationer

Vi har detta på radarn, definitivt, och vi kommer att fortsätta engagera oss utifrån internationell humanitär rätt. Det är vår startpunkt.


Anf. 6 Stig Henriksson (V)

Herr talman! Ministern säger att det måste vara människor inblandade när det handlar om att utlösa vapen som är potentiellt dödsbringande. Då måste man ju per automatik vara emot detta. Vi talar ju om vad som med ett klatschigt namn kan beskrivas som mördarrobotar. De är programmerade att göra saker utanför mänsklig kontroll när man väl har gjort programmeringen.

Med den rasande snabba tekniska utveckling som sker är detta inte långt borta. En del talar om fem eller tio år och menar att dessa vapen då kommer att finnas lite överallt. Detta sänker trösklarna för användande av våld eftersom man inte behöver göra så många egna överväganden. Redan därför tycker jag att man kunde säga att man är mot detta och att man kommer att verka mot det på alla tänkbara sätt.

Att Sverige är med och utvecklar ett sådant vapensystem har ministern inte kommenterat. Men är det verkligen rimligt med tanke på vad vi just har diskuterat?

Finns det någon tidsplan för när folkrättsdelegationen kan komma med några synpunkter i den här frågan eller i liknande frågor? Och återigen: Hur verkar Sverige som nation för det här på det internationella planet? Hur aktiva är vi, vad skulle vi kunna göra och när börjar vi göra det?

För övrigt anser jag att vi borde signera kärnvapenavtalet.


Anf. 7 Utrikesminister Margot Wallström (S)

Herr talman! Tack, Stig Henriksson! Som jag redogjorde för är vi engagerade i den här frågan. Eftersom det inte har varit någon bred allmän debatt om detta menar vi att vi bör samla på oss så mycket som möjligt av information och etablera samarbete med andra länder för att se till att vi utbyter dokumentation och information om de här frågorna och skaffar oss ett bra underlag. Det har inte funnits hittills. Detta är vi i färd med nu.

Arbetsgruppen ber vi regelbundet avrapportera. Vi har två eller tre sammanträden per år i delegationen. Vi ska också vara medvetna om att det är komplexa frågeställningar, och då måste man få tid att göra sitt jobb.

Vi skickar folk till CCW, så att vi är representerade där. Vi tar kontakter med andra länder som är intresserade av frågan. Vi kommer absolut att vara fullt engagerade i debatten om detta.

Helt autonoma vapensystem, som alltså inte kräver någon styrning, och automatiserade vapensystem som obemannade luftfarkoster är helt olika typer av system, och dem måste man skilja på. Försvarsministern kommer att svara på detta.

STYLEREF Kantrubrik \* MERGEFORMAT Svar på interpellationer

Vi ligger långt framme när det gäller att förespråka att folkrätten ska respekteras i vapensammanhang. Det är vår utgångspunkt. Det är kring det som vi kommer att driva den här debatten. Hur ska man kunna tillämpa folkrätten? Det är otänkbart att vi ska utveckla och ta i bruk vapen som inte uppfyller folkrättens krav.

Överläggningen var härmed avslutad.

Interpellationer

Interpellationer är en typ av frågor som debatteras i kammaren nästan varje vecka. Ledamoten ställer interpellationen skriftligt till en minister i regeringen och får svar både skriftligt och muntligt av ministern som kommer till kammaren. Debatterna dokumenteras i kammarens protokoll.