Autonoma vapensystem

Just nu talar: {{ VideoModel.activelivespeaker.text }}
Spela video
Laddar...
Laddar {{loadingpercent}}%
{{ videometadata.debatetypename }} {{ videometadata.debatedate }}

Interpellation 2017/18:20 Autonoma vapensystem

av Stig Henriksson (V)

till Utrikesminister Margot Wallström (S)

 

Medan världen fortfarande diskuterar automatiserade vapensystem går utvecklingen vidare mot autonoma vapen. Lethal autonomous weapons systems (LAWS) – autonoma vapen – är ett ämne som väcker både frågor och farhågor. Många har uppfattningar om hur frågan ska behandlas. Martin Hagström, forskningsledare på FOI, skriver i Mänsklig Säkerhet den 13 juni 2016 om vikten av att strukturera debatten och göra en bred analys med fokus på ansvar för användning.

Datorutvecklingen har gjort artificiell intelligens (AI) alltmer intelligent. I dag är det möjligt för maskiner att uträtta saker som förr bara var möjliga för människor. Det skapar nya användningsområden för tekniken, inte minst inom det militära. Många uttrycker stora förhoppningar om hur teknikutvecklingen kan skapa helt nya militära verktyg. Förutom de taktiska och militärtekniska argument som driver utvecklingen finns det även de som menar att en ökad automatisering bör leda till större precision. Detta innebär i sin tur minskade risker för civila och färre mänskliga felgrepp i militära operationer.

Samtidigt finns också en stor oro för hur dessa system kan komma att användas. Den internationella kampanjen Stop Killer Robots lanserades 2013 som en motreaktion på utvecklingen av intelligenta robotar i militär tillämpning. Kampanjen syftar till att förbjuda LAWS eftersom man menar att autonoma vapen riskerar att användas i strid med folkrätten och att de kommer att öka de säkerhetspolitiska spänningarna i världen, med kapprustning som följd.

Human Rights Watch har publicerat en 50-sidig rapport – Losing Humanity: The Case Against Killer Robots – tillsammans med Harvard Law School International Human Rights Clinic. Rapporten tar bland annat upp att autonoma vapen inte kan skilja mellan civila och soldater, att de inte kan ha medkänsla för sina offer och att diktatorer skulle kunna rikta dem mot den egna befolkningen. Ytterligare argument är att det skulle det bli svårare att hålla någon ansvarig för vapeninsatserna och att det skulle bli lättare att starta krig.

Oberoende av hur man ser på teknikens möjligheter respektive faror behöver alla länder utveckla strategier och principer för användning av teknik med alltmer komplex automation. På samma sätt finns det behov av att utreda konsekvenserna för ansvarsfrågor, försvarsekonomi och ledning av militära operationer. Får till exempel beslut om liv och död överlämnas åt en maskin, och kan en maskin agera moraliskt korrekt? Kan en maskin följa internationell humanitär rätt? Kan maskinen avgöra proportionaliteten i ett anfall? Kan en maskin läsa av situationen på rätt sätt? Och vem är krigsförbrytare om svaret är nej?

FN:s konvention om vissa konventionella vapen skapades 1980 och brukar benämnas CCV. Målet är att begränsa eller förbjuda vissa konventionella vapen som uppfattas som överdrivet skadliga eller vars effekter är urskillningslösa. Konventionen behandlar bland annat minor, försåtminering, brandbomber och förblindande laservapen, och 120 länder har skrivit under den. Inom ramen för CCV har informella diskussioner också förts om autonoma vapensystem, men mycket lite har kommit ut om dessa samtal.

Under tiden håller autonoma vapen­robotar i tysthet på att utvecklas i militärindustrins laboratorier i flera länder. USA är ledande, men andra följer efter. I Ryssland håller man till exempel på att utveckla både en helt autonom pansarvagn, T-14 Armata, och den autonoma drönaren Mig Skat, som i första hand ska användas vid anfall med luftvärnsrobotar i högriskområden. Ett enklare autonomt vapensystem finns redan vid gränsen mellan Nord- och Sydkorea. Kulsprutan Super Aegis II ska självständigt kunna hitta, sikta och låsa ett mål av mänsklig storlek upp till tre kilometer bort oavsett väder. Också Sverige går samma väg. Projektet Neuron är ett samarbete mellan sex europeiska länder med målet att utveckla ett helt självständigt flygplan som är kapabelt att attackera markmål.

Jag vill mot bakgrund av ovanstående fråga utrikesminister Margot Wallström:

 

1. Vilka initiativ avser ministern att ta i den komplexa frågan om LAWS?

2. Är det ministerns mening att dessa vapen bör föras in under CCV, och bör de i så fall begränsas eller helt förbjudas?

3. Bör Sverige enligt ministern aktivt delta i utvecklandet av LAWS?