15 juli 2016

Mördarrobotar eller vapen som kan fatta etiska beslut – om vapenteknik och automation

Autonomous Weapons Systems – autonoma vapen är ett ämne som väcker både frågor och farhågor. Många har uppfattningar om hur frågan ska behandlas. Martin Hagström, forskningsledare på FOI, skriver om vikten av att strukturera debatten och en bred analys med fokus på ansvar för användning.

Datorutvecklingen har gjort artificiell intelligens (AI) mer intelligent och maskiner kan göra saker som förr var förbehållet människor. I militära tillämpningar finns stora möjligheter och visionerna är många. En reaktion på framtidsbilder av intelligenta robotar i militär tillämpningar är kampanjen Stop Killer Robots som lanserades 2013 med målet att förbjuda Lethal Autonomous Weapons Systems (LAWS).

Kampanjens medlemmar anser att autonoma vapen riskerar att användas i strid mot folkrätten och att de kommer öka de säkerhetspolitiska spänningarna i världen med kapprustning som följd. Förutom de taktiska och militärtekniska argument som driver utvecklingen finns det även förespråkare som framhåller att automatisering och precision bör leda till minskade risker för civila och färre mänskliga felgrepp i militära operationer. Oberoende av inställning till tekniken så behöver alla länder utveckla strategier för användning av teknik med alltmer komplex automation och utreda konsekvenserna för ansvarsfrågor, försvarsekonomi och ledning av militära operationer.

Science fiction ger en vägledning till att förstå delar av debatten och en översikt över de hot (och även möjligheter) som målas upp av de som är motståndare till LAWS. Terminator-filmerna med den artificiella intelligensen Skynet är förstås typexemplet på AI-hotet, men redan 1953 skrev Philip K. Dick boken Second Variety om helt autonoma vapen som hotar hela mänskligheten.

Det finns många aktörer i debatten vilken ofta präglas av frågans mångfacetterade karaktär. Folkrättsliga argument blandas med tekniska och militärstrategiska aspekter. Få debattörer har kunskap utanför sitt eget expertområde. Rädslan för robotar som känslolösa och obarmhärtiga mördare återkommer i debattinläggen. Vad som är tillåtet enligt folkrätten beror på den konkreta militära situationen, egenskaperna hos det tekniska systemet och hur det används.