Användning av AI väcker etiska frågor
AI-teknik kan användas inom försvarsmedicin både för att avlasta sjukvårdspersonal och för att utnyttja resurser mer effektivt. Men det medför också etiska överväganden om maskiner ska fatta självständiga beslut.
Rapporten AI och framtidens försvarsmedicin lägger särskilt tonvikt vid hur traumapatienter ska kunna omhändertas med hjälp av autonoma plattformar, berättar Marianela García Lozano, förste forskare på FOI, och en av rapportens redaktörer.
–Det är framför allt i krissituationer som det finns behov av stöd. Legitimerad sjukvårdspersonal och resurser som blod är en bristvara ute på fältet och AI kan användas för allt från planering och transport till själva behandlingen, säger hon.
Rapporten är ett underlag för Försvarsmaktens strategiska ledning inför framtida investeringar. Den är ett resultat av samarbetet mellan Försvarsmakten (FM), Försvarets materielverk (FMV), Försvarshögskolan (FHS), Karolinska Institutet (KI) och Totalförsvarets forskningsinstitut (FOI).
–Samarbetet har fungerat mycket bra. Vår ansats har både varit att beskriva teknikutvecklingen inom AI och att ha en öppen och ärlig diskussion om de utmaningar som finns. Bredden i rapporten är nog det som jag är mest nöjd med, säger Marianela García Lozano.
Lång lista över möjliga användningsområden
Rapporten listar många möjliga användningsområden för AI inom försvarsmedicin. Det handlar dels om omhändertagandet av skadade soldater, som undersökning, utvärdering och stabilisering, dels om autonoma system som stöd vid triage, kirurgiska ingrepp och transporter.
–Ju mer generellt och mer autonomt ett system ska vara desto längre bort ligger det i framtiden. När det handlar om mer specifika uppgifter, till exempel autonoma fordon eller bildbehandling, finns vissa system redan på plats i dag. Det finns också civila system, till exempel optimering av rutter för ambulanser som skulle kunna användas inom försvaret, säger Marianela García Lozano.
Krav på robusta system i extrema miljöer
En utmaning med att använda AI inom försvaret är att systemen måste vara robusta även i extrema miljöer och i oförutsedda situationer. Ett AI-system bygger på någon form av maskininlärning och måste därför matas med en enorm mängd data för att kunna möta olika situationer. Oavsett om det handlar om tolkning av röntgenbilder eller om att evakuera sårade i en tät tallskog i 30 minusgrader.
–Ett hinder för utvecklingen är att man saknar data att träna på, men det är inget unikt för försvaret. Alla system kan bli skeva om man använder alltför ensidig eller likartade data. När det gäller försvaret finns en risk att många data bygger på vältränade unga män. Det måste man vara medveten om när man tränar systemen, säger Marianela García Lozano.
Etiska beslut för algoritmer
”Explainable AI” är ett sätt att försöka förutsäga vilka beslut som systemen kommer att fatta och gardera sig mot eventuella problem. Avancerade AI-system använder nämligen algoritmer för att själva ta fram strategier och därför kan inte människan förutsäga resultatet.
–Om vi tänker att oss att ett autonomt system, som är upptränat på män 18 till 50 år, stöter det på skadade kvinnor och barn. Då väljer kanske systemet att lämna kvar ett skadat barn. Eller om man har krig på flera fronter och det finns en begränsad mängd blod, vilken grupp ska då prioriteras och på vilka grunder? Vi är inte där ännu, men det är frågor som kommer att behöva diskuteras, säger Marianela García Lozano.
Frågan är också vem som ska ställas till svars om algoritmer tillåts fatta etiska beslut som i efterhand anses vara felaktiga. Är det en militär befälhavare, den som köpte in systemet eller den som godkände det?
–Tänk om en triagedrönare ska göra en första bedömning av 50 skadade i en stridszon. Enligt riktlinjer ska du behandla fiendesoldater på samma sätt som dina egna, men det finns bara plats att evakuera fem personer. Då skulle kanske en läkare på plats inte ta med en fiendesoldat utifrån en mänsklig bedömning. Men ett AI-system gör bara det man har programmerat det att göra. Och eftersom allt kan dokumenteras av systemet kan också någon ställas till svars efteråt, avslutar Marianela García Lozano.