AI för spaningssensorer - Slutrapport

Författare:

  • Fredrik Näsström
  • Jonas Allvar
  • Fredrik Bissmarck
  • Viktor Deleskog
  • Hanna Hamrell
  • Fredrik Hemström
  • Jörgen Karlholm
  • Jonas Nordlöf
  • Jonas Nygårds

Publiceringsdatum: 2022-02-01

Rapportnummer: FOI-R--5232--SE

Sidor: 39

Skriven på: Svenska

Forskningsområde:

  • Sensorer och signaturanpassning

Nyckelord:

  • Artificiell intelligens
  • AI
  • maskininlärning
  • djupinlärning
  • måligenkänning
  • positionering
  • sensorplanering
  • sensorstyrning

Sammanfattning

I denna rapport presenteras forskningen som utförts i projektet AI för spaningssensorer. Projektet har bedrivit forskning inom områdena: automatisk måligenkänning, positionering och sensorplanering. Målsättningen med denna forskning är att undersöka olika AI-algoritmer som på sikt ska kunna underlätta sensoroperatörens arbete och därmed öka spaningens effektivitet och kvalitet genom att bidra till att operatörerna får en bättre situationsuppfattning, högre systemtilltro, mindre risk för felhandlingar (eng. human error) och lägre mental arbetsbelastning. Inom måligenkänning har arbetet fokuserats på framtagning av träningsdata då moderna måligenkänningsmetoder behöver mycket sådana. För att uppnå hög måligenkänningsprestanda krävs i allmänhet en mycket stor uppsättning representativa bilder som visar objekt i olika skalor (avstånd) och vyer, i olika terrängtyper och väder. Ett intressant alternativ är att använda simulerade bilder då dessa snabbt går att generera, fast det är en utmaning att få dem tillräckligt verklighetstrogna för träning av måligenkänningsalgoritmer. I projektet har därför forskning bedrivits för att med algoritmer för domänöversättning göra simulerade bilder mer verklighetstrogna. Ett avståndsmått mellan bildfördelningar har använts som kallas Fréchetavståndet och det visar att avståndet mellan verkliga bilder och simulerade bilder blir mindre om domänöversättning används, dvs. domänöversättningen gör så att de simulerade bilderna mer liknar verkliga bilder. Inom automatisk positionering har arbetet inriktats mot att studera hur hög positioneringsnoggrannhet som är möjlig om man använder LiDAR och geografisk information istället för satellitnavigering som kan störas. Tre olika metoder har studerats för detta som vi kallat för: "positionering från enskilda träd", "positionering mot terräng" resp. "positionering mot träddensitet". Resultat visar att de två första har bäst positionering, typiskt under 1 m och alltså i nivå med nuvarande GNSS. De båda metoderna kräver robust matchning av enskilda kända landmärken (som ett specifikt träd), medan den sista endast kräver kända områden (som var en skogsdunge finns). För den sista uppnås då en positionering i samma storleksordning som för äldre GNSS mottagare dvs. 6-20 m. Inom sensorplanering (av rörliga sensorsystem) har arbetet inriktats mot att studera hur den moderna maskininlärningsmetoden Reinforcement learning kan användas. Experiment har genomförts med denna metod vilka visar att i flera fall kan maskininlärning användas för sensorplanering av rörliga sensorsystem. I ett av försöken har en spaningsagent fått i uppgift att utifrån visuella sensorbilder styra in sensorn mot mål i terrängen för att möjliggöra t.ex. klassificering och identifiering av detekterade mål. Med rätt parameterjustering kunde spaningsagenten ofta hitta, zooma och styra in på mål ned till storleken av ca 200 pixlar. Försöket visar att agenten kan vara ett stöd för en sensoroperatör att snabbare hitta mål och samtidigt ge operatören bättre möjlighet till klassificering för vidare hotbedömning. Metoden har potential att i framtiden tillämpas på mer komplexa scenarier med delvis dolda mål och sensorplattformar i rörelse