Kapprustning inom AI för att försvara data mot cyberattacker
Med AI kan maskiner lära sig att göra saker som är långt över mänsklig förmåga. Tekniken kan användas för såväl goda som onda avsikter och i dagsläget pågår en kapprustning mellan dem som vill skydda respektive angripa data med hjälp av AI. Det visar en rapport från FOI.
Artificiell intelligens, AI, handlar om att automatisera uppgifter som människor tidigare har varit bäst på att utföra. AI ses som lösningen på många framtida utmaningar men tekniken kan också missbrukas i brottsligt syfte, som exempelvis vid dataangrepp. Även om detta fortfarande är relativt ovanligt, har FOI:s forskare hittat några olika fall där AI har använts vid cyberattacker. Ett exempel är AI-programmet ”CyberLover” som automatiskt har skapat profiler av människors beteenden på dejtingchattar och skickat individanpassade meddelanden med skadliga länkar till chattens medlemmar.
Vidare finns det AI som kan passera så kallade Turingstester, en typ av säkerhetsåtgärder eller ”captchas” där användaren ska bevisa att den inte är en maskin utan en människa.
– Captchas handlar om att du får ett antal bilder och ska markera dem som innehåller till exempel bilar. Eller så får du bokstäver som ser konstiga ut och ska skriva in vilka de är. AI kan agera som en människa och passera flera olika sådana här tester för att komma åt och angripa sidor, säger Erik Zouave, analytiker på FOI:s avdelning för försvarsanalys.
Gäller att ha beredskap
Genom sin förmåga att samla ihop och analysera data snabbare än människan kan AI också användas för att skanna av information om sårbarheter, som läggs upp på internet.
– AI hittar enkelt underrättelser som en antagonist vill ha. För att dölja ett dataingrepp kan AI också härma beteendemönstret i ett angripet nätverk så att det utåt verkar som att nätverket beter sig som vanligt, förklarar Erik Zouave.
På marknaden finns idag flera AI-stödda cybersäkerhetsverktyg. Samtidigt visar forskningen att säkerhetslösningarna inte alltid är tillräckliga för att avskräcka AI-stödda angripare. Istället pågår en kapprustning mellan dem som vill skydda data och dem som vill angripa den. I varje fall på vetenskaplig nivå där det finns dels forskare som försöker utveckla olika skydd, dels forskare som låtsas vara antagonister och gör allt för att ta sig förbi dem, båda med hjälp av AI.
– I det här tidiga skedet kan vi inte ta för givet att det kommer gå att skydda sig mot AI med hjälp av AI. Istället gäller det för försvarare att prioritera åtgärder mot sårbarheter som kan angripas automatiserat i stor skala. Nu är vi snart i en sådan värld där vi rimligen kommer att börja se mer av sådana här attacker så därför är det viktigt att ha en beredskap för hur de ska bemötas, säger Erik Zouave.