Datorsäkerhet AI-driven skadlig programvara hotar att överväldiga...

AI-driven skadlig programvara hotar att överväldiga detektionssystem med skapandet av 10 000 varianter

Cybersäkerhetsforskare slår larm över potentiellt missbruk av stora språkmodeller (LLM) för att driva utvecklingen av skadlig programvara. En ny analys av Palo Alto Networks Unit 42 avslöjar att LLM:er, även om de inte är skickliga på att skapa skadlig programvara från grunden, kan skriva om och fördunkla befintlig skadlig kod i stor skala, vilket skapar varianter som undviker upptäckt i upp till 88 % av fallen.

Detta väcker kritiska farhågor om hur hotaktörer kan utnyttja generativ AI för att kringgå upptäcktssystem, försämra maskininlärningsmodeller och distribuera en ständigt växande arsenal av skadlig programvara .

Mekaniken i AI-förbättrad skadlig programvara

"Enligt enhet 42 kan brottslingar uppmana LLM:er att utföra transformationer på skadlig JavaScript-kod, vilket gör det svårare för detektionssystem att flagga de omskrivna skripten . Till skillnad från traditionella obfuskeringsverktyg som genererar mindre övertygande resultat, verkar LLM-drivna omskrivningar mer naturliga och svårare att upptäcka.

Viktiga transformationstekniker inkluderar:

  • Variabel byta namn
  • Strängklyvning
  • Infogning av skräpkod
  • Ta bort blanksteg
  • Komplett kodimplementering

Varje iteration genererar en ny malware-variant som bibehåller den ursprungliga skadliga funktionen samtidigt som den avsevärt minskar chanserna att upptäckas.

Enhet 42 demonstrerade detta tillvägagångssätt genom att använda LLM:er för att skapa 10 000 JavaScript-varianter från befintliga skadlig programvara. Dessa varianter lurade framgångsrikt klassificerare av skadlig programvara, inklusive allmänt använda modeller som PhishingJS och Innocent Until Proven Guilty (IUPG). I många fall kunde inte ens VirusTotal-plattformen upptäcka de omskrivna skripten som skadliga.

The Dangerous Edge of AI Obfuscation

Till skillnad från äldre verktyg som obfuscator.io, som producerar mönster som lättare kan upptäckas och tas med fingeravtryck, är LLM-baserade omskrivningar i sig mer sofistikerade. De verkar närmare legitim kod, vilket gör dem svårare för maskininlärningsmodeller (ML) och antivirusverktyg att identifiera.

Effekten av denna metod är djupgående:

  • Klassificerare av skadlig programvara luras att märka skadliga skript som godartade.
  • ML-modeller lider av en prestandaförsämring och kämpar för att hänga med i den ständiga utvecklingen av malware-varianter.
  • Detekteringssystem riskerar att bli föråldrade eftersom motståndare ständigt genererar ny, oupptäckbar skadlig programvara.

Utnyttja LLM för bredare cyberbrottslighet

Denna trend är inte begränsad till utveckling av skadlig programvara. Skadliga aktörer använder oseriösa verktyg som WormGPT, som använder generativ AI för att automatisera nätfiskekampanjer och skapa övertygande sociala ingenjörsattacker skräddarsydda för specifika offer.

Medan LLM-leverantörer har implementerat skyddsräcken för att begränsa missbruk, såsom OpenAI:s senaste blockering av 20 vilseledande operationer i oktober 2024, hittar hotaktörer ständigt vägar kring dessa restriktioner.

The Silver Lining: Fighting Fire with Fire

Trots riskerna kan samma LLM-drivna tekniker som används för att fördunkla skadlig programvara också hjälpa försvarare. Enhet 42 föreslår att man använder dessa AI-metoder för att generera träningsdata som förbättrar robustheten hos modeller för upptäckt av skadlig programvara. Genom att ge klassificerare fler exempel på obfuskerad kod kan forskare potentiellt stärka deras förmåga att upptäcka även de mest avancerade varianterna.

Nya AI-sårbarheter: TPUXtract Attack

Uppkomsten av LLM-driven skadlig programvara är inte det enda AI-relaterade hotet som skapar rubriker. Forskare från North Carolina State University har avslöjat en sidokanalattack, kallad TPUXtract, som kan stjäla AI-modellarkitekturer från Googles Edge Tensor Processing Units (TPUs).

Genom att fånga elektromagnetiska signaler som sänds ut under neurala nätverksslutledningar kan angripare extrahera detaljer som lagertyper, nodnummer, filterstorlekar och aktiveringsfunktioner med 99,91 % noggrannhet. Även om denna attack kräver fysisk åtkomst till enheten och kostsam utrustning, utgör den en allvarlig risk för immateriella rättigheter och kan underlätta uppföljande cyberattacker.

Vad detta betyder för cybersäkerhet

Den snabba utvecklingen av generativ AI är ett tveeggat svärd för cybersäkerhet . Samtidigt som det öppnar nya dörrar för innovation, tillhandahåller det också oöverträffade verktyg för cyberbrottslingar.

  • Organisationer måste agera proaktivt och investera i avancerade detektionssystem som kan anpassa sig till AI-drivna fördunklingstekniker.
  • Politiker bör fastställa tydliga riktlinjer för den etiska användningen av AI samtidigt som de upprätthåller strängare kontroller för att förhindra missbruk.
  • Säkerhetsforskare måste utnyttja AI för att överträffa motståndarna och utveckla motståndskraftiga system som kan motverka hot som utvecklas.

Framtiden för AI-malware

LLM:ers förmåga att skapa 10 000 varianter av skadlig programvara och undvika upptäckt i 88 % av fallen är en stark påminnelse om den växande sofistikeringen av cyberhot. I takt med att tekniken utvecklas, måste vårt försvar också göra det. Företag, regeringar och cybersäkerhetsproffs måste anamma innovativa strategier för att ligga före illvilliga aktörer och skydda den digitala världen från AI-drivna attacker.

Läser in...