AI-drevet malware truer med at overvælde detektionssystemer med skabelsen af 10.000 varianter

Cybersikkerhedsforskere slår alarm over det potentielle misbrug af store sprogmodeller (LLM'er) til at sætte skub i udviklingen af malware. En ny analyse fra Palo Alto Networks' Unit 42 afslører, at LLM'er, selvom de ikke er dygtige til at skabe malware fra bunden, kan omskrive og tilsløre eksisterende ondsindet kode i massiv skala, hvilket skaber varianter, der undgår opdagelse i op til 88% af tilfældene.
Dette rejser kritiske bekymringer om, hvordan trusselsaktører kan udnytte generativ kunstig intelligens til at omgå detektionssystemer, forringe maskinlæringsmodeller og implementere et stadigt voksende arsenal af malware .
Indholdsfortegnelse
Mekanikken bag AI-Enhanced Malware Creation
'Ifølge Unit 42 kan kriminelle bede LLM'er om at udføre transformationer på ondsindet JavaScript-kode, hvilket gør det sværere for detektionssystemer at markere de omskrevne scripts . I modsætning til traditionelle sløringsværktøjer, der genererer mindre overbevisende output, virker LLM-drevne omskrivninger mere naturlige og sværere at opdage.
Nøgle transformationsteknikker omfatter:
- Variabel omdøbning
- Strengeopdeling
- Indsættelse af uønsket kode
- Fjernelse af hvidt mellemrum
- Komplet kodegenimplementering
Hver iteration genererer en ny malware-variant, der bevarer den oprindelige ondsindede funktionalitet, samtidig med at dens chancer for at blive opdaget væsentligt reduceres.
Enhed 42 demonstrerede denne tilgang ved at bruge LLM'er til at skabe 10.000 JavaScript-varianter fra eksisterende malware-eksempler. Disse varianter narrede malware-klassifikatorer med succes, herunder udbredte modeller som PhishingJS og Innocent Until Proven Guilty (IUPG). I mange tilfælde kunne selv VirusTotal-platformen ikke registrere de omskrevne scripts som ondsindede.
Den farlige kant af AI-obfuscation
I modsætning til ældre værktøjer som obfuscator.io, der producerer mønstre, der lettere kan detekteres og tages med fingeraftryk, er LLM-baserede omskrivninger i sagens natur mere sofistikerede. De ser ud til at være tættere på legitim kode, hvilket gør dem sværere for maskinlæringsmodeller (ML) og antivirusværktøjer at identificere.
Effekten af denne metode er stor:
- Malware-klassifikatorer bliver narret til at mærke ondsindede scripts som godartede.
- ML-modeller lider under en ydeevneforringelse og kæmper for at følge med den konstante udvikling af malware-varianter.
- Detektionssystemer risikerer at blive forældede, da modstandere konstant genererer frisk, uopdagelig malware.
Udnyttelse af LLM'er til bredere cyberkriminalitet
Denne tendens er ikke begrænset til malwareudvikling. Ondsindede aktører udnytter useriøse værktøjer som WormGPT, der bruger generativ kunstig intelligens til at automatisere phishing-kampagner og lave overbevisende social engineering-angreb skræddersyet til specifikke ofre.
Mens LLM-udbydere har implementeret autoværn for at begrænse misbrug, såsom OpenAIs seneste blokering af 20 vildledende operationer i oktober 2024, finder trusselsaktører konstant måder at omgå disse restriktioner.
The Silver Lining: Fighting Fire with Fire
På trods af risiciene kan de samme LLM-drevne teknikker, der bruges til at sløre malware, også hjælpe forsvarere. Enhed 42 foreslår at bruge disse AI-metoder til at generere træningsdata, der forbedrer robustheden af malware-detektionsmodeller. Ved at give klassifikatorer flere eksempler på sløret kode, kan forskere potentielt styrke deres evne til at opdage selv de mest avancerede varianter.
Nye AI-sårbarheder: TPUXtract Attack
Fremkomsten af LLM-drevet malware er ikke den eneste AI-relaterede trussel, der skaber overskrifter. Forskere fra North Carolina State University har afsløret et sidekanalangreb, kaldet TPUXtract, der er i stand til at stjæle AI-modelarkitekturer fra Googles Edge Tensor Processing Units (TPU'er).
Ved at fange elektromagnetiske signaler, der udsendes under neurale netværksslutninger, kan angribere udtrække detaljer som lagtyper, nodenumre, filterstørrelser og aktiveringsfunktioner med 99,91 % nøjagtighed. Selvom dette angreb kræver fysisk adgang til enheden og dyrt udstyr, udgør det en alvorlig risiko for intellektuel ejendom og kan lette opfølgende cyberangreb.
Hvad dette betyder for cybersikkerhed
Den hurtige udvikling af generativ AI er et tveægget sværd for cybersikkerhed . Selvom det åbner nye døre for innovation, giver det også hidtil usete værktøjer til cyberkriminelle.
- Organisationer skal handle proaktivt og investere i avancerede detektionssystemer, der er i stand til at tilpasse sig AI-drevne sløringsteknikker.
- Politikere bør etablere klare retningslinjer for den etiske brug af kunstig intelligens og samtidig håndhæve strengere kontrol for at forhindre misbrug.
- Sikkerhedsforskere skal udnytte kunstig intelligens til at overgå modstandere og udvikle modstandsdygtige systemer, der kan imødegå nye trusler.
Fremtiden for AI Malware
LLM'ers evne til at skabe 10.000 malware-varianter og undgå opdagelse i 88% af tilfældene er en skarp påmindelse om den voksende sofistikering af cybertrusler. Efterhånden som teknologien udvikler sig, skal vores forsvar også gøre det. Virksomheder, regeringer og cybersikkerhedsprofessionelle skal omfavne innovative strategier for at være på forkant med ondsindede aktører og beskytte den digitale verden mod AI-drevne angreb.