AI-drevet skadelig programvare truer med å overvelde deteksjonssystemer med etableringen av 10 000 varianter

Cybersikkerhetsforskere slår alarm over potensiell misbruk av store språkmodeller (LLM) for å øke utviklingen av skadevare. En ny analyse fra Palo Alto Networks Unit 42 avslører at LLM-er, selv om de ikke er flinke til å lage skadelig programvare fra bunnen av, kan omskrive og tilsløre eksisterende ondsinnet kode i massiv skala, og skape varianter som unngår oppdagelse i opptil 88 % av tilfellene.
Dette reiser kritiske bekymringer om hvordan trusselaktører kan utnytte generativ AI for å omgå deteksjonssystemer, forringe maskinlæringsmodeller og distribuere et stadig voksende arsenal av skadelig programvare .
Innholdsfortegnelse
Mekanikken til AI-Enhanced Malware Creation
«I følge enhet 42 kan kriminelle be LLM-er om å utføre transformasjoner på ondsinnet JavaScript-kode, noe som gjør det vanskeligere for gjenkjenningssystemer å flagge de omskrevne skriptene . I motsetning til tradisjonelle tilsløringsverktøy som genererer mindre overbevisende utdata, virker LLM-drevne omskrivninger mer naturlige og vanskeligere å oppdage.
Viktige transformasjonsteknikker inkluderer:
- Variabel endre navn
- Strengesplitting
- Innsetting av søppelkode
- Fjerning av mellomrom
- Fullfør kodereimplementering
Hver iterasjon genererer en ny malware-variant som opprettholder den opprinnelige skadelige funksjonaliteten samtidig som den reduserer sjansene for å bli oppdaget betydelig.
Enhet 42 demonstrerte denne tilnærmingen ved å bruke LLM-er til å lage 10 000 JavaScript-varianter fra eksisterende skadevareeksempler. Disse variantene lurte skadevareklassifiserere, inkludert mye brukte modeller som PhishingJS og Innocent Until Proven Guilty (IUPG). I mange tilfeller klarte til og med VirusTotal-plattformen ikke å oppdage de omskrevne skriptene som skadelige.
The Dangerous Edge of AI Obfuscation
I motsetning til eldre verktøy som obfuscator.io, som produserer mønstre som lettere kan oppdages og tas med fingeravtrykk, er LLM-baserte omskrivninger iboende mer sofistikerte. De virker nærmere legitim kode, noe som gjør dem vanskeligere for maskinlæringsmodeller (ML) og antivirusverktøy å identifisere.
Effekten av denne metoden er dyp:
- Skadevareklassifiserere blir lurt til å merke ondsinnede skript som godartede.
- ML-modeller lider av en ytelsesforringelse, og sliter med å holde tritt med den konstante utviklingen av malware-varianter.
- Deteksjonssystemer risikerer å bli foreldet ettersom motstandere kontinuerlig genererer fersk, uoppdagelig skadelig programvare.
Utnyttelse av LLM-er for bredere nettkriminalitet
Denne trenden er ikke begrenset til utvikling av skadelig programvare. Ondsinnede aktører utnytter useriøse verktøy som WormGPT, som bruker generativ AI for å automatisere phishing-kampanjer og lage overbevisende sosiale ingeniørangrep skreddersydd for spesifikke ofre.
Mens LLM-leverandører har implementert rekkverk for å begrense misbruk, slik som OpenAIs nylige blokkering av 20 villedende operasjoner i oktober 2024, finner trusselaktører stadig måter rundt disse restriksjonene.
The Silver Lining: Fighting Fire with Fire
Til tross for risikoen, kan de samme LLM-drevne teknikkene som brukes til å skjule skadelig programvare, også hjelpe forsvarere. Enhet 42 foreslår å bruke disse AI-metodene for å generere treningsdata som forbedrer robustheten til modeller for oppdagelse av skadelig programvare. Ved å gi klassifiserere flere eksempler på skjult kode, kan forskere potensielt styrke deres evne til å oppdage selv de mest avanserte variantene.
Nye AI-sårbarheter: TPUXtract Attack
Fremveksten av LLM-drevet skadelig programvare er ikke den eneste AI-relaterte trusselen som skaper overskrifter. Forskere fra North Carolina State University har avduket et sidekanalangrep, kalt TPUXtract, som er i stand til å stjele AI-modellarkitekturer fra Googles Edge Tensor Processing Units (TPUer).
Ved å fange opp elektromagnetiske signaler som sendes ut under nevrale nettverksslutninger, kan angripere trekke ut detaljer som lagtyper, nodenummer, filterstørrelser og aktiveringsfunksjoner med 99,91 % nøyaktighet. Selv om dette angrepet krever fysisk tilgang til enheten og kostbart utstyr, utgjør det en alvorlig risiko for åndsverk og kan lette oppfølging av nettangrep.
Hva dette betyr for cybersikkerhet
Den raske utviklingen av generativ AI er et tveegget sverd for cybersikkerhet . Selv om det åpner nye dører for innovasjon, gir det også enestående verktøy for nettkriminelle.
- Organisasjoner må handle proaktivt og investere i avanserte deteksjonssystemer som er i stand til å tilpasse seg AI-drevne obfuskeringsteknikker.
- Politikere bør etablere klare retningslinjer for etisk bruk av kunstig intelligens, samtidig som de håndhever strengere kontroller for å forhindre misbruk.
- Sikkerhetsforskere må utnytte AI for å overgå motstandere , og utvikle motstandsdyktige systemer som kan motvirke nye trusler.
Fremtiden til AI-malware
Evnen til LLM-er til å lage 10 000 malware-varianter og unngå oppdagelse i 88 % av tilfellene er en sterk påminnelse om den økende sofistikeringen av cybertrusler. Ettersom teknologien utvikler seg, må også forsvaret vårt gjøre det. Bedrifter, myndigheter og fagfolk innen cybersikkerhet må omfavne innovative strategier for å ligge i forkant av ondsinnede aktører og beskytte den digitale verden fra AI-drevne angrep.