Malvér poháňaný umelou inteligenciou hrozí, že zahltí detekčné systémy vytvorením 10 000 variantov

Výskumníci v oblasti kybernetickej bezpečnosti bijú na poplach kvôli možnému zneužitiu veľkých jazykových modelov (LLM) na urýchlenie vývoja škodlivého softvéru. Nová analýza od Palo Alto Networks' Unit 42 odhaľuje, že LLM, hoci nie sú zbehlí vo vytváraní malvéru od nuly, dokážu prepisovať a zahmlievať existujúci škodlivý kód vo veľkom meradle, čím vytvárajú varianty, ktoré sa vyhnú detekcii až v 88 % prípadov.
To vyvoláva kritické obavy z toho, ako by aktéri hrozieb mohli využiť generatívnu AI na obídenie detekčných systémov, degradovať modely strojového učenia a nasadiť stále sa rozširujúci arzenál malvéru .
Obsah
Mechanika tvorby malvéru vylepšeného AI
„Podľa jednotky 42 môžu zločinci vyzvať LLM, aby vykonali transformáciu škodlivého kódu JavaScript, čo sťažuje detekčným systémom označenie prepísaných skriptov . Na rozdiel od tradičných zahmlievacích nástrojov, ktoré generujú menej presvedčivé výstupy, sa prepisy riadené LLM javia prirodzenejšie a ťažšie zistiteľné.
Medzi hlavné transformačné techniky patria:
- Premenovanie premenných
- Rozdelenie strún
- Vloženie nevyžiadaného kódu
- Odstránenie medzier
- Kompletná reimplementácia kódu
Každá iterácia generuje nový variant malvéru, ktorý zachováva pôvodnú škodlivú funkčnosť a zároveň výrazne znižuje jej šance na odhalenie.
Jednotka 42 demonštrovala tento prístup pomocou LLM na vytvorenie 10 000 variantov JavaScriptu z existujúcich vzoriek malvéru. Tieto varianty úspešne oklamali klasifikátorov malvéru vrátane široko používaných modelov ako PhishingJS a Innocent Until Proven Guilty (IUPG). V mnohých prípadoch dokonca platforma VirusTotal nedokázala odhaliť prepísané skripty ako škodlivé.
Nebezpečná hrana zahmlievania AI
Na rozdiel od starších nástrojov, ako je obfuscator.io, ktoré vytvárajú vzory, ktoré možno ľahšie zistiť a odtlačok prstov, prepisy založené na LLM sú vo svojej podstate sofistikovanejšie. Zdá sa, že sú bližšie k legitímnemu kódu, čo sťažuje identifikáciu modelov strojového učenia (ML) a antivírusových nástrojov.
Vplyv tejto metódy je hlboký:
- Klasifikátory škodlivého softvéru sú oklamané, aby označili škodlivé skripty za neškodné.
- Modely ML trpia znížením výkonu a snažia sa držať krok s neustálym vývojom variantov malvéru.
- Detekčné systémy riskujú, že budú zastarané, pretože protivníci neustále generujú nový, nezistiteľný malvér.
Využívanie LLM na širšiu počítačovú kriminalitu
Tento trend sa neobmedzuje len na vývoj škodlivého softvéru. Škodliví herci využívajú nečestné nástroje ako WormGPT, ktoré využívajú generatívnu AI na automatizáciu phishingových kampaní a na vytváranie presvedčivých útokov sociálneho inžinierstva prispôsobených konkrétnym obetiam.
Zatiaľ čo poskytovatelia LLM implementovali ochranné zábradlie na obmedzenie zneužívania, ako napríklad nedávne zablokovanie 20 podvodných operácií OpenAI v októbri 2024, aktéri hrozieb neustále hľadajú spôsoby, ako tieto obmedzenia obísť.
Strieborná podšívka: Boj s ohňom ohňom
Napriek rizikám môžu obrancom pomôcť tie isté techniky založené na LLM, ktoré sa používajú na zahmlievanie škodlivého softvéru. Jednotka 42 navrhuje použiť tieto metódy AI na generovanie tréningových údajov, ktoré zlepšujú robustnosť modelov detekcie škodlivého softvéru. Poskytnutím ďalších príkladov zahmleného kódu do klasifikátorov by výskumníci mohli potenciálne posilniť svoju schopnosť odhaliť aj tie najpokročilejšie varianty.
Vznikajúce slabiny AI: TPUXtract Attack
Nárast malvéru poháňaného LLM nie je jedinou hrozbou súvisiacou s AI, ktorá sa dostáva do titulkov. Výskumníci zo Štátnej univerzity v Severnej Karolíne odhalili útok bočným kanálom s názvom TPUXtract, ktorý je schopný ukradnúť architektúry modelov AI z jednotiek Edge Tensor Processing Units (TPU) od spoločnosti Google.
Zachytením elektromagnetických signálov emitovaných počas záverov neurónovej siete môžu útočníci extrahovať podrobnosti, ako sú typy vrstiev, čísla uzlov, veľkosti filtrov a aktivačné funkcie s presnosťou 99,91 %. Hoci tento útok vyžaduje fyzický prístup k zariadeniu a nákladnému vybaveniu, predstavuje vážne riziko pre duševné vlastníctvo a mohol by uľahčiť následné kybernetické útoky.
Čo to znamená pre kybernetickú bezpečnosť
Rýchly vývoj generatívnej AI je dvojsečná zbraň pre kybernetickú bezpečnosť . Aj keď otvára nové dvere inováciám, poskytuje aj bezprecedentné nástroje pre kyberzločincov.
- Organizácie musia konať proaktívne a investovať do pokročilých detekčných systémov schopných prispôsobiť sa technikám zahmlievania riadených AI.
- Tvorcovia politiky by mali stanoviť jasné usmernenia pre etické používanie AI a zároveň presadzovať prísnejšie kontroly, aby sa predišlo zneužitiu.
- Výskumníci v oblasti bezpečnosti musia využiť AI, aby predbehli protivníkov a vyvinuli odolné systémy, ktoré dokážu čeliť vyvíjajúcim sa hrozbám.
Budúcnosť AI malvéru
Schopnosť LLM vytvoriť 10 000 variantov malvéru a vyhnúť sa detekcii v 88 % prípadov je jasnou pripomienkou rastúcej sofistikovanosti kybernetických hrozieb. Tak ako sa vyvíja technológia, musí sa vyvíjať aj naša obrana. Firmy, vlády a odborníci na kybernetickú bezpečnosť si musia osvojiť inovatívne stratégie, aby si udržali náskok pred zlomyseľnými aktérmi a ochránili digitálny svet pred útokmi poháňanými umelou inteligenciou.