Malware s umělou inteligencí hrozí, že zahltí detekční systémy vytvořením 10 000 variant

Výzkumníci v oblasti kybernetické bezpečnosti bijí na poplach kvůli možnému zneužití velkých jazykových modelů (LLM) k podpoře vývoje malwaru. Nová analýza od Palo Alto Networks' Unit 42 odhaluje, že LLM, i když nejsou zběhlí ve vytváření malwaru od nuly, dokážou přepsat a zamlžovat existující škodlivý kód v masivním měřítku a vytvářet varianty, které se vyhýbají detekci až v 88 % případů.
To vyvolává zásadní obavy ohledně toho, jak by aktéři hrozeb mohli zneužít generativní umělou inteligenci k obejití detekčních systémů, degradovat modely strojového učení a nasadit stále se rozšiřující arzenál malwaru .
Obsah
Mechanika tvorby malwaru vylepšeného umělou inteligencí
„Podle Unit 42 mohou zločinci vyzvat LLM k provedení transformací škodlivého kódu JavaScript, což znesnadňuje detekčním systémům označit přepsané skripty . Na rozdíl od tradičních znejasňovacích nástrojů, které generují méně přesvědčivé výstupy, se přepisy řízené LLM zdají přirozenější a hůře zjistitelné.
Mezi klíčové transformační techniky patří:
- Přejmenování proměnných
- Rozdělení strun
- Vložení nevyžádaného kódu
- Odstranění mezer
- Kompletní reimplementace kódu
Každá iterace generuje novou variantu malwaru, která zachovává původní škodlivou funkci a zároveň výrazně snižuje její šance na odhalení.
Jednotka 42 demonstrovala tento přístup pomocí LLM k vytvoření 10 000 variant JavaScriptu z existujících vzorků malwaru. Tyto varianty úspěšně oklamaly klasifikátory malwaru, včetně široce používaných modelů, jako je PhishingJS a Innocent Until Proven Guilty (IUPG). V mnoha případech dokonce platforma VirusTotal nedokázala detekovat přepsané skripty jako škodlivé.
Nebezpečná hrana zmatku umělé inteligence
Na rozdíl od starších nástrojů, jako je obfuscator.io, které vytvářejí vzory, které lze snadněji detekovat a otisky prstů, jsou přepisy založené na LLM ze své podstaty sofistikovanější. Zdá se, že jsou blíže legitimnímu kódu, takže je obtížnější identifikovat modely strojového učení (ML) a antivirové nástroje.
Dopad této metody je hluboký:
- Klasifikátory malwaru jsou oklamány, aby označovaly škodlivé skripty jako neškodné.
- Modely ML trpí zhoršením výkonu a snaží se udržet krok s neustálým vývojem variant malwaru.
- Detekční systémy riskují, že zastarají, protože protivníci neustále generují nový, nezjistitelný malware.
Využívání LLM pro širší kybernetický zločin
Tento trend se neomezuje pouze na vývoj malwaru. Zlomyslní aktéři využívají nepoctivé nástroje, jako je WormGPT, které využívají generativní umělou inteligenci k automatizaci phishingových kampaní a vytvářejí přesvědčivé útoky sociálního inženýrství šité na míru konkrétním obětem.
Zatímco poskytovatelé LLM implementovali zábradlí, aby omezili zneužívání, jako je nedávné zablokování 20 podvodných operací OpenAI v říjnu 2024, aktéři hrozeb neustále hledají způsoby, jak tato omezení obejít.
Stříbrná podšívka: Boj s ohněm ohněm
Navzdory rizikům mohou obráncům pomoci stejné techniky založené na LLM, které se používají k zamlžování malwaru. Jednotka 42 navrhuje používat tyto metody umělé inteligence ke generování tréninkových dat, která zlepšují robustnost modelů detekce malwaru. Tím, že poskytnou klasifikátorům více příkladů zmateného kódu, by výzkumníci mohli potenciálně posílit svou schopnost detekovat i ty nejpokročilejší varianty.
Vznikající zranitelnosti AI: TPUXtract Attack
Vzestup malwaru poháněného LLM není jedinou hrozbou související s umělou inteligencí, která se dostává do titulků. Výzkumníci ze Státní univerzity v Severní Karolíně odhalili útok postranním kanálem nazvaný TPUXtract, který je schopen ukrást architektury modelů AI z jednotek TPU (Edge Tensor Processing Unit) společnosti Google.
Zachycováním elektromagnetických signálů vysílaných během dedukcí neuronové sítě mohou útočníci extrahovat podrobnosti, jako jsou typy vrstev, čísla uzlů, velikosti filtrů a aktivační funkce s přesností 99,91 %. Přestože tento útok vyžaduje fyzický přístup k zařízení a nákladnému vybavení, představuje vážné riziko pro duševní vlastnictví a mohl by usnadnit následné kybernetické útoky.
Co to znamená pro kybernetickou bezpečnost
Rychlý vývoj generativní umělé inteligence je dvousečný meč pro kybernetickou bezpečnost . I když otevírá nové dveře pro inovace, poskytuje také bezprecedentní nástroje pro kyberzločince.
- Organizace musí jednat proaktivně a investovat do pokročilých detekčních systémů schopných přizpůsobit se technikám zmatku řízeným umělou inteligencí.
- Tvůrci politik by měli stanovit jasná pravidla pro etické používání umělé inteligence a zároveň prosazovat přísnější kontroly, aby se zabránilo zneužití.
- Bezpečnostní výzkumníci musí využít AI, aby předstihli protivníky a vyvinuli odolné systémy, které mohou čelit vyvíjejícím se hrozbám.
Budoucnost AI malwaru
Schopnost LLM vytvořit 10 000 variant malwaru a vyhnout se detekci v 88 % případů je jasnou připomínkou rostoucí sofistikovanosti kybernetických hrozeb. Jak se vyvíjí technologie, musí se také vyvíjet naše obrana. Firmy, vlády a odborníci na kybernetickou bezpečnost musí přijmout inovativní strategie, aby si udrželi náskok před zlomyslnými aktéry a ochránili digitální svět před útoky poháněnými umělou inteligencí.