Door AI aangestuurde malware dreigt detectiesystemen te overweldigen met de creatie van 10.000 varianten

Cybersecurity-onderzoekers luiden de alarmbel over het mogelijke misbruik van grote taalmodellen (LLM's) om malware-ontwikkeling te versnellen. Een nieuwe analyse door Unit 42 van Palo Alto Networks onthult dat LLM's, hoewel ze niet bedreven zijn in het creëren van malware vanaf nul, bestaande kwaadaardige code op grote schaal kunnen herschrijven en verdoezelen, waardoor varianten ontstaan die in 88% van de gevallen detectie ontwijken.
Dit roept ernstige zorgen op over de manier waarop kwaadwillenden generatieve AI kunnen misbruiken om detectiesystemen te omzeilen, machine learning-modellen te degraderen en een steeds groter arsenaal aan malware te implementeren .
Inhoudsopgave
De mechanica van AI-verbeterde malwarecreatie
'Volgens Unit 42 kunnen criminelen LLM's ertoe aanzetten om transformaties uit te voeren op kwaadaardige JavaScript-code, waardoor het voor detectiesystemen moeilijker wordt om de herschreven scripts te markeren . In tegenstelling tot traditionele verduisteringstools die minder overtuigende outputs genereren, lijken LLM-gestuurde herschrijvingen natuurlijker en moeilijker te detecteren.
Belangrijke transformatietechnieken zijn:
- Variabele hernoemen
- String splitsen
- Invoegen van ongewenste code
- Verwijderen van witruimte
- Volledige code-herimplementatie
Elke iteratie genereert een nieuwe malwarevariant die de oorspronkelijke schadelijke functionaliteit behoudt, maar de kans op detectie aanzienlijk verkleint.
Unit 42 demonstreerde deze aanpak door LLM's te gebruiken om 10.000 JavaScript-varianten te maken van bestaande malware-samples. Deze varianten wisten malware-classificatoren, waaronder veelgebruikte modellen als PhishingJS en Innocent Until Proven Guilty (IUPG), succesvol te misleiden. In veel gevallen kon zelfs het VirusTotal-platform de herschreven scripts niet als kwaadaardig detecteren.
De gevaarlijke kant van AI-verduistering
In tegenstelling tot oudere tools zoals obfuscator.io, die patronen produceren die gemakkelijker kunnen worden gedetecteerd en gefingerprint, zijn LLM-gebaseerde herschrijvingen inherent geavanceerder. Ze lijken dichter bij legitieme code, waardoor ze moeilijker te identificeren zijn voor machine learning (ML)-modellen en antivirustools.
De impact van deze methode is groot:
- Malwareclassificatoren worden misleid om kwaadaardige scripts als onschadelijk te bestempelen.
- ML-modellen lijden aan prestatievermindering, omdat ze moeite hebben om gelijke tred te houden met de voortdurende evolutie van malwarevarianten.
- Detectiesystemen lopen het risico verouderd te raken, omdat tegenstanders voortdurend nieuwe, niet-detecteerbare malware genereren.
Het benutten van LLM's voor bredere cybercriminaliteit
Deze trend beperkt zich niet tot malware-ontwikkeling. Kwaadwillende actoren maken gebruik van malafide tools zoals WormGPT, die generatieve AI gebruiken om phishingcampagnes te automatiseren en overtuigende social engineering-aanvallen te maken die zijn afgestemd op specifieke slachtoffers.
Hoewel LLM-aanbieders maatregelen hebben genomen om misbruik te beperken, zoals de recente blokkade van twintig misleidende handelingen door OpenAI in oktober 2024, vinden kwaadwillenden voortdurend manieren om deze beperkingen te omzeilen.
Het lichtpuntje: vuur met vuur bestrijden
Ondanks de risico's kunnen dezelfde LLM-gestuurde technieken die worden gebruikt om malware te verdoezelen, ook verdedigers helpen. Unit 42 suggereert om deze AI-methoden te gebruiken om trainingsdata te genereren die de robuustheid van malwaredetectiemodellen verbeteren. Door classifiers meer voorbeelden van verdoezelde code te geven, zouden onderzoekers mogelijk hun vermogen om zelfs de meest geavanceerde varianten te detecteren, kunnen versterken.
Opkomende AI-kwetsbaarheden: TPUXtract-aanval
De opkomst van LLM-aangedreven malware is niet de enige AI-gerelateerde bedreiging die in het nieuws komt. Onderzoekers van North Carolina State University hebben een side-channel-aanval onthuld, TPUXtract genaamd, die in staat is om AI-modelarchitecturen te stelen van Google's Edge Tensor Processing Units (TPU's).
Door elektromagnetische signalen vast te leggen die worden uitgezonden tijdens neurale netwerkinferenties, kunnen aanvallers details zoals laagtypen, knooppuntnummers, filtergroottes en activeringsfuncties extraheren met een nauwkeurigheid van 99,91%. Hoewel deze aanval fysieke toegang tot het apparaat en kostbare apparatuur vereist, vormt het een ernstig risico voor intellectueel eigendom en kan het vervolgcyberaanvallen vergemakkelijken.
Wat dit betekent voor cyberbeveiliging
De snelle evolutie van generatieve AI is een tweesnijdend zwaard voor cybersecurity . Terwijl het nieuwe deuren opent voor innovatie, biedt het ook ongekende tools voor cybercriminelen.
- Organisaties moeten proactief handelen en investeren in geavanceerde detectiesystemen die zich kunnen aanpassen aan AI-gestuurde verduisteringstechnieken.
- Beleidsmakers moeten duidelijke richtlijnen opstellen voor het ethische gebruik van AI en tegelijkertijd strengere controles afdwingen om misbruik te voorkomen.
- Beveiligingsonderzoekers moeten AI inzetten om tegenstanders voor te zijn door veerkrachtige systemen te ontwikkelen die zich aanpassen aan veranderende bedreigingen.
De toekomst van AI-malware
Het vermogen van LLM's om 10.000 malwarevarianten te creëren en detectie in 88% van de gevallen te ontwijken, is een duidelijke herinnering aan de toenemende verfijning van cyberdreigingen. Naarmate de technologie evolueert, moeten onze verdedigingen dat ook doen. Bedrijven, overheden en cybersecurityprofessionals moeten innovatieve strategieën omarmen om kwaadwillende actoren voor te blijven en de digitale wereld te beschermen tegen door AI aangestuurde aanvallen.