Задвижван от AI зловреден софтуер заплашва да претовари системите за откриване със създаването на 10 000 варианта

Изследователите на киберсигурността бият тревога за потенциалната злоупотреба с големи езикови модели (LLM) за стимулиране на развитието на зловреден софтуер. Нов анализ от отдел 42 на Palo Alto Networks разкрива, че LLMs, макар и да не са умели в създаването на злонамерен софтуер от нулата, могат да пренапишат и объркат съществуващ злонамерен код в огромен мащаб, създавайки варианти, които избягват откриването в до 88% от случаите.
Това поражда критични опасения за това как участниците в заплахата могат да експлоатират генеративния AI, за да заобиколят системите за откриване, да влошат моделите за машинно обучение и да внедрят непрекъснато разширяващ се арсенал от зловреден софтуер .
Съдържание
Механиката на създаването на злонамерен софтуер, подобрен с AI
„Според Unit 42, престъпниците могат да подтикнат LLMs да извършват трансформации на злонамерен JavaScript код, което прави по- трудно за системите за откриване да маркират пренаписаните скриптове . За разлика от традиционните инструменти за обфускация, които генерират по-малко убедителни резултати, управляваните от LLM пренаписвания изглеждат по-естествени и по-трудни за откриване.
Основните техники за трансформация включват:
- Преименуване на променливи
- Разделяне на низове
- Вмъкване на нежелан код
- Премахване на бели интервали
- Пълно повторно внедряване на кода
Всяка итерация генерира нов вариант на злонамерен софтуер, който поддържа оригиналната злонамерена функционалност, като същевременно значително намалява шансовете му да бъде открит.
Unit 42 демонстрира този подход, като използва LLM за създаване на 10 000 варианта на JavaScript от съществуващи образци на зловреден софтуер. Тези варианти успешно подмамиха класификаторите на зловреден софтуер, включително широко използвани модели като PhishingJS и Innocent Until Proven Guilty (IUPG). В много случаи дори платформата VirusTotal не успя да открие пренаписаните скриптове като злонамерени.
Опасното предимство на AI обфускацията
За разлика от по-старите инструменти като obfuscator.io, които произвеждат шаблони, които могат да бъдат по-лесно открити и отпечатани, пренаписванията, базирани на LLM, по своята същност са по-сложни. Те изглеждат по-близо до легитимния код, което ги прави по-трудни за идентифициране от моделите за машинно обучение (ML) и антивирусните инструменти.
Въздействието на този метод е дълбоко:
- Класификаторите на злонамерен софтуер са подмамени да етикетират злонамерените скриптове като доброкачествени.
- ML моделите страдат от влошаване на производителността, борейки се да бъдат в крак с постоянното развитие на вариантите на зловреден софтуер.
- Системите за откриване рискуват да остареят, тъй като противниците непрекъснато генерират нов, неоткриваем зловреден софтуер.
Използване на LLM за по-широка киберпрестъпност
Тази тенденция не се ограничава до разработването на зловреден софтуер. Злонамерените участници използват измамни инструменти като WormGPT, които използват генеративен AI за автоматизиране на фишинг кампании и създаване на убедителни атаки чрез социално инженерство, пригодени за конкретни жертви.
Въпреки че доставчиците на LLM са въвели предпазни огради за ограничаване на злоупотребите, като неотдавнашното блокиране на OpenAI на 20 измамни операции през октомври 2024 г., участниците в заплахите постоянно намират начини да заобиколят тези ограничения.
Сребърната подплата: Борба с огъня с огън
Въпреки рисковете, същите техники, управлявани от LLM, използвани за прикриване на зловреден софтуер, също могат да помогнат на защитниците. Раздел 42 предлага използването на тези методи на AI за генериране на обучителни данни, които подобряват устойчивостта на моделите за откриване на зловреден софтуер. Като предоставят на класификаторите повече примери за обфусциран код, изследователите биха могли потенциално да укрепят способността си да откриват дори най-напредналите варианти.
Нововъзникващи уязвимости на AI: TPUXtract атака
Възходът на задвижвания от LLM зловреден софтуер не е единствената заплаха, свързана с AI, която прави заглавия. Изследователи от Държавния университет на Северна Каролина разкриха атака на страничен канал, наречена TPUXtract, способна да открадне архитектури на AI модели от Edge Tensor Processing Units (TPU) на Google.
Чрез улавяне на електромагнитни сигнали, излъчвани по време на изводи на невронни мрежи, нападателите могат да извлекат подробности като видове слоеве, номера на възли, размери на филтри и функции за активиране с 99,91% точност. Въпреки че тази атака изисква физически достъп до устройството и скъпо оборудване, тя представлява сериозен риск за интелектуалната собственост и може да улесни последващи кибератаки.
Какво означава това за киберсигурността
Бързото развитие на генеративния AI е нож с две остриета за киберсигурността . Въпреки че отваря нови врати за иновации, той също така предоставя безпрецедентни инструменти за киберпрестъпниците.
- Организациите трябва да действат проактивно , като инвестират в усъвършенствани системи за откриване, способни да се адаптират към управлявани от AI техники за затъмняване.
- Политиците трябва да установят ясни насоки за етичното използване на ИИ, като същевременно налагат по-строг контрол за предотвратяване на злоупотреба.
- Изследователите по сигурността трябва да използват AI, за да изпреварват противниците , като разработват устойчиви системи, които могат да противодействат на развиващите се заплахи.
Бъдещето на AI зловреден софтуер
Способността на LLM да създават 10 000 варианта на злонамерен софтуер и да избягват откриването в 88% от случаите е ярко напомняне за нарастващата сложност на киберзаплахите. С развитието на технологиите трябва да се развиват и нашите защити. Бизнесът, правителствата и професионалистите в киберсигурността трябва да възприемат иновативни стратегии, за да изпреварят злонамерените участници и да защитят цифровия свят от атаки, задвижвани от AI.