Зловмисне програмне забезпечення на основі ШІ загрожує перевантажити системи виявлення через створення 10 000 варіантів

Дослідники з кібербезпеки б’ють на сполох через потенційне зловживання великими мовними моделями (LLM) для прискорення розробки зловмисного програмного забезпечення. Новий аналіз, проведений підрозділом 42 Palo Alto Networks, показує, що LLMs, хоча і не вміють створювати зловмисне програмне забезпечення з нуля, можуть переписувати та маскувати існуючий шкідливий код у величезних масштабах, створюючи варіанти, які уникають виявлення у 88% випадків.
Це викликає серйозне занепокоєння щодо того, як суб’єкти загроз можуть використовувати генеративний штучний інтелект, щоб обійти системи виявлення, погіршити моделі машинного навчання та розгорнути арсенал шкідливих програм, що постійно розширюється .
Зміст
Механіка створення зловмисного програмного забезпечення за допомогою ШІ
«Згідно з розділом 42, злочинці можуть спонукати LLM виконувати перетворення шкідливого коду JavaScript, що ускладнює системам виявлення позначення переписаних сценаріїв . На відміну від традиційних інструментів обфускації, які генерують менш переконливі результати, перезаписи, керовані LLM, виглядають більш природними та їх важче виявити.
Основні методи трансформації включають:
- Перейменування змінної
- Розщеплення рядків
- Вставка небажаного коду
- Видалення пробілів
- Повне перевизначення коду
Кожна ітерація генерує новий варіант зловмисного програмного забезпечення, який зберігає початкові шкідливі функції, суттєво знижуючи ймовірність виявлення.
Підрозділ 42 продемонстрував цей підхід, використовуючи LLMs для створення 10 000 варіантів JavaScript із існуючих зразків шкідливого програмного забезпечення. Ці варіанти успішно обманювали класифікатори зловмисного програмного забезпечення, включаючи широко використовувані моделі, такі як PhishingJS і Innocent Until Proven Guilty (IUPG). У багатьох випадках навіть платформі VirusTotal не вдалося виявити переписані сценарії як шкідливі.
Небезпечна грань обфускації ШІ
На відміну від старіших інструментів, таких як obfuscator.io, які створюють шаблони, які легше виявляти та знімати відбитки, перезаписи на основі LLM за своєю суттю є більш складними. Вони виглядають ближче до законного коду, що ускладнює їх ідентифікацію моделям машинного навчання (ML) і антивірусним інструментам.
Вплив цього методу глибокий:
- Класифікатори зловмисного програмного забезпечення обманом позначають шкідливі сценарії як безпечні.
- Моделі ML зазнають зниження продуктивності, намагаючись не відставати від постійної еволюції варіантів шкідливого програмного забезпечення.
- Системи виявлення ризикують застаріти, оскільки зловмисники постійно створюють свіже шкідливе програмне забезпечення, яке неможливо виявити.
Використання магістерських програм для ширшої кіберзлочинності
Ця тенденція не обмежується розробкою шкідливих програм. Зловмисники використовують шахрайські інструменти, такі як WormGPT, які використовують генеративний штучний інтелект для автоматизації фішингових кампаній і створення переконливих атак соціальної інженерії, адаптованих до конкретних жертв.
Хоча провайдери LLM запровадили огорожі для обмеження зловживань, як-от нещодавнє блокування OpenAI 20 оманливих операцій у жовтні 2024 року, зловмисники постійно знаходять способи обійти ці обмеження.
Срібна підкладка: боротьба з вогнем вогнем
Незважаючи на ризики, методи, керовані LLM, які використовуються для обфускації зловмисного програмного забезпечення, також можуть допомогти захисникам. Розділ 42 пропонує використовувати ці методи штучного інтелекту для створення навчальних даних, які покращують надійність моделей виявлення зловмисного програмного забезпечення. Надаючи класифікаторам більше прикладів заплутаного коду, дослідники потенційно можуть підвищити свою здатність виявляти навіть найдосконаліші варіанти.
Нові вразливості ШІ: атака TPUXtract
Зростання кількості зловмисних програм на базі LLM — не єдина загроза, пов’язана зі штучним інтелектом, яка потрапляє в заголовки газет. Дослідники з Університету штату Північна Кароліна оприлюднили атаку на побічному каналі, яка отримала назву TPUXtract, яка здатна викрасти архітектури моделі штучного інтелекту з блоків обробки периферійних тензорів (TPU) Google.
Захоплюючи електромагнітні сигнали, що випромінюються під час висновків нейронної мережі, зловмисники можуть витягувати такі деталі, як типи шарів, номери вузлів, розміри фільтрів і функції активації з точністю 99,91%. Хоча ця атака потребує фізичного доступу до пристрою та дорогого обладнання, вона становить серйозний ризик для інтелектуальної власності та може сприяти подальшим кібератакам.
Що це означає для кібербезпеки
Швидка еволюція генеративного ШІ є двосічним мечем для кібербезпеки . Хоча він відкриває нові двері для інновацій, він також надає безпрецедентні інструменти для кіберзлочинців.
- Організації повинні діяти проактивно , інвестуючи в передові системи виявлення, здатні адаптуватися до методів обфускації, керованих ШІ.
- Розробники політики повинні встановити чіткі вказівки щодо етичного використання штучного інтелекту, одночасно запроваджуючи суворіший контроль для запобігання зловживанням.
- Дослідники безпеки повинні використовувати штучний інтелект, щоб випереджати противників , розробляючи стійкі системи, які можуть протистояти загрозам, що розвиваються.
Майбутнє зловмисного програмного забезпечення ШІ
Здатність LLM створювати 10 000 варіантів шкідливого програмного забезпечення та уникати виявлення у 88% випадків є яскравим нагадуванням про зростаючу складність кіберзагроз. З розвитком технологій повинні розвиватися і наші засоби захисту. Підприємства, уряди та фахівці з кібербезпеки повинні застосовувати інноваційні стратегії, щоб випереджати зловмисників і захистити цифровий світ від атак за допомогою ШІ.