Компьютерная безопасность Вредоносное ПО на базе искусственного интеллекта грозит...

Вредоносное ПО на базе искусственного интеллекта грозит перегрузить системы обнаружения, создав 10 000 вариантов

Исследователи кибербезопасности бьют тревогу по поводу потенциального злоупотребления большими языковыми моделями (LLM) для ускорения разработки вредоносного ПО. Новый анализ, проведенный подразделением 42 компании Palo Alto Networks, показывает, что LLM, хотя и не являются экспертами в создании вредоносного ПО с нуля, могут переписывать и запутывать существующий вредоносный код в огромных масштабах, создавая варианты, которые уклоняются от обнаружения в 88% случаев.

Это вызывает серьезные опасения относительно того, как злоумышленники могут использовать генеративный ИИ для обхода систем обнаружения, снижения эффективности моделей машинного обучения и развертывания постоянно расширяющегося арсенала вредоносного ПО .

Механизм создания вредоносного ПО с использованием искусственного интеллекта

«По данным Unit 42, преступники могут заставить LLM выполнять преобразования вредоносного кода JavaScript, что затрудняет обнаружение переписанных скриптов системами обнаружения . В отличие от традиционных инструментов обфускации, которые генерируют менее убедительные результаты, переписывания, управляемые LLM, выглядят более естественно и их сложнее обнаружить.

Ключевые методы трансформации включают в себя:

  • Переименование переменных
  • Разделение строк
  • Вставка нежелательного кода
  • Удаление пробелов
  • Полная переработка кода

Каждая итерация генерирует новый вариант вредоносного ПО, который сохраняет исходную вредоносную функциональность, но при этом значительно снижает вероятность его обнаружения.

Unit 42 продемонстрировал этот подход, используя LLM для создания 10 000 вариантов JavaScript из существующих образцов вредоносного ПО. Эти варианты успешно обманули классификаторы вредоносного ПО, включая широко используемые модели, такие как PhishingJS и Innocent Until Proven Guilty (IUPG). Во многих случаях даже платформа VirusTotal не смогла определить переписанные скрипты как вредоносные.

Опасная грань сокрытия информации об ИИ

В отличие от старых инструментов, таких как obfuscator.io, которые создают шаблоны, которые легче обнаружить и получить отпечатки пальцев, переписывания на основе LLM изначально более сложны. Они кажутся ближе к легитимному коду, что затрудняет их идентификацию моделями машинного обучения (ML) и антивирусными инструментами.

Влияние этого метода огромно:

  • Классификаторы вредоносных программ обманным путем маркируют вредоносные скрипты как безобидные.
  • Модели машинного обучения испытывают снижение производительности, пытаясь успевать за постоянной эволюцией вариантов вредоносного ПО.
  • Системы обнаружения рискуют устареть, поскольку злоумышленники постоянно генерируют новые, необнаруживаемые вредоносные программы.

Использование LLM для более масштабной киберпреступности

Эта тенденция не ограничивается разработкой вредоносного ПО. Злоумышленники используют мошеннические инструменты, такие как WormGPT, которые используют генеративный ИИ для автоматизации фишинговых кампаний и создания убедительных атак социальной инженерии, адаптированных под конкретных жертв.

Хотя поставщики LLM ввели ограничения для ограничения злоупотреблений, например, недавняя блокировка OpenAI 20 мошеннических операций в октябре 2024 года, злоумышленники постоянно находят способы обойти эти ограничения.

Хорошая новость: борьба с огнем с помощью огня

Несмотря на риски, те же методы LLM, которые используются для сокрытия вредоносного ПО, также могут помочь защитникам. Unit 42 предлагает использовать эти методы ИИ для генерации обучающих данных, которые повышают надежность моделей обнаружения вредоносного ПО. Скармливая классификаторам больше примеров сокрытия кода, исследователи потенциально могут усилить их способность обнаруживать даже самые продвинутые варианты.

Новые уязвимости ИИ: атака TPUXtract

Рост вредоносного ПО на основе LLM — не единственная угроза, связанная с ИИ, которая попала в заголовки. Исследователи из Университета штата Северная Каролина представили атаку по сторонним каналам, получившую название TPUXtract, способную красть архитектуры моделей ИИ из тензорных процессоров Edge (TPU) компании Google.

Захватывая электромагнитные сигналы, излучаемые во время выводов нейронной сети, злоумышленники могут извлекать такие данные, как типы слоев, номера узлов, размеры фильтров и функции активации с точностью 99,91%. Хотя эта атака требует физического доступа к устройству и дорогостоящего оборудования, она представляет серьезный риск для интеллектуальной собственности и может способствовать последующим кибератакам.

Что это значит для кибербезопасности

Стремительная эволюция генеративного ИИ — палка о двух концах для кибербезопасности . Открывая новые двери для инноваций, она также предоставляет беспрецедентные инструменты для киберпреступников.

  • Организации должны действовать проактивно , инвестируя в передовые системы обнаружения, способные адаптироваться к методам обфускации на основе искусственного интеллекта.
  • Политикам следует разработать четкие руководящие принципы этичного использования ИИ, одновременно применяя более строгий контроль для предотвращения его неправомерного использования.
  • Исследователи в области безопасности должны использовать ИИ, чтобы опережать противников , разрабатывая устойчивые системы, способные противостоять меняющимся угрозам.

Будущее вредоносного ПО на основе искусственного интеллекта

Способность LLM создавать 10 000 вариантов вредоносного ПО и избегать обнаружения в 88% случаев является суровым напоминанием о растущей сложности киберугроз. По мере развития технологий должны развиваться и наши средства защиты. Предприятия, правительства и специалисты по кибербезопасности должны использовать инновационные стратегии, чтобы опережать злоумышленников и защищать цифровой мир от атак с использованием искусственного интеллекта.

Загрузка...