База данных угроз Уязвимость Разработанная с помощью ИИ уязвимость для двухфакторной...

Разработанная с помощью ИИ уязвимость для двухфакторной аутентификации

Исследователи в области кибербезопасности обнаружили ранее неидентифицированного злоумышленника, использующего уязвимость нулевого дня, предположительно разработанную с помощью искусственного интеллекта. Это первый задокументированный случай активного использования ИИ в реальных вредоносных операциях для обнаружения уязвимостей и создания эксплойтов.

Следователи связывают эту кампанию с действиями скоординированных групп киберпреступников, которые, по всей видимости, сотрудничали в рамках масштабной инициативы по использованию уязвимостей. Анализ цепочки атак выявил уязвимость нулевого дня, встроенную в скрипт на языке Python, способный обходить двухфакторную аутентификацию (2FA) в широко используемой открытой веб-платформе администрирования систем.

Хотя прямых доказательств связи инструмента Google Gemini AI с этой операцией нет, исследователи с высокой степенью уверенности пришли к выводу, что модель ИИ сыграла значительную роль в обнаружении и использовании уязвимости в качестве оружия. Код на Python демонстрировал множество характеристик, обычно связанных с результатами работы больших языковых моделей (LLM), включая высокоструктурированное форматирование, обширные пояснения к документации, подробные меню справки и чистую реализацию цветовой индикации ANSI. Скрипт также содержал сфабрикованный показатель CVSS, распространенный пример ИИ-галлюцинаций.

Как работает эксплойт для обхода двухфакторной аутентификации

Выявленная уязвимость требовала для успешного функционирования действительных учетных данных пользователя. Исследователи установили, что недостаток возник из-за семантической логической слабости, вызванной жестко закодированным предположением о доверии в процессе аутентификации приложения. Подобные логические ошибки высокого уровня все чаще находятся в пределах аналитических возможностей современных систем LLM.

Эксперты по безопасности предупреждают, что ИИ значительно ускоряет каждый этап жизненного цикла кибератаки, от обнаружения уязвимостей до проверки эксплойтов и оперативного развертывания. Растущее использование ИИ злоумышленниками сокращает время и усилия, необходимые для выявления слабых мест и осуществления атак, что создает все большее давление на специалистов по кибербезопасности.

Искусственный интеллект расширяет возможности для создания вредоносного ПО и эксплуатации уязвимостей.

Искусственный интеллект больше не ограничивается помощью в исследовании уязвимостей. Злоумышленники теперь используют ИИ для создания полиморфных вредоносных программ, автоматизации вредоносных операций и сокрытия функциональности атак. Один из ярких примеров — PromptSpy, разновидность вредоносной программы для Android, которая использует Gemini для анализа активности на экране и выдачи инструкций, позволяющих вредоносной программе оставаться в списке последних приложений.

Исследователи также задокументировали несколько громких случаев, связанных со злонамеренной деятельностью с использованием Gemini:

По имеющимся данным, связанная с Китаем группа кибершпионажа UNC2814 использовала персонализированные запросы на взлом устройств, чтобы заставить компанию Gemini принять на себя роль эксперта по сетевой безопасности. Целью было содействие исследованиям уязвимостей, нацеленных на встроенные устройства, включая прошивку TP-Link и реализации протокола передачи файлов Odette (OFTP).

Предполагается, что северокорейская группа киберпреступников APT45 рассылала тысячи рекурсивных запросов, предназначенных для анализа уязвимостей CVE и проверки работоспособности эксплойтов.

По имеющимся данным, китайская хакерская группа APT27 использовала Gemini для ускорения разработки приложения для управления парком устройств, предположительно предназначенного для управления инфраструктурой оперативных ретрансляционных блоков (ORB).

В рамках операций по внедрению вредоносного ПО, связанных с Россией и направленных на украинские организации, использовались семейства вредоносных программ с поддержкой ИИ, известные как CANFAIL и LONGSTREAM, в которых использовался сгенерированный LLM-программой код-приманка для маскировки вредоносного поведения.

Использование обучающих данных в качестве оружия и автономные операции с использованием ИИ

Кроме того, было замечено, что злоумышленники экспериментируют со специализированным репозиторием GitHub под названием «wooyun-legacy», разработанным как плагин для Claude code skill. Репозиторий содержит более 5000 реальных случаев уязвимостей, первоначально собранных китайской платформой для раскрытия информации об уязвимостях WooYun в период с 2010 по 2016 год.

Вводя этот набор данных в системы искусственного интеллекта, злоумышленники могут обеспечить контекстное обучение, которое позволяет обучать модели анализу исходного кода с точностью опытных специалистов по безопасности. Это значительно повышает способность ИИ выявлять тонкие логические ошибки, которые стандартные модели могут упустить из виду.

Исследователи также выявили, что предполагаемый связанный с Китаем киберпреступник использовал инструменты искусственного интеллекта, такие как Hexstrike AI и Strix, во время атак на японскую технологическую компанию и крупную восточноазиатскую платформу кибербезопасности. Сообщается, что эти инструменты позволяли проводить автоматизированные операции по разведке и обнаружению с минимальным участием человека.

Растущие последствия применения наступательного искусственного интеллекта для безопасности

Полученные результаты подчеркивают серьезные изменения в ландшафте киберугроз. Искусственный интеллект быстро превращается из инструмента повышения производительности в фактор, многократно усиливающий эффективность наступательных кибер-операций. От обнаружения уязвимостей нулевого дня до автоматизации развертывания вредоносного ПО и повышения оперативной скрытности, искусственный интеллект коренным образом меняет подходы к планированию и осуществлению кибератак.

По мере развития возможностей кибербезопасности, основанных на искусственном интеллекте, организации сталкиваются с будущим, в котором атаки становятся быстрее, адаптивнее и все труднее обнаруживаются до того, как будет нанесен ущерб.

В тренде

Наиболее просматриваемые

Загрузка...