Иранские хакеры использовали ChatGPT в кибератаках, нацеленных на критическую инфраструктуру

В новаторском отчете OpenAI раскрыл, как иранские хакеры использовали ChatGPT для усиления кибератак на промышленные системы управления (ICS). Отчет проливает свет на киберактивность, осуществляемую такими группами, как CyberAv3ngers, связанными с Корпусом стражей исламской революции (КСИР) Ирана, и другими, спонсируемыми Китаем.
Эти злоумышленники использовали ChatGPT для разведки, эксплуатации уязвимостей и действий после компрометации. Хотя OpenAI подчеркивает, что ИИ не предлагал новых возможностей, он помог этим хакерам проводить атаки более эффективно, используя общедоступные методы.
Оглавление
Иранские группировки CyberAv3ngers и атаки на водные объекты
В этом году CyberAv3ngers приобрели известность за атаки на водоканалы в Ирландии и Пенсильвании, вызвав значительные сбои. Группа использовала плохо защищенные системы ICS, которые были открыты для доступа в Интернет и использовали пароли по умолчанию. Их внимание было сосредоточено на программируемых логических контроллерах (ПЛК), критических устройствах, управляющих промышленными процессами.
Использование ChatGPT включало в себя запрос чат-боту информации о промышленных маршрутизаторах, ПЛК и паролях по умолчанию для критически важных инфраструктурных устройств, таких как маршрутизаторы Tridium Niagara и Hirschmann RS.
Неправомерное использование ИИ для кибератак
Помимо целей, связанных с ICS, CyberAv3ngers обратились за помощью к ChatGPT, чтобы скрыть вредоносный код и просканировать сети на предмет уязвимостей, которые можно эксплуатировать. Группа также попыталась найти способы доступа к паролям macOS.
Однако OpenAI пояснила, что эти действия не предоставили хакерам никаких новых или продвинутых возможностей, выходящих за рамки того, что доступно через инструменты, не связанные с ИИ. Это подчеркивает опасность злоупотребления ИИ, даже если полученная информация не является революционной.
Другие вовлеченные субъекты угрозы
Помимо CyberAv3ngers, другая иранская группа, известная как Storm-0817, злоупотребляла ChatGPT. Они пытались разработать вредоносное ПО для Android и выкрасть данные Instagram, используя ИИ для перевода профилей LinkedIn на персидский язык. Хотя эти действия не наносят такого прямого ущерба, как атаки ICS, они отражают более широкие усилия по использованию ИИ в кибероперациях.
В отчете также упоминается связанная с Китаем группа SweetSpectre. Эта группа использовала ChatGPT для разработки вредоносного ПО и исследования уязвимостей. В частности, SweetSpectre пыталась отправлять вредоносные электронные письма сотрудникам OpenAI, но атака была предотвращена до того, как она достигла своих целей.
Общая картина
В отчете подчеркивается растущий риск злоупотребления ИИ в кибервойне. Хотя ИИ, включая ChatGPT, может оптимизировать задачи для законных пользователей, он также может служить инструментом для злоумышленников. Проактивный подход OpenAI к обнаружению и нейтрализации этих угроз имеет жизненно важное значение для сдерживания их воздействия.
Это поднимает вопросы для индустрии кибербезопасности: как можно защитить ИИ от неправомерного использования? Какие меры необходимы, чтобы не допустить использования злоумышленниками таких инструментов для расширения своих возможностей?
Эти разоблачения должны побудить отрасли и правительства пересмотреть стратегии безопасности, особенно для критически важной инфраструктуры, и уделить первоочередное внимание устранению брешей, которые позволяют хакерам использовать уязвимые системы.
ИИ обладает огромным потенциалом для развития отраслей и повышения эффективности. Но, как показывает отчет, это также палка о двух концах. При неправильном использовании он может усилить возможности киберпреступников и государственных субъектов. Чтобы опережать эти угрозы, требуется постоянная бдительность, более сильная защита и ответственная разработка технологий ИИ.
Роль ChatGPT в этих инцидентах может быть ограниченной, но она служит сигналом к более широкому влиянию ИИ на сферу кибербезопасности.