Іранські хакери зловживали ChatGPT у кібератаках, націлених на критичну інфраструктуру

У новаторському звіті OpenAI розкрив, як іранські хакери використовували ChatGPT для посилення кібератак на промислові системи управління (ICS). Звіт проливає світло на кіберактивність таких груп, як CyberAv3ngers, пов’язаних з Корпусом вартових ісламської революції (КВІР) Ірану, та інших, спонсорованих Китаєм.
Ці суб’єкти загрози використовували ChatGPT для розвідки, використання вразливостей і дій після злому. Хоча OpenAI підкреслює, що штучний інтелект не запропонував нових можливостей, він допоміг цим хакерам проводити атаки ефективніше, використовуючи загальнодоступні методи.
Зміст
Іранська група CyberAv3ngers і атаки на водопостачання
Цього року CyberAv3ngers здобули сумну популярність через націлювання на підприємства водопостачання в Ірландії та Пенсільванії, спричинивши значні збої. Група використовувала погано захищені системи ICS, які були відкритими для Інтернету та використовували паролі за замовчуванням. Їхня увага була зосереджена на програмованих логічних контролерах (PLC), критичних пристроях, що керують промисловими процесами.
Їх використання ChatGPT передбачало запити у чат-бота інформації про промислові маршрутизатори, ПЛК і паролі за замовчуванням для пристроїв критичної інфраструктури, таких як маршрутизатори Tridium Niagara та Hirschmann RS.
Зловживання ШІ для кібератак
На додаток до цілей, специфічних для ICS, CyberAv3ngers звернулися за допомогою до ChatGPT для обфускації шкідливого коду та сканування мереж на наявність уразливостей, які можна використовувати. Група також намагалася знайти способи доступу до паролів macOS.
Однак OpenAI уточнив, що ця діяльність не надала хакерам жодних нових або розширених можливостей, окрім тих, що доступні за допомогою інструментів, не пов’язаних зі штучним інтелектом. Це підкреслює небезпеку неправильного використання ШІ, навіть якщо отримана інформація не є революційною.
Інші залучені суб’єкти загрози
Окрім CyberAv3ngers, інша іранська група, відома як Storm-0817, зловживала ChatGPT. Вони намагалися розробити зловмисне програмне забезпечення для Android і зібрати дані Instagram, використовуючи штучний інтелект для перекладу профілів LinkedIn на перську мову. Незважаючи на те, що ці дії не завдають такої прямої шкоди, як атаки ICS, вони відображають ширші зусилля з використання ШІ як зброї в кіберопераціях.
Пов'язана з Китаєм SweetSpectre також згадується у звіті. Ця група використовувала ChatGPT для розробки шкідливих програм і дослідження вразливостей. Зокрема, SweetSpectre намагався надіслати електронні листи зі зловмисним програмним забезпеченням співробітникам OpenAI, але атаку було зірвано до того, як вона досягла своїх цілей.
Велика картина
У звіті підкреслюється зростаючий ризик неправильного використання ШІ в кібервійні. Хоча AI, включаючи ChatGPT, може оптимізувати завдання для законних користувачів, він також може служити інструментом для зловмисників. Проактивний підхід OpenAI до виявлення та нейтралізації цих загроз є життєво важливим для стримування їх впливу.
Це викликає запитання для індустрії кібербезпеки: як можна захистити штучний інтелект від зловживання? Які заходи необхідні для того, щоб загрози не використовували такі інструменти для підвищення своїх можливостей?
Ці відкриття повинні спонукати галузі та уряди переглянути стратегії безпеки, особливо для критичної інфраструктури, і визначити пріоритетність усунення прогалин, які дозволяють хакерам використовувати вразливі системи.
ШІ має величезний потенціал для розвитку промисловості та підвищення ефективності. Але, як показує звіт, це також палиця з двома кінцями. При неправильному використанні він може розширити можливості кіберзлочинців і державних акторів. Щоб випередити ці загрози, потрібна постійна пильність, міцніший захист і відповідальна розробка технологій ШІ.
Роль ChatGPT у цих інцидентах може бути обмеженою, але вона слугує тривожним сигналом для ширшого впливу ШІ на ландшафт кібербезпеки.