Microsoft вживає судових заходів проти хакерів, які використовують штучний інтелект Azure у зловмисних цілях

Постійна боротьба Microsoft з кіберзлочинністю досягла нових висот завдяки останньому судовому позову проти групи хакерів, звинувачених у використанні генеративних служб Azure AI. Технологічний гігант виявив, що закордонні загрозливі особи створили платформу хакерства як послуги, щоб обійти протоколи безпеки Azure AI, дозволяючи створювати шкідливий вміст і шкідливе програмне забезпечення .
Цей випадок підкреслює ескалацію ризиків, пов’язаних із використанням кіберзлочинцями платформ штучного інтелекту для зловмисних цілей, що створює значні проблеми кібербезпеці для організацій у всьому світі.
Зміст
Як хакери використовували Azure AI від Microsoft
Відділ цифрових злочинів Microsoft (DCU) розкрив цю операцію в липні 2024 року. Група використовувала викрадені облікові дані клієнтів, зібрані з відкритих джерел, щоб зламати системи Azure і підробити моделі ШІ, такі як DALL-E від OpenAI.
Ключові деталі включають:
- Крадіжка облікових даних : для доступу до служб Azure OpenAI використовувалися викрадені ключі API Azure та дані автентифікації Entra ID.
- Створення шкідливого контенту : група монетизувала свій доступ, створивши інструменти для створення образливих зображень і обходу фільтрів вмісту ШІ.
- Злом як послуга : група продавала доступ до своїх інструментів через такі веб-сайти, як aitism[.]net , і поділилася інструкціями з використання з іншими кіберзлочинцями.
Ці дії призвели до незаконного створення тисяч шкідливих зображень і сприяння подальшому незаконному використанню штучного інтелекту, у той час як зловмисники намагалися стерти свої цифрові сліди.
Підключення до шкідливих програм
Зловживання послугами генеративного штучного інтелекту має ширші наслідки для розробки шкідливих програм . Потенційно суб’єкти загрози можуть:
- Створюйте фішингові приманки або підроблені веб-сайти, призначені для імітації надійних платформ.
Ця експлуатація підкреслює, як хакерські групи розвивають свою тактику, поєднуючи вкрадені облікові дані та розширені можливості штучного інтелекту для здійснення масштабних кібератак.
Експлуатація зворотного проксі та LLMjacking
Одним із помітних аспектів цього випадку є використання зворотних проксі-серверів, таких як інструмент de3u. Ці проксі перенаправляли дані з пристроїв користувачів через тунель Cloudflare до служб Azure OpenAI, імітуючи законні виклики API.
Ця техніка відображає тактику, визначену під час атак LLMjacking, коли викрадені облікові дані хмари використовуються для доступу до таких сервісів великої мовної моделі (LLM), як Anthropic, AWS Bedrock і Google Vertex AI. Такі схеми дозволяють зловмисникам захоплювати хмарні інструменти ШІ, часто монетизуючи доступ, продаючи його іншим злочинцям.
Контрзаходи Microsoft і ширші наслідки
У відповідь на цю операцію Microsoft:
- Відкликаний доступ : вимкнено вкрадені облікові дані групи та закрито її сервісну інфраструктуру.
- Захоплені домени : отримано ухвалу суду про закриття aitism[.]net .
- Посилений захист : реалізовано додаткові заходи безпеки для запобігання подібним зловживанням у майбутньому.
Однак Microsoft також виявила докази того, що група націлена на інших постачальників послуг штучного інтелекту, що свідчить про більшу тенденцію до зловживань штучним інтелектом у сфері кібербезпеки.
Інструменти AI: Палиця з двома кінцями
Хоча генеративні інструменти штучного інтелекту, такі як ChatGPT і DALL-E, пропонують величезні переваги, їх неправильне використання кіберзлочинцями підкреслює нагальну потребу в розширених протоколах безпеки:
- Безпека API : організації повинні забезпечити надійний захист ключів API, щоб запобігти несанкціонованому доступу.
- Моніторинг загроз : безперервний моніторинг використання служби AI може допомогти виявити та заблокувати аномальну поведінку.
Позов Microsoft проливає світло на небезпечний перетин ШІ та кіберзлочинності. Оскільки суб’єкти загрози все частіше використовують служби штучного інтелекту для створення шкідливого вмісту та розробки зловмисного програмного забезпечення, організації повинні приділяти пріоритет захисту своєї інфраструктури штучного інтелекту.
Цей випадок служить суворим нагадуванням: хоча штучний інтелект представляє майбутнє технологій, його вразливості можна використати як зброю, що робить надійні заходи кібербезпеки абсолютно необхідними для боротьби з цифровими загрозами.