Microsoft предприема правни действия срещу хакери, експлоатиращи Azure AI за злонамерени цели

Продължаващата битка на Microsoft срещу киберпрестъпността достигна нови висоти с последното си съдебно дело срещу хакерска група, обвинена в експлоатация на генеративните AI услуги на Azure. Технологичният гигант разкри, че чуждестранните заплахи са създали платформа за хакване като услуга, за да заобиколят протоколите за безопасност на Azure AI, позволявайки създаването на вредно съдържание и зловреден софтуер .
Този случай подчертава ескалиращите рискове, породени от киберпрестъпниците, които използват AI платформи за злонамерени цели, поставяйки значителни предизвикателства пред киберсигурността за организации по целия свят.
Съдържание
Как хакери експлоатираха Azure AI на Microsoft
Отделът за дигитални престъпления (DCU) на Microsoft разкри операцията през юли 2024 г. Групата използва откраднати идентификационни данни на клиенти, събрани от публични източници, за да пробие системите на Azure и да подправи AI модели като DALL-E на OpenAI.
Ключовите подробности включват:
- Кражба на идентификационни данни : Откраднатите API ключове на Azure и данните за удостоверяване на Entra ID са използвани за достъп до услугите на Azure OpenAI.
- Създаване на вредно съдържание : Групата монетизира достъпа си чрез създаване на инструменти за генериране на обидни изображения и заобикаляне на филтрите за съдържание с изкуствен интелект.
- Хакване като услуга : Групата продаваше достъп до своите инструменти чрез уебсайтове като aitism[.]net и споделяше инструкции за използване с други киберпрестъпници.
Тези дейности доведоха до незаконното генериране на хиляди вредни изображения и улесняването на по-нататъшна незаконна злоупотреба с AI, докато извършителите се опитваха да изтрият цифровите си отпечатъци.
Връзката със зловреден софтуер
Злоупотребата с генеративни AI услуги има по-широки последици за развитието на зловреден софтуер . Актьорите на заплаха потенциално могат:
- Генерирайте фишинг примамки или фалшиви уебсайтове, предназначени да имитират надеждни платформи.
Тази експлоатация подчертава как хакерските групи развиват своите тактики, смесвайки откраднати идентификационни данни и усъвършенствани възможности на AI, за да извършват мащабни кибератаки.
Експлоатация на обратен прокси и LLMjacking
Един забележителен аспект на случая е използването на обратни проксита, като инструмента de3u. Тези прокси сървъри пренасочват комуникациите от потребителски устройства през тунел на Cloudflare към услуги на Azure OpenAI, имитирайки легитимни API повиквания.
Тази техника отразява тактиката, идентифицирана при атаки на LLMjacking, при които откраднатите идентификационни данни в облака се използват за достъп до услуги с голям езиков модел (LLM) като Anthropic, AWS Bedrock и Google Vertex AI. Такива схеми позволяват на участниците в заплахата да отвличат базирани на облака AI инструменти, често монетизирайки достъпа, като го продават на други престъпници.
Контрамерките на Microsoft и по-широките последици
В отговор на тази операция Microsoft:
- Отменен достъп : Деактивира откраднатите идентификационни данни на групата и затвори тяхната сервизна инфраструктура.
- Конфискувани домейни : Получена е съдебна заповед за затваряне на aitism[.]net .
- Подсилени защити : Внедрени са допълнителни предпазни мерки за предотвратяване на подобни злоупотреби в бъдеще.
Въпреки това, Microsoft също откри доказателства за групата, насочена към други доставчици на AI услуги, което предполага по-голяма тенденция на злоупотреба с AI в пейзажа на киберсигурността.
AI инструменти: нож с две остриета
Докато генеративните AI инструменти като ChatGPT и DALL-E предлагат огромни предимства, злоупотребата им от киберпрестъпници подчертава спешната нужда от подобрени протоколи за сигурност:
- Сигурност на API : Организациите трябва да осигурят стабилна защита за ключовете на API, за да предотвратят неоторизиран достъп.
- Наблюдение на заплахите : Непрекъснатото наблюдение на използването на услугата за изкуствен интелект може да помогне за откриване и блокиране на аномално поведение.
Делото на Microsoft хвърля светлина върху опасната пресечна точка между AI и киберпрестъпността. Тъй като участниците в заплахите все повече експлоатират AI услуги за генериране на вредно съдържание и разработване на зловреден софтуер, организациите трябва да дадат приоритет на защитата на своята AI инфраструктура.
Случаят служи като силно напомняне: докато AI представлява бъдещето на технологиите, неговите уязвимости могат да бъдат използвани като оръжия, което прави стабилните мерки за киберсигурност абсолютна необходимост в борбата срещу цифровите заплахи.