Microsoft подала в суд на хакеров, использующих искусственный интеллект Azure в вредоносных целях

Продолжающаяся борьба Microsoft с киберпреступностью достигла новых высот с ее последним иском против хакерской группы, обвиняемой в эксплуатации служб генеративного ИИ Azure. Технологический гигант сообщил, что иностранные злоумышленники создали платформу хакерства как услуги для обхода протоколов безопасности Azure AI, что позволило создавать вредоносный контент и вредоносное ПО .
Этот случай подчеркивает растущие риски, связанные с использованием киберпреступниками платформ ИИ в вредоносных целях, что создает серьезные проблемы кибербезопасности для организаций по всему миру.
Оглавление
Как хакеры использовали искусственный интеллект Microsoft Azure
Подразделение Microsoft по борьбе с цифровыми преступлениями (DCU) раскрыло операцию в июле 2024 года. Группа использовала украденные учетные данные клиентов, полученные из открытых источников, для взлома систем Azure и вмешательства в модели искусственного интеллекта, такие как DALL-E компании OpenAI.
Ключевые детали включают в себя:
- Кража учетных данных : украденные ключи API Azure и данные аутентификации Entra ID использовались для доступа к службам Azure OpenAI.
- Создание вредоносного контента : группа монетизировала свой доступ, создавая инструменты для генерации оскорбительных изображений и обхода фильтров контента ИИ.
- Взлом как услуга : группа продавала доступ к своим инструментам через такие сайты, как aitism[.]net , и делилась инструкциями по использованию с другими киберпреступниками.
Эти действия привели к незаконному созданию тысяч вредоносных изображений и содействию дальнейшему незаконному использованию искусственного интеллекта, при этом преступники пытались стереть свои цифровые следы.
Связь с вредоносным ПО
Злоупотребление генеративными услугами ИИ имеет более широкие последствия для разработки вредоносного ПО . Злоумышленники могут потенциально:
- Создавайте фишинговые приманки или поддельные веб-сайты, имитирующие доверенные платформы.
Эта эксплуатация демонстрирует, как хакерские группы совершенствуют свою тактику, сочетая украденные учетные данные и передовые возможности искусственного интеллекта для проведения масштабных кибератак.
Эксплуатация обратного прокси-сервера и LLMjacking
Одним из примечательных аспектов этого дела является использование обратных прокси, таких как инструмент de3u. Эти прокси перенаправляли сообщения с пользовательских устройств через туннель Cloudflare в службы Azure OpenAI, имитируя законные вызовы API.
Эта техника отражает тактику, выявленную в атаках LLMjacking, где украденные облачные учетные данные используются для доступа к сервисам большой языковой модели (LLM), таким как Anthropic, AWS Bedrock и Google Vertex AI. Такие схемы позволяют злоумышленникам захватывать облачные инструменты ИИ, часто монетизируя доступ, продавая его другим преступникам.
Контрмеры Microsoft и более широкие последствия
В ответ на эту операцию Microsoft:
- Отменен доступ : украденные учетные данные группы отключены, а инфраструктура их обслуживания закрыта.
- Изъятые домены : получено постановление суда о закрытии aitism[.]net .
- Усиление защиты : Внедрены дополнительные меры безопасности для предотвращения подобных злоупотреблений в будущем.
Однако Microsoft также обнаружила доказательства того, что группа нацелилась на других поставщиков услуг ИИ, что свидетельствует о более масштабной тенденции злоупотребления ИИ в сфере кибербезопасности.
Инструменты ИИ: палка о двух концах
Хотя инструменты генеративного ИИ, такие как ChatGPT и DALL-E, предлагают огромные преимущества, их неправомерное использование киберпреступниками подчеркивает острую необходимость в усовершенствованных протоколах безопасности:
- Безопасность API : организации должны обеспечить надежную защиту ключей API для предотвращения несанкционированного доступа.
- Мониторинг угроз : постоянный мониторинг использования служб ИИ может помочь обнаружить и блокировать аномальное поведение.
Иск Microsoft проливает свет на опасное пересечение ИИ и киберпреступности. Поскольку субъекты угроз все чаще используют службы ИИ для создания вредоносного контента и разработки вредоносного ПО, организациям следует уделять первостепенное внимание защите своей инфраструктуры ИИ.
Этот случай служит суровым напоминанием: хотя ИИ представляет собой будущее технологий, его уязвимости можно использовать в качестве оружия, что делает надежные меры кибербезопасности абсолютно необходимыми в борьбе с цифровыми угрозами.