Microsoft podejmuje kroki prawne przeciwko hakerom wykorzystującym Azure AI do złośliwych celów

Trwająca walka Microsoftu z cyberprzestępczością osiągnęła nowe szczyty dzięki najnowszemu pozwowi skierowanemu przeciwko grupie hakerów oskarżonej o wykorzystywanie usług generatywnej AI platformy Azure. Gigant technologiczny ujawnił, że zagraniczni aktorzy zagrożeń stworzyli platformę hakowania jako usługi, aby ominąć protokoły bezpieczeństwa Azure AI, umożliwiając tworzenie szkodliwych treści i złośliwego oprogramowania .
Przypadek ten uwypukla rosnące ryzyko, jakie stwarzają cyberprzestępcy wykorzystujący platformy AI do złośliwych celów. Stwarza to poważne wyzwania w zakresie cyberbezpieczeństwa dla organizacji na całym świecie.
Spis treści
Jak hakerzy wykorzystali sztuczną inteligencję Azure firmy Microsoft
Jednostka ds. przestępstw cyfrowych (DCU) firmy Microsoft odkryła operację w lipcu 2024 r. Grupa wykorzystała skradzione dane uwierzytelniające klientów, zebrane z publicznych źródeł, do włamania się do systemów Azure i manipulowania modelami AI, takimi jak DALL-E firmy OpenAI.
Kluczowe szczegóły obejmują:
- Kradzież danych uwierzytelniających : Skradzione klucze API platformy Azure i dane uwierzytelniające Entra ID zostały wykorzystane w celu uzyskania dostępu do usług Azure OpenAI.
- Tworzenie szkodliwych treści : Grupa czerpała zyski z dostępu, tworząc narzędzia do generowania obraźliwych obrazów i omijania filtrów treści opartych na sztucznej inteligencji.
- Hacking-as-a-Service : Grupa sprzedawała dostęp do swoich narzędzi za pośrednictwem stron internetowych, takich jak aitism[.]net , i udostępniała instrukcje użytkowania innym cyberprzestępcom.
Działania te doprowadziły do bezprawnego wygenerowania tysięcy szkodliwych obrazów i ułatwienia dalszych nielegalnych nadużyć sztucznej inteligencji, podczas gdy sprawcy próbowali zatrzeć swoje cyfrowe ślady.
Połączenie ze złośliwym oprogramowaniem
Nadmierne wykorzystywanie usług generatywnej AI ma szersze implikacje dla rozwoju złośliwego oprogramowania . Podmioty zagrożeń mogą potencjalnie:
- Generuj przynęty phishingowe lub fałszywe strony internetowe, które mają naśladować zaufane platformy.
Ten przypadek pokazuje, w jaki sposób grupy hakerów udoskonalają swoje taktyki, łącząc skradzione dane uwierzytelniające z zaawansowanymi możliwościami sztucznej inteligencji w celu przeprowadzania cyberataków na dużą skalę.
Wykorzystanie odwrotnego proxy i LLMjacking
Jednym z godnych uwagi aspektów tej sprawy jest użycie odwrotnych serwerów proxy, takich jak narzędzie de3u. Te serwery proxy przekierowywały komunikację z urządzeń użytkowników przez tunel Cloudflare do usług Azure OpenAI, naśladując legalne wywołania API.
Ta technika odzwierciedla taktyki zidentyfikowane w atakach LLMjacking, w których skradzione dane uwierzytelniające w chmurze są wykorzystywane do uzyskiwania dostępu do usług LLM (Large Language Model), takich jak Anthropic, AWS Bedrock i Google Vertex AI. Takie schematy pozwalają atakującym przejmować narzędzia AI oparte na chmurze, często zarabiając na dostępie poprzez sprzedaż go innym przestępcom.
Środki zaradcze Microsoftu i szersze implikacje
W odpowiedzi na tę operację firma Microsoft:
- Odwołany dostęp : Wyłączono skradzione dane uwierzytelniające grupy i zamknięto infrastrukturę usług.
- Zajęte domeny : Uzyskano nakaz sądowy nakazujący zamknięcie aitism[.]net .
- Wzmocnione środki obrony : Wprowadzono dodatkowe zabezpieczenia, aby zapobiec podobnym nadużyciom w przyszłości.
Jednak Microsoft odkrył również dowody na to, że grupa ta miała na celu również innych dostawców usług AI, co wskazuje na większą tendencję do nadużywania AI w obszarze cyberbezpieczeństwa.
Narzędzia AI: Miecz obosieczny
Choć narzędzia sztucznej inteligencji generatywnej, takie jak ChatGPT i DALL-E, oferują ogromne korzyści, ich niewłaściwe wykorzystanie przez cyberprzestępców uwypukla pilną potrzebę ulepszonych protokołów bezpieczeństwa:
- Bezpieczeństwo interfejsu API : Organizacje muszą zadbać o solidną ochronę kluczy API, aby zapobiec nieautoryzowanemu dostępowi.
- Monitorowanie zagrożeń : Ciągły monitoring wykorzystania usług AI może pomóc w wykrywaniu i blokowaniu nietypowych zachowań.
Pozew Microsoftu rzuca światło na niebezpieczne skrzyżowanie AI i cyberprzestępczości. Ponieważ aktorzy zagrożeń coraz częściej wykorzystują usługi AI do generowania szkodliwych treści i tworzenia złośliwego oprogramowania, organizacje muszą nadać priorytet zabezpieczeniu swojej infrastruktury AI.
Przypadek ten stanowi brutalne przypomnienie, że choć sztuczna inteligencja stanowi przyszłość technologii, jej słabości mogą stać się bronią. W związku z tym solidne środki bezpieczeństwa cybernetycznego stają się absolutną koniecznością w walce z zagrożeniami cyfrowymi.