Bezpieczeństwo komputerowe Microsoft podejmuje kroki prawne przeciwko hakerom...

Microsoft podejmuje kroki prawne przeciwko hakerom wykorzystującym Azure AI do złośliwych celów

Trwająca walka Microsoftu z cyberprzestępczością osiągnęła nowe szczyty dzięki najnowszemu pozwowi skierowanemu przeciwko grupie hakerów oskarżonej o wykorzystywanie usług generatywnej AI platformy Azure. Gigant technologiczny ujawnił, że zagraniczni aktorzy zagrożeń stworzyli platformę hakowania jako usługi, aby ominąć protokoły bezpieczeństwa Azure AI, umożliwiając tworzenie szkodliwych treści i złośliwego oprogramowania .

Przypadek ten uwypukla rosnące ryzyko, jakie stwarzają cyberprzestępcy wykorzystujący platformy AI do złośliwych celów. Stwarza to poważne wyzwania w zakresie cyberbezpieczeństwa dla organizacji na całym świecie.

Jak hakerzy wykorzystali sztuczną inteligencję Azure firmy Microsoft

Jednostka ds. przestępstw cyfrowych (DCU) firmy Microsoft odkryła operację w lipcu 2024 r. Grupa wykorzystała skradzione dane uwierzytelniające klientów, zebrane z publicznych źródeł, do włamania się do systemów Azure i manipulowania modelami AI, takimi jak DALL-E firmy OpenAI.

Kluczowe szczegóły obejmują:

  • Kradzież danych uwierzytelniających : Skradzione klucze API platformy Azure i dane uwierzytelniające Entra ID zostały wykorzystane w celu uzyskania dostępu do usług Azure OpenAI.
  • Tworzenie szkodliwych treści : Grupa czerpała zyski z dostępu, tworząc narzędzia do generowania obraźliwych obrazów i omijania filtrów treści opartych na sztucznej inteligencji.
  • Hacking-as-a-Service : Grupa sprzedawała dostęp do swoich narzędzi za pośrednictwem stron internetowych, takich jak aitism[.]net , i udostępniała instrukcje użytkowania innym cyberprzestępcom.

Działania te doprowadziły do bezprawnego wygenerowania tysięcy szkodliwych obrazów i ułatwienia dalszych nielegalnych nadużyć sztucznej inteligencji, podczas gdy sprawcy próbowali zatrzeć swoje cyfrowe ślady.

Połączenie ze złośliwym oprogramowaniem

Nadmierne wykorzystywanie usług generatywnej AI ma szersze implikacje dla rozwoju złośliwego oprogramowania . Podmioty zagrożeń mogą potencjalnie:

  • Generuj przynęty phishingowe lub fałszywe strony internetowe, które mają naśladować zaufane platformy.
  • Wykorzystaj narzędzia AI do automatyzacji kodowania złośliwego oprogramowania, dzięki czemu stanie się ono bardziej wyrafinowane i trudniejsze do wykrycia.
  • Omijaj filtry bezpieczeństwa, wykorzystując narzędzia przeznaczone do legalnych zastosowań, takich jak tłumaczenie języków i synteza danych.
  • Ten przypadek pokazuje, w jaki sposób grupy hakerów udoskonalają swoje taktyki, łącząc skradzione dane uwierzytelniające z zaawansowanymi możliwościami sztucznej inteligencji w celu przeprowadzania cyberataków na dużą skalę.

    Wykorzystanie odwrotnego proxy i LLMjacking

    Jednym z godnych uwagi aspektów tej sprawy jest użycie odwrotnych serwerów proxy, takich jak narzędzie de3u. Te serwery proxy przekierowywały komunikację z urządzeń użytkowników przez tunel Cloudflare do usług Azure OpenAI, naśladując legalne wywołania API.

    Ta technika odzwierciedla taktyki zidentyfikowane w atakach LLMjacking, w których skradzione dane uwierzytelniające w chmurze są wykorzystywane do uzyskiwania dostępu do usług LLM (Large Language Model), takich jak Anthropic, AWS Bedrock i Google Vertex AI. Takie schematy pozwalają atakującym przejmować narzędzia AI oparte na chmurze, często zarabiając na dostępie poprzez sprzedaż go innym przestępcom.

    Środki zaradcze Microsoftu i szersze implikacje

    W odpowiedzi na tę operację firma Microsoft:

    • Odwołany dostęp : Wyłączono skradzione dane uwierzytelniające grupy i zamknięto infrastrukturę usług.
    • Zajęte domeny : Uzyskano nakaz sądowy nakazujący zamknięcie aitism[.]net .
    • Wzmocnione środki obrony : Wprowadzono dodatkowe zabezpieczenia, aby zapobiec podobnym nadużyciom w przyszłości.

    Jednak Microsoft odkrył również dowody na to, że grupa ta miała na celu również innych dostawców usług AI, co wskazuje na większą tendencję do nadużywania AI w obszarze cyberbezpieczeństwa.

    Narzędzia AI: Miecz obosieczny

    Choć narzędzia sztucznej inteligencji generatywnej, takie jak ChatGPT i DALL-E, oferują ogromne korzyści, ich niewłaściwe wykorzystanie przez cyberprzestępców uwypukla pilną potrzebę ulepszonych protokołów bezpieczeństwa:

    1. Bezpieczeństwo interfejsu API : Organizacje muszą zadbać o solidną ochronę kluczy API, aby zapobiec nieautoryzowanemu dostępowi.
    2. Monitorowanie zagrożeń : Ciągły monitoring wykorzystania usług AI może pomóc w wykrywaniu i blokowaniu nietypowych zachowań.
  • Współpraca : Dostawcy usług w chmurze, firmy zajmujące się cyberbezpieczeństwem i organy ścigania muszą ze sobą współpracować, aby wyeliminować takie operacje.
  • Pozew Microsoftu rzuca światło na niebezpieczne skrzyżowanie AI i cyberprzestępczości. Ponieważ aktorzy zagrożeń coraz częściej wykorzystują usługi AI do generowania szkodliwych treści i tworzenia złośliwego oprogramowania, organizacje muszą nadać priorytet zabezpieczeniu swojej infrastruktury AI.

    Przypadek ten stanowi brutalne przypomnienie, że choć sztuczna inteligencja stanowi przyszłość technologii, jej słabości mogą stać się bronią. W związku z tym solidne środki bezpieczeństwa cybernetycznego stają się absolutną koniecznością w walce z zagrożeniami cyfrowymi.

    Ładowanie...