Počítačová bezpečnost Microsoft podniká právní kroky proti hackerům...

Microsoft podniká právní kroky proti hackerům zneužívajícím Azure AI pro škodlivé účely

Pokračující boj Microsoftu proti kyberzločinu dosáhl nových výšin s jeho nejnovější žalobou zaměřenou na hackerskou skupinu obviněnou ze zneužívání generativních služeb AI Azure. Technologický gigant odhalil, že zahraniční aktéři hrozeb vytvořili platformu hacking-as-a-service, která obchází bezpečnostní protokoly Azure AI a umožňuje vytvářet škodlivý obsah a malware .

Tento případ podtrhuje stupňující se rizika, která představují kyberzločinci využívající platformy umělé inteligence pro škodlivé účely, což představuje pro organizace po celém světě významné výzvy v oblasti kybernetické bezpečnosti.

Jak hackeři zneužívali Azure AI společnosti Microsoft

Oddělení digitálních zločinů (DCU) společnosti Microsoft odhalilo operaci v červenci 2024. Skupina využila ukradených přihlašovacích údajů zákazníků shromážděných z veřejných zdrojů k narušení systémů Azure a manipulaci s modely umělé inteligence, jako je DALL-E od OpenAI.

Mezi klíčové údaje patří:

  • Krádež pověření : K přístupu ke službám Azure OpenAI byly použity odcizené klíče Azure API a ověřovací data Entra ID.
  • Vytváření škodlivého obsahu : Skupina zpeněžila svůj přístup vytvořením nástrojů pro generování urážlivých obrázků a obcházení filtrů obsahu AI.
  • Hacking-as-a-Service : Skupina prodávala přístup ke svým nástrojům prostřednictvím webových stránek jako aitism[.]net a sdílela pokyny k použití s dalšími kyberzločinci.

Tyto aktivity vedly k nezákonnému vytváření tisíců škodlivých obrázků a napomáhání dalšímu nezákonnému zneužívání umělé inteligence, zatímco se pachatelé pokoušeli vymazat své digitální stopy.

Malware Connection

Zneužívání generativních služeb AI má širší důsledky pro vývoj malwaru . Aktéři hrozeb mohou potenciálně:

  • Vytvářejte phishingové návnady nebo falešné webové stránky navržené tak, aby napodobovaly důvěryhodné platformy.
  • Používejte nástroje AI k automatizaci kódování malwaru, díky čemuž je propracovanější a obtížnější odhalit.
  • Obejít bezpečnostní filtry využitím nástrojů navržených pro legitimní použití, jako je jazykový překlad a syntéza dat.
  • Toto využití ukazuje, jak hackerské skupiny vyvíjejí své taktiky, kombinují ukradená pověření a pokročilé schopnosti umělé inteligence k provádění kybernetických útoků ve velkém měřítku.

    Reverzní využívání proxy a LLMjacking

    Jedním z pozoruhodných aspektů případu je použití reverzních proxy, jako je nástroj de3u. Tyto proxy přesměrovaly komunikaci z uživatelských zařízení prostřednictvím tunelu Cloudflare do služeb Azure OpenAI, čímž napodobovaly legitimní volání API.

    Tato technika odráží taktiku identifikovanou při útocích LLMjacking, kde se k přístupu ke službám velkého jazykového modelu (LLM), jako jsou Anthropic, AWS Bedrock a Google Vertex AI, používají odcizené cloudové přihlašovací údaje. Tato schémata umožňují aktérům hrozeb unést cloudové nástroje umělé inteligence a často zpeněžit přístup prodejem jiným zločincům.

    Protiopatření společnosti Microsoft a širší důsledky

    V reakci na tuto operaci společnost Microsoft:

    • Zrušený přístup : Zakázala odcizené přihlašovací údaje skupiny a uzavřela infrastrukturu služeb.
    • Zabavené domény : Získal soudní příkaz k uzavření sítě aitism[.]net .
    • Posílená obrana : Implementována další ochranná opatření, aby se předešlo podobnému zneužití v budoucnu.

    Microsoft však také objevil důkazy o tom, že se skupina zaměřuje na jiné poskytovatele služeb AI, což naznačuje větší trend zneužívání AI v prostředí kybernetické bezpečnosti.

    Nástroje AI: Dvousečný meč

    Zatímco generativní nástroje AI jako ChatGPT a DALL-E nabízejí obrovské výhody, jejich zneužití kyberzločinci zdůrazňuje naléhavou potřebu vylepšených bezpečnostních protokolů:

    1. Zabezpečení API : Organizace musí zajistit robustní ochranu pro klíče API, aby zabránily neoprávněnému přístupu.
    2. Sledování hrozeb : Nepřetržité sledování využívání služeb AI může pomoci detekovat a blokovat anomální chování.
  • Spolupráce : Poskytovatelé cloudu, firmy zabývající se kybernetickou bezpečností a orgány činné v trestním řízení musí spolupracovat na odstranění takových operací.
  • Žaloba Microsoftu vrhá světlo na nebezpečnou křižovatku AI a kyberzločinu. Vzhledem k tomu, že aktéři hrozeb stále více využívají služby AI k vytváření škodlivého obsahu a vývoji malwaru, musí organizace upřednostňovat zabezpečení své infrastruktury AI.

    Případ slouží jako ostrá připomínka: zatímco umělá inteligence představuje budoucnost technologie, její zranitelnost lze využít jako zbraň, díky čemuž jsou robustní opatření kybernetické bezpečnosti absolutní nutností v boji proti digitálním hrozbám.

    Načítání...