Microsoft podniká právne kroky proti hackerom, ktorí využívajú Azure AI na škodlivé účely

Prebiehajúci boj Microsoftu proti počítačovej kriminalite dosiahol novú úroveň vďaka svojmu najnovšiemu súdnemu sporu zameranému na hackerskú skupinu obvinenú zo zneužívania generatívnych služieb AI Azure. Technologický gigant odhalil, že zahraniční aktéri hrozieb vytvorili platformu hacking-as-a-service s cieľom obísť bezpečnostné protokoly Azure AI, čo umožňuje vytváranie škodlivého obsahu a malvéru .
Tento prípad podčiarkuje stupňujúce sa riziká, ktoré predstavujú počítačoví zločinci využívajúci platformy AI na škodlivé účely, čo predstavuje pre organizácie na celom svete významné výzvy v oblasti kybernetickej bezpečnosti.
Obsah
Ako hackeri využili Azure AI od Microsoftu
Oddelenie digitálnych zločinov (DCU) spoločnosti Microsoft odhalilo operáciu v júli 2024. Skupina použila ukradnuté zákaznícke prihlasovacie údaje zozbierané z verejných zdrojov na prelomenie systémov Azure a manipuláciu s modelmi AI, ako je OpenAI DALL-E.
Kľúčové podrobnosti zahŕňajú:
- Krádež poverení : Na prístup k službám Azure OpenAI sa použili odcudzené kľúče API Azure a overovacie údaje Entra ID.
- Vytváranie škodlivého obsahu : Skupina speňažila svoj prístup vytvorením nástrojov na generovanie urážlivých obrázkov a obchádzanie filtrov obsahu AI.
- Hacking-as-a-Service : Skupina predávala prístup k svojim nástrojom prostredníctvom webových stránok ako aitism[.]net a zdieľala pokyny na používanie s inými kyberzločincami.
Tieto aktivity viedli k nezákonnému vytváraniu tisícok škodlivých obrázkov a napomáhaniu ďalšieho nezákonného zneužívania AI, pričom sa páchatelia pokúšali vymazať svoje digitálne stopy.
Malvérové pripojenie
Zneužívanie generatívnych služieb AI má širšie dôsledky pre vývoj malvéru . Aktéri hrozieb môžu potenciálne:
- Vytvárajte návnady na phishing alebo falošné webové stránky navrhnuté tak, aby napodobňovali dôveryhodné platformy.
Toto využitie poukazuje na to, ako hackerské skupiny vyvíjajú svoje taktiky, kombinujú ukradnuté poverenia a pokročilé možnosti AI na vykonávanie kybernetických útokov vo veľkom rozsahu.
Reverzné využívanie proxy a LLMjacking
Jedným z pozoruhodných aspektov prípadu je použitie reverzných proxy serverov, ako je napríklad nástroj de3u. Tieto servery proxy presmerovali komunikáciu z používateľských zariadení cez tunel Cloudflare do služieb Azure OpenAI, čím napodobňovali legitímne volania API.
Táto technika odzrkadľuje taktiku identifikovanú pri útokoch LLMjacking, kde sa ukradnuté cloudové poverenia používajú na prístup k službám veľkých jazykových modelov (LLM), ako sú Anthropic, AWS Bedrock a Google Vertex AI. Takéto schémy umožňujú aktérom hrozby uniesť nástroje AI založené na cloude, pričom často speňažia prístup predajom iným zločincom.
Protiopatrenia spoločnosti Microsoft a širšie dôsledky
V reakcii na túto operáciu spoločnosť Microsoft:
- Zrušený prístup : Zakázal ukradnuté poverenia skupiny a zatvoril ich infraštruktúru služieb.
- Zabavené domény : Získal súdny príkaz na vypnutie siete aitism[.]net .
- Posilnená obrana : Implementované dodatočné bezpečnostné opatrenia, aby sa v budúcnosti zabránilo podobnému zneužívaniu.
Microsoft však objavil aj dôkazy o tom, že skupina sa zameriava na iných poskytovateľov služieb AI, čo naznačuje väčší trend zneužívania AI v prostredí kybernetickej bezpečnosti.
Nástroje AI: Dvojsečný meč
Zatiaľ čo generatívne nástroje AI ako ChatGPT a DALL-E ponúkajú obrovské výhody, ich zneužitie kyberzločincami zdôrazňuje naliehavú potrebu vylepšených bezpečnostných protokolov:
- Zabezpečenie API : Organizácie musia zabezpečiť robustnú ochranu pre kľúče API, aby zabránili neoprávnenému prístupu.
- Monitorovanie hrozieb : Nepretržité monitorovanie využívania služieb AI môže pomôcť odhaliť a blokovať anomálne správanie.
Žaloba Microsoftu vrhá svetlo na nebezpečnú križovatku AI a počítačovej kriminality. Keďže aktéri hrozieb čoraz viac využívajú služby AI na generovanie škodlivého obsahu a vývoj malvéru, organizácie musia uprednostňovať ochranu svojej infraštruktúry AI.
Prípad slúži ako ostrá pripomienka: zatiaľ čo umelá inteligencia predstavuje budúcnosť technológie, jej zraniteľné miesta možno využiť ako zbrane, vďaka čomu sú robustné opatrenia kybernetickej bezpečnosti absolútnou nevyhnutnosťou v boji proti digitálnym hrozbám.