Microsoft poduzima pravne korake protiv hakera koji iskorištavaju Azure AI u zlonamjerne svrhe

Microsoftova stalna borba protiv kibernetičkog kriminala dosegla je nove visine svojom posljednjom tužbom protiv hakerske skupine optužene za iskorištavanje Azureovih generativnih AI usluga. Tehnološki div otkrio je da su akteri prijetnji sa sjedištem u inozemstvu stvorili platformu hakiranja kao usluge za zaobilaženje sigurnosnih protokola Azure AI, omogućujući stvaranje štetnog sadržaja i zlonamjernog softvera .
Ovaj slučaj naglašava sve veće rizike koje kibernetički kriminalci koriste AI platformama u zlonamjerne svrhe, što predstavlja značajne izazove kibernetičke sigurnosti za organizacije širom svijeta.
Sadržaj
Kako su hakeri iskoristili Microsoftov Azure AI
Microsoftova Jedinica za digitalne zločine (DCU) otkrila je operaciju u srpnju 2024. Grupa je koristila ukradene korisničke vjerodajnice, prikupljene iz javnih izvora, za probijanje Azure sustava i petljanje s AI modelima kao što je OpenAI DALL-E.
Ključni detalji uključuju:
- Krađa vjerodajnica : Ukradeni Azure API ključevi i podaci za autentifikaciju Entra ID-a korišteni su za pristup Azure OpenAI uslugama.
- Stvaranje štetnog sadržaja : Grupa je unovčila svoj pristup stvaranjem alata za generiranje uvredljivih slika i zaobilaženje filtara AI sadržaja.
- Hakiranje kao usluga : Grupa je prodavala pristup svojim alatima putem web stranica kao što je aitism[.]net i dijelila upute za korištenje s drugim kibernetičkim kriminalcima.
Ove su aktivnosti dovele do nezakonitog stvaranja tisuća štetnih slika i omogućavanja daljnje nedopuštene zlouporabe umjetne inteligencije, dok su počinitelji pokušavali izbrisati svoje digitalne otiske.
Veza sa zlonamjernim softverom
Zlouporaba generativnih AI usluga ima šire implikacije na razvoj zlonamjernog softvera . Akteri prijetnje mogu potencijalno:
- Generirajte mamce za krađu identiteta ili lažne web stranice dizajnirane da oponašaju pouzdane platforme.
Ovo iskorištavanje naglašava kako hakerske skupine razvijaju svoje taktike, spajajući ukradene vjerodajnice i napredne AI sposobnosti za izvođenje kibernetičkih napada na velikim razmjerima.
Obrnuto iskorištavanje proxyja i LLMjacking
Jedan značajan aspekt slučaja je korištenje obrnutih proxyja, kao što je alat de3u. Ti su proxyji preusmjeravali komunikaciju s korisničkih uređaja kroz Cloudflare tunel na Azure OpenAI usluge, oponašajući legitimne API pozive.
Ova tehnika odražava taktiku identificiranu u LLMjacking napadima, gdje se ukradene vjerodajnice iz oblaka koriste za pristup uslugama velikog jezičnog modela (LLM) kao što su Anthropic, AWS Bedrock i Google Vertex AI. Takve sheme omogućuju akterima prijetnji da otmu alate AI-a temeljene na oblaku, često unovčavajući pristup prodajom drugim kriminalcima.
Microsoftove protumjere i šire implikacije
Kao odgovor na ovu operaciju, Microsoft:
- Opozvan pristup : Onemogućene su ukradene vjerodajnice grupe i zatvorena njihova servisna infrastruktura.
- Zaplijenjene domene : Dobiven sudski nalog za gašenje aitism[.]net .
- Ojačana obrana : Implementirane dodatne zaštite za sprječavanje sličnih zloporaba u budućnosti.
Međutim, Microsoft je također otkrio dokaze o grupi koja cilja na druge pružatelje usluga umjetne inteligencije, što ukazuje na veći trend zlouporabe umjetne inteligencije u krajoliku kibernetičke sigurnosti.
AI alati: dvosjekli mač
Iako generativni AI alati kao što su ChatGPT i DALL-E nude goleme prednosti, njihova zlouporaba od strane kibernetičkih kriminalaca naglašava hitnu potrebu za poboljšanim sigurnosnim protokolima:
- Sigurnost API-ja : Organizacije moraju osigurati snažnu zaštitu za API ključeve kako bi spriječile neovlašteni pristup.
- Praćenje prijetnji : Kontinuirano praćenje korištenja usluge umjetne inteligencije može pomoći u otkrivanju i blokiranju nenormalnog ponašanja.
Microsoftova tužba rasvjetljava opasno sjecište umjetne inteligencije i kibernetičkog kriminala. Kako akteri prijetnji sve više iskorištavaju AI usluge za generiranje štetnog sadržaja i razvoj zlonamjernog softvera, organizacije moraju dati prioritet zaštiti svoje AI infrastrukture.
Slučaj služi kao snažan podsjetnik: dok umjetna inteligencija predstavlja budućnost tehnologije, njezine se ranjivosti mogu koristiti oružjem, što robusne mjere kibernetičke sigurnosti čini apsolutno neophodnim u borbi protiv digitalnih prijetnji.