Microsoft ia măsuri legale împotriva hackerilor care exploatează Azure AI în scopuri rău intenționate

Lupta continuă a Microsoft împotriva criminalității cibernetice a atins noi culmi cu cel mai recent proces care vizează un grup de hacking acuzat că exploatează serviciile AI generative ale Azure. Gigantul tehnologic a dezvăluit că actorii amenințărilor din străinătate au creat o platformă de hacking-as-a-service pentru a ocoli protocoalele de siguranță ale Azure AI, permițând crearea de conținut dăunător și malware .
Acest caz subliniază riscurile crescânde prezentate de infractorii cibernetici care folosesc platformele AI în scopuri rău intenționate, punând provocări semnificative de securitate cibernetică pentru organizațiile din întreaga lume.
Cuprins
Cum au exploatat hackerii Microsoft Azure AI
Digital Crimes Unit (DCU) a Microsoft a dezvăluit operațiunea în iulie 2024. Grupul a folosit acreditările de clienți furate, culese din surse publice, pentru a încălca sistemele Azure și a modifica modele AI precum DALL-E de la OpenAI.
Detaliile cheie includ:
- Furtul de acreditări : cheile API Azure furate și datele de autentificare Entra ID au fost folosite pentru a accesa serviciile Azure OpenAI.
- Creare de conținut dăunător : grupul și-a monetizat accesul creând instrumente pentru a genera imagini jignitoare și a ocoli filtrele de conținut AI.
- Hacking-as-a-Service : grupul a vândut accesul la instrumentele lor prin intermediul site-urilor web precum aitism[.]net și a partajat instrucțiuni de utilizare cu alți criminali cibernetici.
Aceste activități au condus la generarea ilegală a mii de imagini dăunătoare și la facilitarea abuzului ilicit suplimentar de IA, toate în timp ce făptuitorii încercau să-și ștergă amprentele digitale.
Conexiunea malware
Abuzul de servicii generative de inteligență artificială are implicații mai largi pentru dezvoltarea de malware . Actorii care amenință pot:
- Generați momeli de phishing sau site-uri web false concepute pentru a imita platformele de încredere.
Această exploatare evidențiază modul în care grupurile de hacking își dezvoltă tacticile, combinând acreditările furate și capabilitățile avansate de AI pentru a conduce atacuri cibernetice la scară.
Exploatarea proxy inversă și LLMjacking
Un aspect notabil al cazului este utilizarea proxy-urilor inverse, cum ar fi instrumentul de3u. Acești proxy au redirecționat comunicațiile de la dispozitivele utilizatorului printr-un tunel Cloudflare către serviciile Azure OpenAI, imitând apelurile API legitime.
Această tehnică reflectă tacticile identificate în atacurile LLMjacking, în care acreditările cloud furate sunt folosite pentru a accesa servicii de model de limbaj mare (LLM) precum Anthropic, AWS Bedrock și Google Vertex AI. Astfel de scheme le permit actorilor de amenințări să deturneze instrumente AI bazate pe cloud, adesea monetând accesul prin vânzarea acestuia altor infractori.
Contramăsurile Microsoft și implicații mai largi
Ca răspuns la această operațiune, Microsoft:
- Acces revocat : a dezactivat acreditările furate ale grupului și i-a închis infrastructura de servicii.
- Domenii confiscate : a obținut un ordin judecătoresc pentru a închide aitism[.]net .
- Apărări consolidate : au implementat măsuri de protecție suplimentare pentru a preveni abuzuri similare în viitor.
Cu toate acestea, Microsoft a descoperit și dovezi ale grupului care vizează alți furnizori de servicii AI, sugerând o tendință mai mare de abuz de AI în peisajul securității cibernetice.
Instrumente AI: o sabie cu două tăișuri
În timp ce instrumentele AI generative precum ChatGPT și DALL-E oferă beneficii imense, utilizarea lor greșită de către infractorii cibernetici evidențiază nevoia urgentă de protocoale de securitate îmbunătățite:
- Securitate API : organizațiile trebuie să asigure o protecție solidă pentru cheile API pentru a preveni accesul neautorizat.
- Monitorizarea amenințărilor : monitorizarea continuă a utilizării serviciului AI poate ajuta la detectarea și blocarea comportamentului anormal.
Procesul Microsoft aruncă lumină asupra intersecției periculoase dintre inteligența artificială și criminalitatea cibernetică. Pe măsură ce actorii amenințărilor exploatează tot mai mult serviciile AI pentru a genera conținut dăunător și pentru a dezvolta programe malware, organizațiile trebuie să acorde prioritate protejării infrastructurii AI.
Cazul servește drept memento dur: în timp ce AI reprezintă viitorul tehnologiei, vulnerabilitățile acesteia pot fi armate, făcând măsuri solide de securitate cibernetică o necesitate absolută în lupta împotriva amenințărilor digitale.