Sicurezza informatica Microsoft intraprende azioni legali contro gli hacker che...

Microsoft intraprende azioni legali contro gli hacker che sfruttano l'intelligenza artificiale di Azure per scopi dannosi

La battaglia in corso di Microsoft contro la criminalità informatica ha raggiunto nuove vette con la sua ultima causa contro un gruppo di hacker accusato di sfruttare i servizi di intelligenza artificiale generativa di Azure. Il gigante della tecnologia ha rivelato che gli attori della minaccia con sede all'estero hanno creato una piattaforma di hacking-as-a-service per aggirare i protocolli di sicurezza di Azure AI, consentendo la creazione di contenuti dannosi e malware .

Questo caso sottolinea i crescenti rischi posti dai criminali informatici che sfruttano le piattaforme di intelligenza artificiale per scopi malevoli, ponendo notevoli sfide alla sicurezza informatica per le organizzazioni di tutto il mondo.

Come gli hacker hanno sfruttato l'intelligenza artificiale di Azure di Microsoft

La Digital Crimes Unit (DCU) di Microsoft ha scoperto l'operazione nel luglio 2024. Il gruppo ha utilizzato credenziali rubate dei clienti, raccolte da fonti pubbliche, per violare i sistemi di Azure e manomettere modelli di intelligenza artificiale come DALL-E di OpenAI.

I dettagli principali includono:

  • Furto di credenziali : chiavi API di Azure rubate e dati di autenticazione ID Entra sono stati utilizzati per accedere ai servizi Azure OpenAI.
  • Creazione di contenuti dannosi : il gruppo ha monetizzato il proprio accesso creando strumenti per generare immagini offensive e aggirare i filtri dei contenuti basati sull'intelligenza artificiale.
  • Hacking-as-a-Service : il gruppo vendeva l'accesso ai propri strumenti tramite siti web come aitism[.]net e condivideva le istruzioni per l'uso con altri criminali informatici.

Queste attività hanno portato alla generazione illegale di migliaia di immagini dannose e alla facilitazione di ulteriori abusi illeciti dell'intelligenza artificiale, il tutto mentre i colpevoli tentavano di cancellare le loro impronte digitali.

La connessione malware

L'abuso dei servizi di intelligenza artificiale generativa ha implicazioni più ampie per lo sviluppo di malware . Gli attori della minaccia possono potenzialmente:

  • Generare esche di phishing o siti web falsi progettati per imitare piattaforme affidabili.
  • Utilizzare strumenti di intelligenza artificiale per automatizzare la codifica del malware, rendendolo più sofisticato e difficile da rilevare.
  • Aggirare i filtri di sicurezza sfruttando strumenti progettati per usi legittimi, come la traduzione linguistica e la sintesi dei dati.
  • Questa affermazione mette in luce come i gruppi di hacker stiano evolvendo le loro tattiche, combinando credenziali rubate e capacità avanzate di intelligenza artificiale per condurre attacchi informatici su larga scala.

    Sfruttamento del proxy inverso e LLMjacking

    Un aspetto degno di nota del caso è l'uso di proxy inversi, come lo strumento de3u. Questi proxy reindirizzavano le comunicazioni dai dispositivi degli utenti tramite un tunnel Cloudflare ai servizi Azure OpenAI, imitando le chiamate API legittime.

    Questa tecnica rispecchia le tattiche identificate negli attacchi LLMjacking, in cui le credenziali cloud rubate vengono utilizzate per accedere a servizi Large Language Model (LLM) come Anthropic, AWS Bedrock e Google Vertex AI. Tali schemi consentono agli attori della minaccia di dirottare strumenti AI basati su cloud, spesso monetizzando l'accesso vendendolo ad altri criminali.

    Contromisure di Microsoft e implicazioni più ampie

    In risposta a questa operazione, Microsoft:

    • Accesso revocato : disabilitate le credenziali rubate del gruppo e chiusa la loro infrastruttura di servizio.
    • Domini sequestrati : ottenuto un ordine del tribunale per chiudere aitism[.]net .
    • Difese rafforzate : implementate ulteriori misure di sicurezza per prevenire abusi simili in futuro.

    Tuttavia, Microsoft ha scoperto anche prove che il gruppo prende di mira altri fornitori di servizi di intelligenza artificiale, il che suggerisce un trend più ampio di abuso dell'intelligenza artificiale nel panorama della sicurezza informatica.

    Strumenti di intelligenza artificiale: un'arma a doppio taglio

    Sebbene gli strumenti di intelligenza artificiale generativa come ChatGPT e DALL-E offrano immensi vantaggi, il loro uso improprio da parte dei criminali informatici evidenzia l'urgente necessità di protocolli di sicurezza avanzati:

    1. Sicurezza API : le organizzazioni devono garantire una protezione solida per le chiavi API per impedire accessi non autorizzati.
    2. Monitoraggio delle minacce : il monitoraggio continuo dell'utilizzo del servizio di intelligenza artificiale può aiutare a rilevare e bloccare comportamenti anomali.
  • Collaborazione : i fornitori di servizi cloud, le aziende di sicurezza informatica e le forze dell'ordine devono collaborare per smantellare tali operazioni.
  • La causa di Microsoft fa luce sulla pericolosa intersezione tra AI e criminalità informatica. Poiché gli attori delle minacce sfruttano sempre di più i servizi AI per generare contenuti dannosi e sviluppare malware, le organizzazioni devono dare priorità alla salvaguardia della propria infrastruttura AI.

    Il caso serve da duro monito: sebbene l'intelligenza artificiale rappresenti il futuro della tecnologia, le sue vulnerabilità possono essere sfruttate come arma, rendendo le misure di sicurezza informatica efficaci una necessità assoluta nella lotta contro le minacce digitali.

    Caricamento in corso...