Datasikkerhet Microsoft tar rettslige tiltak mot hackere som utnytter...

Microsoft tar rettslige tiltak mot hackere som utnytter Azure AI til ondsinnede formål

Microsofts pågående kamp mot nettkriminalitet har nådd nye høyder med det siste søksmålet rettet mot en hackergruppe som er anklaget for å utnytte Azures generative AI-tjenester. Teknologigiganten avslørte at de utenlandsbaserte trusselaktørene opprettet en hacking-as-a-service-plattform for å omgå Azure AIs sikkerhetsprotokoller, noe som muliggjør opprettelse av skadelig innhold og skadelig programvare .

Denne saken understreker den eskalerende risikoen som utgjøres av nettkriminelle som utnytter AI-plattformer til ondsinnede formål, og utgjør betydelige nettsikkerhetsutfordringer for organisasjoner over hele verden.

Hvordan hackere utnyttet Microsofts Azure AI

Microsofts Digital Crimes Unit (DCU) avdekket operasjonen i juli 2024. Gruppen brukte stjålne kundelegitimasjoner, hentet fra offentlige kilder, for å bryte Azure-systemer og tukle med AI-modeller som OpenAIs DALL-E.

Nøkkeldetaljer inkluderer:

  • Legitimasjonstyveri : Stjålne Azure API-nøkler og Entra ID-autentiseringsdata ble brukt for å få tilgang til Azure OpenAI-tjenester.
  • Skadelig innholdsskaping : Gruppen tjente penger på tilgangen deres ved å lage verktøy for å generere støtende bilder og omgå AI-innholdsfiltre.
  • Hacking-as-a-Service : Gruppen solgte tilgang til verktøyene sine via nettsteder som aitism[.]net og delte bruksinstruksjoner med andre nettkriminelle.

Disse aktivitetene førte til ulovlig generering av tusenvis av skadelige bilder og tilrettelegging for ytterligere ulovlig AI-misbruk, alt mens gjerningsmennene forsøkte å slette sine digitale fotavtrykk.

Malware-tilkoblingen

Misbruk av generative AI-tjenester har bredere implikasjoner for utvikling av skadelig programvare . Trusselaktører kan potensielt:

  • Generer phishing-lokker eller falske nettsteder designet for å etterligne pålitelige plattformer.
  • Bruk AI-verktøy for å automatisere koding av skadelig programvare, noe som gjør det mer sofistikert og vanskeligere å oppdage.
  • Omgå sikkerhetsfiltre ved å utnytte verktøy designet for legitim bruk, for eksempel språkoversettelse og datasyntese.
  • Denne utnyttelsen fremhever hvordan hackinggrupper utvikler taktikken sin, blander stjålne legitimasjon og avanserte AI-evner for å utføre cyberangrep i stor skala.

    Omvendt proxy-utnyttelse og LLM-jacking

    Et bemerkelsesverdig aspekt ved saken er bruken av omvendte proxyer, for eksempel de3u-verktøyet. Disse proxyene omdirigerte kommunikasjon fra brukerenheter gjennom en Cloudflare-tunnel til Azure OpenAI-tjenester, og etterlignet legitime API-kall.

    Denne teknikken gjenspeiler taktikk identifisert i LLMjacking-angrep, der stjålet skylegitimasjon brukes for å få tilgang til store språkmodelltjenester (LLM) som Anthropic, AWS Bedrock og Google Vertex AI. Slike ordninger lar trusselaktører kapre skybaserte AI-verktøy, ofte tjene penger på tilgangen ved å selge den til andre kriminelle.

    Microsofts mottiltak og bredere implikasjoner

    Som svar på denne operasjonen, Microsoft:

    • Opphevet tilgang : Deaktiverte gruppens stjålne legitimasjon og stengte tjenesteinfrastrukturen deres.
    • Beslaglagte domener : Mottok en rettskjennelse om å stenge aitism[.]net .
    • Styrket forsvar : Implementerte ytterligere sikkerhetstiltak for å forhindre lignende overgrep i fremtiden.

    Microsoft oppdaget imidlertid også bevis på at gruppen retter seg mot andre AI-tjenesteleverandører, noe som tyder på en større trend med AI-misbruk i nettsikkerhetslandskapet.

    AI-verktøy: Et tveegget sverd

    Mens generative AI-verktøy som ChatGPT og DALL-E tilbyr enorme fordeler, fremhever misbruken deres av nettkriminelle det presserende behovet for forbedrede sikkerhetsprotokoller:

    1. API-sikkerhet : Organisasjoner må sikre robust beskyttelse for API-nøkler for å forhindre uautorisert tilgang.
    2. Trusselovervåking : Kontinuerlig overvåking av bruk av AI-tjenesten kan bidra til å oppdage og blokkere unormal oppførsel.
  • Samarbeid : Skyleverandører, cybersikkerhetsfirmaer og rettshåndhevelse må samarbeide for å avvikle slike operasjoner.
  • Microsofts søksmål kaster lys over det farlige skjæringspunktet mellom AI og nettkriminalitet. Ettersom trusselaktører i økende grad utnytter AI-tjenester for å generere skadelig innhold og utvikle skadelig programvare, må organisasjoner prioritere å sikre AI-infrastrukturen deres.

    Saken fungerer som en sterk påminnelse: mens AI representerer fremtiden for teknologi, kan sårbarhetene våpenes, noe som gjør robuste cybersikkerhetstiltak til en absolutt nødvendighet i kampen mot digitale trusler.

    Laster inn...