Datorsäkerhet Microsoft vidtar rättsliga åtgärder mot hackare som...

Microsoft vidtar rättsliga åtgärder mot hackare som utnyttjar Azure AI för skadliga syften

Microsofts pågående kamp mot cyberbrottslighet har nått nya höjder med sin senaste rättegång riktad mot en hackergrupp som anklagas för att utnyttja Azures generativa AI-tjänster. Teknikjätten avslöjade att de utlandsbaserade hotaktörerna skapade en hacking-as-a-service-plattform för att kringgå Azure AI:s säkerhetsprotokoll, vilket möjliggör skapandet av skadligt innehåll och skadlig programvara .

Det här fallet understryker de eskalerande riskerna som cyberkriminella utnyttjar AI-plattformar för skadliga syften, vilket innebär betydande cybersäkerhetsutmaningar för organisationer över hela världen.

Hur hackare utnyttjade Microsofts Azure AI

Microsofts Digital Crimes Unit (DCU) avslöjade operationen i juli 2024. Gruppen använde stulna kunduppgifter, hämtade från offentliga källor, för att bryta mot Azure-system och manipulera AI-modeller som OpenAI:s DALL-E.

Viktiga detaljer inkluderar:

  • Autentiseringsstöld : Stulna Azure API-nycklar och Entra ID-autentiseringsdata användes för att komma åt Azure OpenAI-tjänster.
  • Skadligt innehåll : Gruppen tjänade pengar på sin åtkomst genom att skapa verktyg för att generera stötande bilder och kringgå AI-innehållsfilter.
  • Hacking-as-a-Service : Gruppen sålde åtkomst till sina verktyg via webbplatser som aitism[.]net och delade användningsinstruktioner med andra cyberkriminella.

Dessa aktiviteter ledde till olaglig generering av tusentals skadliga bilder och underlättande av ytterligare olaglig AI-missbruk, allt medan förövarna försökte radera sina digitala fotspår.

Malware-anslutningen

Missbruket av generativa AI-tjänster har bredare konsekvenser för utveckling av skadlig programvara . Hotskådespelare kan potentiellt:

  • Skapa nätfiske eller falska webbplatser utformade för att efterlikna pålitliga plattformar.
  • Använd AI-verktyg för att automatisera kodning av skadlig kod, vilket gör det mer sofistikerat och svårare att upptäcka.
  • Förbi säkerhetsfilter genom att utnyttja verktyg som är utformade för legitim användning, såsom språköversättning och datasyntes.
  • Detta utnyttjande belyser hur hackinggrupper utvecklar sin taktik, blandar stulna referenser och avancerade AI-funktioner för att utföra cyberattacker i stor skala.

    Omvänd proxyexploatering och LLMjacking

    En anmärkningsvärd aspekt av fallet är användningen av omvända proxyservrar, såsom de3u-verktyget. Dessa proxyservrar omdirigerade kommunikation från användarenheter genom en Cloudflare-tunnel till Azure OpenAI-tjänster och efterliknade legitima API-anrop.

    Den här tekniken speglar taktik som identifierats i LLMjacking-attacker, där stulna molnuppgifter används för att komma åt tjänster för stora språkmodeller (LLM) som Anthropic, AWS Bedrock och Google Vertex AI. Sådana system tillåter hotaktörer att kapa molnbaserade AI-verktyg, ofta tjäna pengar på tillgången genom att sälja den till andra brottslingar.

    Microsofts motåtgärder och bredare konsekvenser

    Som svar på denna operation, Microsoft:

    • Återkallad åtkomst : Inaktiverade gruppens stulna referenser och stängde deras serviceinfrastruktur.
    • Beslagta domäner : Erhöll ett domstolsbeslut om att stänga av aitism[.]net .
    • Stärkt försvar : Implementerade ytterligare skyddsåtgärder för att förhindra liknande övergrepp i framtiden.

    Men Microsoft upptäckte också bevis på att gruppen riktade sig mot andra AI-tjänsteleverantörer, vilket tyder på en större trend av AI-missbruk i cybersäkerhetslandskapet.

    AI-verktyg: ett tveeggat svärd

    Medan generativa AI-verktyg som ChatGPT och DALL-E erbjuder enorma fördelar, visar deras missbruk av cyberkriminella det akuta behovet av förbättrade säkerhetsprotokoll:

    1. API-säkerhet : Organisationer måste säkerställa ett robust skydd för API-nycklar för att förhindra obehörig åtkomst.
    2. Hotövervakning : Kontinuerlig övervakning av AI-tjänstanvändning kan hjälpa till att upptäcka och blockera avvikande beteende.
  • Samarbete : Molnleverantörer, cybersäkerhetsföretag och brottsbekämpande myndigheter måste samarbeta för att avveckla sådan verksamhet.
  • Microsofts stämningsansökan kastar ljus över den farliga skärningspunkten mellan AI och cyberbrottslighet. Eftersom hotaktörer alltmer utnyttjar AI-tjänster för att generera skadligt innehåll och utveckla skadlig programvara, måste organisationer prioritera att skydda sin AI-infrastruktur.

    Fallet fungerar som en skarp påminnelse: medan AI representerar teknikens framtid, kan dess sårbarheter beväpnas, vilket gör robusta cybersäkerhetsåtgärder till en absolut nödvändighet i kampen mot digitala hot.

    Läser in...