Számítógépes biztonság A Microsoft jogi lépéseket tesz az Azure AI-t...

A Microsoft jogi lépéseket tesz az Azure AI-t rosszindulatú célokra kihasználó hackerek ellen

A Microsoft kiberbűnözés elleni harca új magasságokba lépett a legújabb perével, amely egy hackercsoportot céloz meg, akit az Azure generatív AI-szolgáltatásainak kihasználásával vádolnak. A technológiai óriás felfedte, hogy a külföldi székhelyű fenyegetés szereplői szolgáltatásként feltörő platformot hoztak létre az Azure AI biztonsági protokolljainak megkerülésére, lehetővé téve káros tartalmak és rosszindulatú programok létrehozását .

Ez az eset rávilágít a mesterséges intelligencia platformokat rosszindulatú célokra kihasználó kiberbűnözők által jelentett növekvő kockázatokra, amelyek világszerte jelentős kiberbiztonsági kihívásokat jelentenek a szervezetek számára.

Hogyan használták ki a hackerek a Microsoft Azure AI-jét?

A Microsoft Digital Crimes Unit (DCU) 2024 júliusában fedezte fel a műveletet. A csoport nyilvános forrásokból gyűjtött ellopott ügyfél-hitelesítő adatokat használt fel az Azure-rendszerek feltörésére és az olyan mesterséges intelligencia modellek manipulálására, mint az OpenAI DALL-E.

A legfontosabb részletek a következők:

  • Hitelesítési adatok ellopása : Ellopott Azure API-kulcsokat és Entra ID hitelesítési adatokat használtak az Azure OpenAI-szolgáltatások eléréséhez.
  • Káros tartalom létrehozása : A csoport bevételt szerzett hozzáféréséből olyan eszközök létrehozásával, amelyek sértő képeket generálnak és megkerülik az AI tartalomszűrőket.
  • Hacking-as-a-Service : A csoport hozzáférést adott eszközeihez olyan webhelyeken, mint az aitism[.]net , és használati utasításokat osztott meg más kiberbűnözőkkel.

Ezek a tevékenységek több ezer káros kép illegális generálásához és további tiltott mesterséges intelligencia-visszaélések elősegítéséhez vezettek, miközben az elkövetők megpróbálták törölni digitális lábnyomaikat.

A rosszindulatú programok kapcsolata

A generatív mesterséges intelligencia szolgáltatásokkal való visszaélésnek szélesebb körű hatásai vannak a rosszindulatú programok fejlesztésére . A fenyegető szereplők potenciálisan:

  • Hozzon létre adathalász csalókat vagy hamis webhelyeket, amelyek a megbízható platformokat utánozzák.
  • Használjon mesterséges intelligencia eszközöket a rosszindulatú programok kódolásának automatizálására, ezáltal kifinomultabbá és nehezebben észlelhetővé.
  • Kerülje meg a biztonsági szűrőket a törvényes felhasználásra tervezett eszközök, például a nyelvi fordítás és az adatszintézis segítségével.
  • Ez a kizsákmányolás rávilágít arra, hogy a hackercsoportok hogyan fejlesztik taktikájukat, ötvözve az ellopott hitelesítő adatokat és a fejlett mesterséges intelligencia-képességeket, hogy nagyszabású kibertámadásokat hajtsanak végre.

    Fordított proxy kihasználás és LLMjacking

    Az eset egyik figyelemre méltó aspektusa a fordított proxyk, például a de3u eszköz használata. Ezek a proxy-k átirányították a kommunikációt a felhasználói eszközökről egy Cloudflare-alagúton keresztül az Azure OpenAI-szolgáltatásokhoz, a legitim API-hívásokat utánozva.

    Ez a technika az LLMjacking támadásokban azonosított taktikákat tükrözi, ahol az ellopott felhőalapú hitelesítési adatokat használják a nagy nyelvi modell (LLM) szolgáltatások eléréséhez, mint például az Anthropic, az AWS Bedrock és a Google Vertex AI. Az ilyen sémák lehetővé teszik a fenyegetés szereplői számára, hogy eltérítsék a felhőalapú mesterséges intelligencia eszközöket, és gyakran pénzt szerezzenek a hozzáférésből úgy, hogy eladják azt más bűnözőknek.

    A Microsoft ellenintézkedései és tágabb következményei

    Erre a műveletre válaszul a Microsoft:

    • Visszavont hozzáférés : Letiltotta a csoport ellopott hitelesítő adatait, és bezárta szolgáltatási infrastruktúráját.
    • Lefoglalt domainek : Bírósági végzést kaptam az aism[.]net leállítására.
    • Megerősített védelem : További biztosítékok bevezetése a hasonló visszaélések jövőbeni megelőzésére.

    A Microsoft azonban arra is bizonyítékot fedezett fel, hogy a csoport más mesterségesintelligencia-szolgáltatókat céloz meg, ami arra utal, hogy a mesterséges intelligencia-visszaélések nagyobb tendenciát mutatnak a kiberbiztonsági környezetben.

    AI-eszközök: kétélű kard

    Míg az olyan generatív mesterséges intelligencia eszközök, mint a ChatGPT és a DALL-E óriási előnyöket kínálnak, a kiberbűnözők általi visszaélésük rávilágít a fokozott biztonsági protokollok sürgős szükségességére:

    1. API biztonság : A szervezeteknek robusztus védelmet kell biztosítaniuk az API-kulcsok számára, hogy megakadályozzák az illetéktelen hozzáférést.
    2. Fenyegetésfigyelés : Az AI-szolgáltatás használatának folyamatos nyomon követése segíthet észlelni és blokkolni a rendellenes viselkedést.
  • Együttműködés : A felhőszolgáltatóknak, a kiberbiztonsági cégeknek és a bűnüldöző szerveknek együtt kell működniük az ilyen műveletek megszüntetése érdekében.
  • A Microsoft keresete rávilágít a mesterséges intelligencia és a kiberbűnözés veszélyes metszéspontjára. Mivel a fenyegetés szereplői egyre gyakrabban használják ki a mesterséges intelligencia szolgáltatásokat káros tartalmak generálására és rosszindulatú programok fejlesztésére, a szervezeteknek prioritásként kell kezelniük AI-infrastruktúrájuk védelmét.

    Az eset éles emlékeztetőül szolgál: bár a mesterséges intelligencia a technológia jövőjét képviseli, a sebezhetőségei fegyverekbe vehetőek, így robusztus kiberbiztonsági intézkedésekre feltétlenül szükség van a digitális fenyegetések elleni küzdelemben.

    Betöltés...