A Microsoft jogi lépéseket tesz az Azure AI-t rosszindulatú célokra kihasználó hackerek ellen

A Microsoft kiberbűnözés elleni harca új magasságokba lépett a legújabb perével, amely egy hackercsoportot céloz meg, akit az Azure generatív AI-szolgáltatásainak kihasználásával vádolnak. A technológiai óriás felfedte, hogy a külföldi székhelyű fenyegetés szereplői szolgáltatásként feltörő platformot hoztak létre az Azure AI biztonsági protokolljainak megkerülésére, lehetővé téve káros tartalmak és rosszindulatú programok létrehozását .
Ez az eset rávilágít a mesterséges intelligencia platformokat rosszindulatú célokra kihasználó kiberbűnözők által jelentett növekvő kockázatokra, amelyek világszerte jelentős kiberbiztonsági kihívásokat jelentenek a szervezetek számára.
Tartalomjegyzék
Hogyan használták ki a hackerek a Microsoft Azure AI-jét?
A Microsoft Digital Crimes Unit (DCU) 2024 júliusában fedezte fel a műveletet. A csoport nyilvános forrásokból gyűjtött ellopott ügyfél-hitelesítő adatokat használt fel az Azure-rendszerek feltörésére és az olyan mesterséges intelligencia modellek manipulálására, mint az OpenAI DALL-E.
A legfontosabb részletek a következők:
- Hitelesítési adatok ellopása : Ellopott Azure API-kulcsokat és Entra ID hitelesítési adatokat használtak az Azure OpenAI-szolgáltatások eléréséhez.
- Káros tartalom létrehozása : A csoport bevételt szerzett hozzáféréséből olyan eszközök létrehozásával, amelyek sértő képeket generálnak és megkerülik az AI tartalomszűrőket.
- Hacking-as-a-Service : A csoport hozzáférést adott eszközeihez olyan webhelyeken, mint az aitism[.]net , és használati utasításokat osztott meg más kiberbűnözőkkel.
Ezek a tevékenységek több ezer káros kép illegális generálásához és további tiltott mesterséges intelligencia-visszaélések elősegítéséhez vezettek, miközben az elkövetők megpróbálták törölni digitális lábnyomaikat.
A rosszindulatú programok kapcsolata
A generatív mesterséges intelligencia szolgáltatásokkal való visszaélésnek szélesebb körű hatásai vannak a rosszindulatú programok fejlesztésére . A fenyegető szereplők potenciálisan:
- Hozzon létre adathalász csalókat vagy hamis webhelyeket, amelyek a megbízható platformokat utánozzák.
Ez a kizsákmányolás rávilágít arra, hogy a hackercsoportok hogyan fejlesztik taktikájukat, ötvözve az ellopott hitelesítő adatokat és a fejlett mesterséges intelligencia-képességeket, hogy nagyszabású kibertámadásokat hajtsanak végre.
Fordított proxy kihasználás és LLMjacking
Az eset egyik figyelemre méltó aspektusa a fordított proxyk, például a de3u eszköz használata. Ezek a proxy-k átirányították a kommunikációt a felhasználói eszközökről egy Cloudflare-alagúton keresztül az Azure OpenAI-szolgáltatásokhoz, a legitim API-hívásokat utánozva.
Ez a technika az LLMjacking támadásokban azonosított taktikákat tükrözi, ahol az ellopott felhőalapú hitelesítési adatokat használják a nagy nyelvi modell (LLM) szolgáltatások eléréséhez, mint például az Anthropic, az AWS Bedrock és a Google Vertex AI. Az ilyen sémák lehetővé teszik a fenyegetés szereplői számára, hogy eltérítsék a felhőalapú mesterséges intelligencia eszközöket, és gyakran pénzt szerezzenek a hozzáférésből úgy, hogy eladják azt más bűnözőknek.
A Microsoft ellenintézkedései és tágabb következményei
Erre a műveletre válaszul a Microsoft:
- Visszavont hozzáférés : Letiltotta a csoport ellopott hitelesítő adatait, és bezárta szolgáltatási infrastruktúráját.
- Lefoglalt domainek : Bírósági végzést kaptam az aism[.]net leállítására.
- Megerősített védelem : További biztosítékok bevezetése a hasonló visszaélések jövőbeni megelőzésére.
A Microsoft azonban arra is bizonyítékot fedezett fel, hogy a csoport más mesterségesintelligencia-szolgáltatókat céloz meg, ami arra utal, hogy a mesterséges intelligencia-visszaélések nagyobb tendenciát mutatnak a kiberbiztonsági környezetben.
AI-eszközök: kétélű kard
Míg az olyan generatív mesterséges intelligencia eszközök, mint a ChatGPT és a DALL-E óriási előnyöket kínálnak, a kiberbűnözők általi visszaélésük rávilágít a fokozott biztonsági protokollok sürgős szükségességére:
- API biztonság : A szervezeteknek robusztus védelmet kell biztosítaniuk az API-kulcsok számára, hogy megakadályozzák az illetéktelen hozzáférést.
- Fenyegetésfigyelés : Az AI-szolgáltatás használatának folyamatos nyomon követése segíthet észlelni és blokkolni a rendellenes viselkedést.
A Microsoft keresete rávilágít a mesterséges intelligencia és a kiberbűnözés veszélyes metszéspontjára. Mivel a fenyegetés szereplői egyre gyakrabban használják ki a mesterséges intelligencia szolgáltatásokat káros tartalmak generálására és rosszindulatú programok fejlesztésére, a szervezeteknek prioritásként kell kezelniük AI-infrastruktúrájuk védelmét.
Az eset éles emlékeztetőül szolgál: bár a mesterséges intelligencia a technológia jövőjét képviseli, a sebezhetőségei fegyverekbe vehetőek, így robusztus kiberbiztonsági intézkedésekre feltétlenül szükség van a digitális fenyegetések elleni küzdelemben.