A Microsoft és az OpenAI figyelmeztet, hogy a nemzetállami hackerek mesterséges intelligenciát használnak pusztító kibertámadásokhoz

A Microsoft és az OpenAI közösen figyelmeztetett a nemzetállami hackerek növekvő fenyegetésére, akik mesterséges intelligenciát (AI) és nagy nyelvi modelleket (LLM) alkalmaznak kibertámadási képességeik fokozása érdekében. A jelentés megállapítja, hogy az Oroszországhoz, Észak-Koreához, Iránhoz és Kínához köthető nemzetállami szereplők aktívan kísérleteznek mesterséges intelligencia-technológiákkal rosszindulatú kibertevékenységek céljára.
A Microsoft és az OpenAI közötti együttműködés során kiderült, hogy meghiúsították öt államilag leányvállalat erőfeszítéseit, megzavarva az AI-szolgáltatások romboló célú kihasználását az eszközök és fiókok megszüntetésével. A Microsoft szerint a nagy nyelvi modellek vonzereje a természetes nyelvi támogatásban rejlik, ami vonzóvá teszi azokat a társadalmi tervezésre és a konkrét célpontokra szabott megtévesztő kommunikációra szakosodott fenyegetés szereplői számára.
Noha ez idáig nem figyeltek meg jelentős vagy újszerű, LLM-eket használó támadásokat, a jelentés kiemeli, hogy ezek az államhoz kötődő szereplők a kibertámadási lánc különböző szakaszaiban vizsgálják az AI-technológiákat. A tevékenységek a felderítéstől és a kódolási segítségnyújtástól a rosszindulatú programok fejlesztéséig terjednek.
A jelentések szerint az orosz Forest Blizzard (APT28) nemzetállami csoport OpenAI-szolgáltatásokat használt a műholdas kommunikációs protokollok és a radarképalkotási technológia nyílt forráskódú kutatására, valamint szkriptelési feladatokra. Hasonlóképpen más fenyegetést jelentő szereplők, mint például az észak-koreai Emerald Sleet (Kimusky), az iráni Crimson Sandstorm (Imperial Kitten) és a kínai Charcoal Typhoon (Aquatic Panda) és Salmon Typhoon (Maverick Panda) alkalmaztak LLM-eket olyan feladatokra, mint a szakértők azonosítása, kutatások elvégzése. , kódrészletek generálása és tartalom létrehozása adathalász kampányokhoz.
A növekvő fenyegetésre válaszul a Microsoft proaktív intézkedéseket tesz azáltal, hogy olyan alapelveket fogalmaz meg, amelyek csökkentik a mesterséges intelligencia-eszközök és API-k nemzetállami szereplők általi rosszindulatú felhasználásával, a fejlett tartós fenyegetésekkel (APT-k) és a fejlett tartós manipulátorokkal (APM) kapcsolatos kockázatokat. és kiberbűnözők szindikátusai. Az alapelvek közé tartozik a rosszindulatú szereplők azonosítása és fellépése, a többi mesterségesintelligencia-szolgáltató értesítése, az érintettekkel való együttműködés, valamint az átláthatóság biztosítása e fenyegetések kezelésében.
A Microsoft és az OpenAI közötti együttműködés rámutat arra, hogy közös erőfeszítésekre van szükség a mesterséges intelligencia modellek körüli korlátok és biztonsági mechanizmusok kialakítására , megerősítve a felelős mesterségesintelligencia-használat és biztonság iránti elkötelezettséget a fejlődő kiberfenyegetésekkel szemben.