Computer Security Microsoft och OpenAI varnar för hackare i nationalstat...

Microsoft och OpenAI varnar för hackare i nationalstat som använder AI för destruktiva cyberattacker

Microsoft och OpenAI har tillsammans utfärdat en varning om det växande hotet från hackare i nationalstater som använder artificiell intelligens (AI) och stora språkmodeller (LLM) för att förbättra sina cyberattacker. Rapporten identifierar nationalstatliga aktörer kopplade till Ryssland, Nordkorea, Iran och Kina som aktivt experimenterar med AI-teknik för skadliga cyberaktiviteter.

Samarbetet mellan Microsoft och OpenAI avslöjade att de hade omintetgjort ansträngningar från fem statligt anslutna aktörer och stört deras försök att utnyttja AI-tjänster i destruktiva syften genom att avsluta tillgångar och konton. Enligt Microsoft ligger attraktionskraften hos stora språkmodeller i deras naturliga språkstöd, vilket gör dem attraktiva för hotaktörer som är specialiserade på social ingenjörskonst och bedräglig kommunikation skräddarsydd för specifika mål.

Även om inga betydande eller nya attacker med hjälp av LLM har observerats hittills, framhåller rapporten att dessa statligt anslutna aktörer utforskar AI-tekniker i olika stadier av cyberattackerskedjan. Aktiviteterna sträcker sig från spaning och kodningshjälp till utveckling av skadlig programvara.

Den ryska nationalstatsgruppen Forest Blizzard (APT28) rapporteras ha använt OpenAI-tjänster för forskning med öppen källkod om satellitkommunikationsprotokoll och radarbildteknik, såväl som för skriptuppgifter. På liknande sätt har andra hotaktörer som Nordkoreas Emerald Sleet (Kimusky), Irans Crimson Sandstorm (Imperial Kitten) och Kinas Charcoal Typhoon (Aquatic Panda) och Salmon Typhoon (Maverick Panda) använt LLM för uppgifter som att identifiera experter, bedriva forskning , generera kodavsnitt och skapa innehåll för nätfiskekampanjer.

Som svar på det växande hotet vidtar Microsoft proaktiva åtgärder genom att formulera en uppsättning principer för att minska risker förknippade med skadlig användning av AI-verktyg och API:er av nationalstatsaktörer, avancerade ihållande hot (APT), avancerade ihållande manipulatorer (APM) , och cyberkriminella syndikat. Principerna inkluderar att identifiera och vidta åtgärder mot illvilliga aktörer, meddela andra AI-tjänsteleverantörer, samarbeta med intressenter och säkerställa transparens i hanteringen av dessa hot.

Detta samarbete mellan Microsoft och OpenAI understryker behovet av en kollektiv ansträngning för att etablera skyddsräcken och säkerhetsmekanismer kring AI-modeller, vilket förstärker engagemanget för ansvarsfull AI-användning och säkerhet inför cyberhot under utveckling.

Läser in...