Computer Security Microsoft и OpenAI предупреждават за хакери от национални...

Microsoft и OpenAI предупреждават за хакери от национални държави, които използват AI за разрушителни кибератаки

Microsoft и OpenAI издадоха съвместно предупреждение за нарастващата заплаха от хакери от национални държави, които използват изкуствен интелект (AI) и големи езикови модели (LLM), за да подобрят възможностите си за кибератаки. Докладът идентифицира национални държавни участници, свързани с Русия, Северна Корея, Иран и Китай, като активно експериментиращи с AI технологии за злонамерени кибер дейности.

Сътрудничеството между Microsoft и OpenAI разкри, че те са осуетили усилията на петима свързани с държавата участници, прекъсвайки опитите им да използват AI услуги за разрушителни цели чрез прекратяване на активи и акаунти. Според Microsoft привлекателността на големите езикови модели се крие в тяхната поддръжка на естествен език, което ги прави привлекателни за заплахи, специализирани в социално инженерство и измамна комуникация, пригодена за конкретни цели.

Въпреки че досега не са наблюдавани значими или нови атаки, използващи LLM, докладът подчертава, че тези свързани с държавата участници проучват AI технологии в различни етапи от веригата на кибератаките. Дейностите варират от разузнаване и помощ при кодиране до разработване на зловреден софтуер.

Съобщава се, че руската национална държавна група Forest Blizzard (APT28) е използвала услугите на OpenAI за изследване с отворен код на сателитни комуникационни протоколи и технология за радарни изображения, както и за скриптови задачи. По подобен начин други заплахи като Emerald Sleet в Северна Корея (Kimusky), Crimson Sand Storm в Иран (Imperial Kitten) и Charcoal Typhoon в Китай (Aquatic Panda) и Salmon Typhoon (Maverick Panda) са използвали LLM за задачи като идентифициране на експерти, провеждане на изследвания , генериране на кодови фрагменти и създаване на съдържание за фишинг кампании.

В отговор на нарастващата заплаха Microsoft предприема проактивни мерки, като формулира набор от принципи за смекчаване на рисковете, свързани със злонамереното използване на AI инструменти и API от национални държавни участници, усъвършенствани постоянни заплахи (APT), усъвършенствани постоянни манипулатори (APM) и киберпрестъпни синдикати. Принципите включват идентифициране и предприемане на действия срещу злонамерени участници, уведомяване на други доставчици на AI услуги, сътрудничество със заинтересованите страни и осигуряване на прозрачност при справянето с тези заплахи.

Това сътрудничество между Microsoft и OpenAI подчертава необходимостта от колективни усилия за установяване на предпазни парапети и механизми за безопасност около AI моделите , засилвайки ангажимента за отговорно използване на AI и сигурност в лицето на развиващите се кибер заплахи.

Зареждане...