Computer Security Microsoft і OpenAI попереджають про те, що хакери з...

Microsoft і OpenAI попереджають про те, що хакери з національних держав використовують ШІ для руйнівних кібератак

Microsoft і OpenAI спільно попередили про зростаючу загрозу хакерів національних держав, які використовують штучний інтелект (AI) і великі мовні моделі (LLM) для підвищення своїх можливостей кібератак. У звіті зазначено, що суб’єкти національної держави, пов’язані з Росією, Північною Кореєю, Іраном і Китаєм, активно експериментують із технологіями штучного інтелекту для зловмисної кіберактивності.

Співпраця між Microsoft і OpenAI виявила, що вони зірвали зусилля п’яти пов’язаних із державою суб’єктів, перервавши їхні спроби використовувати служби штучного інтелекту для деструктивних цілей шляхом припинення активів і облікових записів. За словами Microsoft, привабливість великих мовних моделей полягає в їх підтримці природної мови, що робить їх привабливими для учасників загроз, які спеціалізуються на соціальній інженерії та оманливому спілкуванні, адаптованому до конкретних цілей.

Хоча жодних значних чи нових атак із використанням LLM наразі не спостерігалося, у звіті підкреслюється, що ці пов’язані з державою суб’єкти досліджують технології штучного інтелекту на різних етапах ланцюжка кібератак. Діяльність варіюється від розвідки та допомоги в кодуванні до розробки шкідливих програм.

Повідомляється, що російська національно-державна група Forest Blizzard (APT28) використовувала служби OpenAI для дослідження з відкритим кодом протоколів супутникового зв’язку та технології радіолокаційних зображень, а також для сценаріїв. Подібним чином інші суб’єкти загрози, такі як північнокорейський Emerald Sleet (Kimusky), іранський Crimson Sandstorm (Imperial Kitten), китайський Charcoal Typhoon (Aquatic Panda) і Salmon Typhoon (Maverick Panda), використовували LLM для таких завдань, як виявлення експертів, проведення досліджень. , створення фрагментів коду та створення вмісту для фішингових кампаній.

У відповідь на зростаючу загрозу Microsoft вживає проактивних заходів, формулюючи набір принципів для зменшення ризиків, пов’язаних зі зловмисним використанням інструментів штучного інтелекту та API суб’єктами національних держав, вдосконалених постійних загроз (APT), вдосконалених стійких маніпуляторів (APM). та синдикати кіберзлочинців. Принципи включають виявлення та вжиття заходів проти зловмисників, сповіщення інших постачальників послуг штучного інтелекту, співпрацю із зацікавленими сторонами та забезпечення прозорості у боротьбі з цими загрозами.

Ця співпраця між Microsoft і OpenAI підкреслює необхідність колективних зусиль для створення огорож і механізмів безпеки навколо моделей штучного інтелекту , підкріплюючи зобов’язання щодо відповідального використання штучного інтелекту та безпеки перед лицем нових кіберзагроз.

Завантаження...