Microsoft и OpenAI предупреждают о хакерах национальных государств, использующих ИИ для разрушительных кибератак

Microsoft и OpenAI совместно выпустили предупреждение о растущей угрозе со стороны хакеров национальных государств, использующих искусственный интеллект (ИИ) и модели большого языка (LLM) для расширения своих возможностей кибератак. В докладе указаны субъекты национальных государств, связанные с Россией, Северной Кореей, Ираном и Китаем, как активно экспериментирующие с технологиями искусственного интеллекта для злонамеренной кибердеятельности.
Сотрудничество между Microsoft и OpenAI показало, что они помешали усилиям пяти связанных с государством субъектов, сорвав их попытки использовать услуги ИИ в деструктивных целях путем удаления активов и учетных записей. По мнению Microsoft, привлекательность больших языковых моделей заключается в их поддержке естественного языка, что делает их привлекательными для злоумышленников, специализирующихся на социальной инженерии и обманном общении, адаптированном к конкретным целям.
Хотя до сих пор не наблюдалось никаких серьезных или новых атак с использованием LLM, в отчете подчеркивается, что эти связанные с государством субъекты изучают технологии искусственного интеллекта на различных этапах цепочки кибератак. Деятельность варьируется от разведки и помощи в кодировании до разработки вредоносного ПО.
Сообщается, что российская государственная группа Forest Blizzard (APT28) использовала сервисы OpenAI для исследований с открытым исходным кодом протоколов спутниковой связи и технологий радиолокационной визуализации, а также для написания сценариев. Аналогичным образом, другие субъекты угроз, такие как «Изумрудный снег» Северной Кореи (Кимуски), «Багровая песчаная буря» в Иране («Императорский котенок»), а также «угольный тайфун» в Китае (водная панда) и тайфун лосося (мейверик панда), использовали LLM для таких задач, как выявление экспертов, проведение исследований. , создание фрагментов кода и создание контента для фишинговых кампаний.
В ответ на растущую угрозу Microsoft принимает упреждающие меры, формулируя набор принципов для снижения рисков, связанных со злонамеренным использованием инструментов искусственного интеллекта и API государственными субъектами, усовершенствованными постоянными угрозами (APT) и усовершенствованными постоянными манипуляторами (APM). и киберпреступные синдикаты. Эти принципы включают выявление злоумышленников и принятие мер против них, уведомление других поставщиков услуг ИИ, сотрудничество с заинтересованными сторонами и обеспечение прозрачности в борьбе с этими угрозами.
Это сотрудничество между Microsoft и OpenAI подчеркивает необходимость коллективных усилий по созданию ограждений и механизмов безопасности вокруг моделей ИИ , укрепляя приверженность ответственному использованию ИИ и обеспечению безопасности перед лицом развивающихся киберугроз.