Компьютерная безопасность OpenAI блокирует 20 вредоносных киберопераций, давая...

OpenAI блокирует 20 вредоносных киберопераций, давая отпор глобальным кампаниям киберпреступности

Удивительно, но OpenAI превратился в грозную силу в борьбе с цифровыми угрозами. С начала года компания успешно пресекла более 20 вредоносных кампаний, которые пытались использовать ее платформу ИИ для вредоносных действий , продемонстрировав, что будущее кибербезопасности уже здесь.

Эти операции варьировались от отладки вредоносного ПО и создания дезинформации до создания поддельных персон в социальных сетях. Злоумышленники пытались использовать платформу OpenAI для содействия вредоносным действиям, таким как создание биографий для поддельных аккаунтов или создание сгенерированных ИИ фотографий профилей для поддельных личностей в социальных сетях на X (ранее Twitter).

Однако, несмотря на эти усилия, OpenAI заверил общественность, что ни одна из этих кампаний не привела к революционным достижениям в создании вредоносного ПО или вирусном распространении дезинформации. Другими словами, хотя злоумышленники экспериментируют с ИИ, им еще предстоит достичь значительных прорывов.

Как киберпреступники использовали ИИ

Злонамеренные субъекты прибывали со всех уголков земного шара, от Китая до Ирана, и использовали разнообразные тактики. Одним из ярких примеров была SweetSpecter, китайская группа, которая использовала ИИ для разведки и исследования уязвимостей и даже пыталась (безуспешно) фишинговать сотрудников OpenAI.

Иранские группы также сыграли заметную роль. Cyber Av3ngers, связанные с Корпусом стражей исламской революции (КСИР), исследовали программируемые логические контроллеры с использованием ИИ, в то время как другая иранская организация, Storm-0817, использовала ИИ для отладки вредоносного ПО для Android и взлома профилей в социальных сетях.

В дополнение к этим целевым кампаниям OpenAI заблокировала несколько крупномасштабных операций влияния. Одна из них, A2Z, генерировала контент на английском и французском языках для широкого распространения в социальных сетях, в то время как Stop News использовала изображения, созданные ИИ, часто в карикатурном или драматическом стиле, для улучшения своих статей и твитов.

Срыв глобальных кампаний по дезинформации

Дезинформационные кампании, нацеленные на политические системы, были еще одной областью беспокойства. OpenAI сообщила, что вмешивалась в попытки повлиять на выборы в США, Руанде, Индии и Европейском союзе. Ни одна из этих попыток не достигла вирусного эффекта, но тот факт, что субъекты угроз пытались манипулировать выборами, подчеркивает растущие риски, связанные с дезинформацией, распространяемой с помощью ИИ.

Израильская компания STOIC, также известная как Zero Zeno, была одним из ключевых игроков в этой области, генерируя комментарии в социальных сетях о выборах в Индии, о чем ранее в этом году сообщалось и Meta, и OpenAI.

Постоянная бдительность OpenAI также привела к обнаружению двух других сетей, Bet Bot и Corrupt Comment, которые использовали свой API для создания разговоров в X и перенаправления пользователей на сайты азартных игр или наводнения социальных сетей сфабрикованными комментариями.

Роль ИИ в микроцелевой дезинформации

Генеративный ИИ может быть использован в качестве оружия не только для массовой дезинформации, но и для микротаргетинга. Согласно недавнему отчету компании по кибербезопасности Sophos, ИИ можно манипулировать для распространения высокоперсонализированной политической дезинформации через электронные письма, веб-сайты и поддельные персоны. Тщательно подгоняя сообщения под конкретные пункты кампании, злоумышленники могут обманывать избирателей на новом уровне, возможно, изменяя результаты выборов или влияя на мнения с помощью ложной информации.

Исследователи предупреждают, что невероятно легко ассоциировать любую политическую фигуру или движение с политической позицией, которую они на самом деле не поддерживают, сея смятение среди избирателей и нанося ущерб демократическому процессу.

Приверженность OpenAI кибербезопасности

Хотя ИИ предлагает беспрецедентные возможности для прогресса, он также представляет серьезные проблемы безопасности. OpenAI доказал, что он справляется с задачей противодействия злонамеренным попыткам использовать его технологию. Однако игра в кошки-мышки между экспертами по кибербезопасности и киберпреступниками, скорее всего, продолжится.

Усилия OpenAI по срыву более 20 глобальных кампаний в этом году знаменуют собой значительную победу, но борьба далека от завершения. По мере развития ИИ будут развиваться и тактики, используемые субъектами угроз. Постоянная бдительность и инновации будут иметь ключевое значение для обеспечения того, чтобы ИИ оставался силой добра, а не инструментом цифрового обмана.

Загрузка...