Computer Security Остерегаться! Искусственный интеллект может заставить...

Остерегаться! Искусственный интеллект может заставить мошенничество выглядеть законным и распространять вредоносные угрозы, такие как программы-вымогатели

Национальный центр кибербезопасности (NCSC), входящий в состав шпионского агентства GCHQ в Великобритании, выступил с предупреждением о растущей угрозе кибератак, осуществляемых с помощью искусственного интеллекта (ИИ). По оценке NCSC, инструменты генеративного искусственного интеллекта, которые могут создавать убедительный текст, голос и изображения с помощью простых подсказок, затрудняют различие между подлинными электронными письмами и письмами, отправленными мошенниками и злоумышленниками.

Агентство прогнозирует, что искусственный интеллект, особенно генеративный искусственный интеллект и большие языковые модели, лежащие в основе чат-ботов, внесут значительный вклад в рост киберугроз в течение следующих двух лет. Одной из основных проблем является сложность выявления различных типов атак, таких как фишинг, спуфинг и социальная инженерия.

Ожидается, что сложность технологии искусственного интеллекта затруднит людям, независимо от их уровня понимания кибербезопасности, оценку законности электронных писем или запросов на сброс пароля.

ИИ может помочь увеличить число целей для программ-вымогателей

Ожидается также рост атак программ-вымогателей , которые в прошлом году были нацелены на такие учреждения, как Британская библиотека и Королевская почта. NCSC предупреждает, что сложность ИИ снижает барьер для киберпреступников-любителей в доступе к системам, сборе информации о целях и выполнении атак, которые могут парализовать компьютерные системы, извлечь конфиденциальные данные и потребовать выкуп в криптовалюте.

Инструменты генеративного искусственного интеллекта уже используются для создания поддельных «документов-приманок», которые выглядят убедительно, поскольку позволяют избежать распространенных ошибок, обнаруживаемых при фишинговых атаках. Хотя эффективность кода программ-вымогателей не может быть повышена с помощью генеративного искусственного интеллекта, он может помочь в идентификации и выборе целей. NCSC предполагает, что государственные структуры, вероятно, будут наиболее искусны в использовании ИИ в передовых кибероперациях.

Хорошо и плохо ИИ

В ответ на растущую угрозу NCSC подчеркивает, что ИИ может также служить защитным инструментом, позволяя обнаруживать атаки и разрабатывать более безопасные системы. Отчет совпадает с представлением правительством Великобритании новых руководящих принципов, «Кодекса практики кибер-управления», который призывает предприятия повышать свою готовность к восстановлению после атак программ-вымогателей. Однако некоторые эксперты по кибербезопасности, в том числе Кьяран Мартин, бывший глава NCSC, выступают за более решительные действия, предлагая фундаментальную переоценку подходов к угрозам программ-вымогателей. Мартин подчеркивает необходимость более строгих правил в отношении выплаты выкупа и предостерегает от нереалистичных стратегий, таких как ответные меры против преступников во враждебных странах.

Загрузка...