Комп'ютерна безпека OpenAI блокує 20 шкідливих кібероперацій, що борються з...

OpenAI блокує 20 шкідливих кібероперацій, що борються з глобальними кампаніями кіберзлочинності

Дивно, але OpenAI став грізною силою в боротьбі з цифровими загрозами. З початку року компанія успішно зупинила понад 20 шкідливих кампаній, спрямованих на використання її платформи штучного інтелекту для шкідливих дій , демонструючи, що майбутнє кібербезпеки вже тут.

Ці операції варіювалися від налагодження зловмисного програмного забезпечення та створення дезінформації до створення підроблених персонажів у соціальних мережах. Зловмисники намагалися використати платформу OpenAI, щоб допомогти у зловмисних діях, як-от створення біографій для підроблених облікових записів або створення згенерованих штучним інтелектом зображень профілів для підроблених ідентифікацій у соціальних мережах на X (раніше Twitter).

Однак, незважаючи на ці зусилля, OpenAI запевнив громадськість, що жодна з цих кампаній не призвела до революційних досягнень у створенні шкідливих програм чи вірусному поширенні дезінформації. Іншими словами, поки погані актори експериментують зі штучним інтелектом, вони ще не досягли значних проривів.

Як кіберзлочинці використовували ШІ

Зловмисники прибули з усіх куточків земної кулі, від Китаю до Ірану, і застосували різноманітні тактики. Одним із яскравих прикладів є SweetSpecter, китайська група, яка використовувала штучний інтелект для розвідки та дослідження вразливостей і навіть намагалася (безуспішно) підманити співробітників OpenAI.

Іранські групи також відіграли помітну роль. Cyber Av3ngers, пов’язані з Корпусом вартових ісламської революції Ірану (IRGC), досліджували програмовані логічні контролери за допомогою штучного інтелекту, а інша іранська організація Storm-0817 використовувала штучний інтелект для налагодження зловмисного програмного забезпечення Android і очищення профілів соціальних мереж.

Окрім цих цільових кампаній, OpenAI заблокував кілька масштабних операцій впливу. Один із них, A2Z, генерував контент англійською та французькою мовами для широкого розміщення публікацій у соціальних мережах, тоді як Stop News використовував створені штучним інтелектом зображення, часто в мультяшному або драматичному стилі, щоб покращити свої статті та твіти.

Зрив глобальних кампаній дезінформації

Кампанії дезінформації, спрямовані проти політичних систем, були ще однією проблемою. OpenAI повідомила, що втручалася у спроби вплинути на вибори в США, Руанді, Індії та Європейському Союзі. Жодна з цих спроб не досягла вірусної тяги, але той факт, що суб’єкти загрози намагалися маніпулювати виборами, підкреслює зростаючі ризики, пов’язані з дезінформацією, керованою ШІ.

STOIC, ізраїльська компанія, також відома як Zero Zeno, була одним із ключових гравців у цьому просторі, створюючи коментарі в соціальних мережах про вибори в Індії, діяльність, про яку раніше повідомляли як Meta, так і OpenAI на початку цього року.

Постійна пильність OpenAI також призвела до виявлення двох інших мереж, Bet Bot і Corrupt Comment, які використовували свій API для створення розмов на X і посилання користувачів на сайти азартних ігор або заповнення соціальних мереж вигаданими коментарями.

Роль ШІ в мікроцільовій дезінформації

Генеративний штучний інтелект має потенціал для використання не лише для масової дезінформації, але й для мікротаргетування. Відповідно до нещодавнього звіту фірми з кібербезпеки Sophos, штучним інтелектом можна маніпулювати для поширення дуже персоналізованої політичної дезінформації через електронні листи, веб-сайти та підроблені особи. Ретельно пристосовуючи повідомлення до конкретних моментів кампанії, суб’єкти загроз можуть вводити виборців в оману на новому рівні, можливо, змінюючи результати виборів або впливаючи на думку неправдивою інформацією.

Дослідники попереджають, що надзвичайно легко пов’язати будь-яку політичну фігуру чи рух із політичною позицією, яку вони насправді можуть не підтримувати, посіявши плутанину серед виборців і завдавши шкоди демократичному процесу.

Відданість OpenAI кібербезпеці

Хоча штучний інтелект пропонує безпрецедентні можливості для прогресу, він також створює серйозні проблеми з безпекою. OpenAI довів, що справляється із завданням протидії зловмисним спробам використати його технологію. Однак гра в кішки-мишки між експертами з кібербезпеки та кіберзлочинцями, ймовірно, триватиме.

Зусилля OpenAI зірвати понад 20 глобальних кампаній цього року знаменують значну перемогу, але боротьба ще далека від завершення. У міру розвитку штучного інтелекту змінюватимуться і тактики, які використовують загрозливі особи. Постійна пильність та інновації будуть ключовими для забезпечення того, щоб ШІ залишався силою добра, а не інструментом цифрового обману.

Завантаження...