Експлойт двофакторної аутентифікації, розроблений штучним інтелектом
Дослідники кібербезпеки виявили раніше неідентифікованого зловмисника, який використовує експлойт нульового дня, який, як вважається, був розроблений за допомогою штучного інтелекту. Це перший задокументований випадок активного використання штучного інтелекту в реальних шкідливих операціях для виявлення вразливостей та створення експлойтів.
Слідчі пов'язують кампанію зі скоординованими кіберзлочинними групами, які, схоже, співпрацювали над масштабною ініціативою з експлуатації вразливостей. Аналіз пов'язаного ланцюжка атак виявив вразливість нульового дня, вбудовану в скрипт Python, здатний обійти захист двофакторної автентифікації (2FA) у широко використовуваній веб-платформі системного адміністрування з відкритим кодом.
Хоча немає прямих доказів, що пов'язують інструмент штучного інтелекту Gemini від Google з цією операцією, дослідники з високою впевненістю дійшли висновку, що модель штучного інтелекту відіграла значну роль у виявленні та використанні цієї вразливості як зброї. Код Python демонстрував кілька характеристик, які зазвичай асоціюються з результатами, згенерованими моделями великих мов програмування (LLM), включаючи високоструктуроване форматування, розширені навчальні документації, детальні меню довідки та чисту реалізацію кольорів ANSI. Сценарій також містив сфабриковану оцінку CVSS, що є поширеним прикладом галюцинацій штучного інтелекту.
Зміст
Як працював експлойт обходу 2FA
Виявлена вразливість вимагала для успішного функціонування облікових даних законних користувачів. Дослідники визначили, що недолік виник через слабкість семантичної логіки, спричинену жорстко закодованим припущенням довіри в процесі автентифікації застосунку. Такі логічні недоліки високого рівня все частіше потрапляють в аналітичні можливості сучасних систем LLM.
Експерти з безпеки попереджають, що штучний інтелект значно прискорює кожен етап життєвого циклу кібератак, від виявлення вразливостей до перевірки експлойтів та їхнього оперативного розгортання. Зростаюче використання штучного інтелекту зловмисниками скорочує час і зусилля, необхідні для виявлення слабких місць і запуску атак, що створює зростаючий тиск на захисників.
Штучний інтелект розширює ландшафт шкідливого програмного забезпечення та його експлуатації
Штучний інтелект більше не обмежується лише допомогою в дослідженні вразливостей. Зловмисники тепер використовують ШІ для створення поліморфного шкідливого програмного забезпечення, автоматизації шкідливих операцій та приховування функціональності атаки. Одним із яскравих прикладів є PromptSpy, штам шкідливого програмного забезпечення для Android, який використовує Gemini для аналізу активності на екрані та видачі інструкцій, що допомагають шкідливому програмному забезпеченню залишатися закріпленим у списку нещодавніх програм.
Дослідники також задокументували кілька гучних випадків, пов'язаних зі шкідливою активністю, що була сприйнята Gemini:
Повідомляється, що підозрювана в кібершпигунстві група UNC2814, пов'язана з Китаєм, використовувала джейлбрейк-підказки на основі персон, щоб змусити Gemini взяти на себе роль експерта з мережевої безпеки. Метою було підтримати дослідження вразливостей, спрямовані на вбудовані пристрої, включаючи прошивку TP-Link та реалізації протоколу передачі файлів Odette (OFTP).
Північнокорейський зловмисник APT45 нібито видав тисячі рекурсивних запитів, призначених для аналізу CVE та перевірки експлойтів, що підтверджують концепцію.
Повідомляється, що китайська хакерська група APT27 використовувала Gemini для прискорення розробки програми для управління автопарком, ймовірно, призначеної для управління інфраструктурою операційного релейного блоку (ORB).
Під час операцій зі вторгнення, пов'язаних з Росією, спрямованих проти українських організацій було задіяно сімейства шкідливих програм на основі штучного інтелекту, відомі як CANFAIL та LONGSTREAM, обидва з яких містили код-приманку, згенерований LLM, для маскування шкідливої поведінки.
Дані навчання зі зброєю та автономні операції ШІ
Крім того, було помічено, що зловмисники експериментували зі спеціалізованим репозиторієм GitHub під назвою «wooyun-legacy», розробленим як плагін для кодування Claude. Репозиторій містить понад 5000 випадків реальних вразливостей, спочатку зібраних китайською платформою розкриття інформації про вразливості WooYun між 2010 і 2016 роками.
Передаючи цей набір даних у системи штучного інтелекту, зловмисники можуть активувати контекстне навчання, яке навчає моделі підходити до аналізу вихідного коду з точністю досвідчених дослідників безпеки. Це значно покращує здатність штучного інтелекту виявляти тонкі логічні недоліки, які стандартні моделі можуть пропустити.
Дослідники також виявили, що підозрюваний пов'язаний з Китаєм зловмисник використовував агентні інструменти штучного інтелекту, такі як Hexstrike AI та Strix, під час атак на японську технологічну компанію та велику східноазіатську платформу кібербезпеки. Повідомляється, що ці інструменти дозволяли проводити автоматизовані операції розвідки та виявлення з мінімальним втручанням людини.
Зростаючі наслідки наступального штучного інтелекту для безпеки
Ці висновки підкреслюють значні зміни в ландшафті кіберзагроз. Штучний інтелект швидко еволюціонує з інструменту продуктивності на помножувач сили для наступальних кібероперацій. Від виявлення вразливостей «нульового дня» до автоматизації розгортання шкідливого програмного забезпечення та підвищення оперативної прихованості, штучний інтелект фундаментально змінює те, як плануються та виконуються кібератак.
Оскільки кіберможливості на основі штучного інтелекту продовжують розвиватися, організації стикаються з майбутнім, де атаки стають швидшими, адаптивнішими та дедалі складнішими для виявлення до того, як буде завдано шкоди.