Злонамерни софтвер који покреће вештачка интелигенција прети да преплави системе за откривање креирањем 10.000 варијанти

Истраживачи кибернетичке безбедности алармирају због потенцијалне злоупотребе великих језичких модела (ЛЛМ) за повећање развоја малвера. Нова анализа Јединице 42 компаније Пало Алто Нетворкс открива да ЛЛМ, иако нису вешти у креирању малвера од нуле, могу да препишу и замаскирају постојећи злонамерни код у огромним размерама, стварајући варијанте које избегавају откривање у до 88% случајева.
Ово изазива критичну забринутост око тога како би актери претњи могли да искористе генеративну вештачку интелигенцију да би заобишли системе за откривање, деградирали моделе машинског учења и применили арсенал малвера који се стално шири .
Преглед садржаја
Механика стварања злонамерног софтвера побољшаног вештачком интелигенцијом
„Према Јединици 42, криминалци могу да подстакну ЛЛМ да изврше трансформације злонамерног ЈаваСцрипт кода, што отежава системима за откривање да означе поново написане скрипте . За разлику од традиционалних алата за замагљивање који генеришу мање убедљиве резултате, ЛЛМ вођено преписивање изгледа природније и теже за откривање.
Кључне технике трансформације укључују:
- Преименовање променљиве
- Цепање низа
- Убацивање нежељеног кода
- Уклањање размака
- Комплетна поновна имплементација кода
Свака итерација генерише нову варијанту злонамерног софтвера која одржава оригиналну злонамерну функционалност док значајно смањује шансе да буде откривена.
Јединица 42 је демонстрирала овај приступ користећи ЛЛМ за креирање 10.000 ЈаваСцрипт варијанти из постојећих узорака малвера. Ове варијанте су успешно превариле класификаторе малвера, укључујући широко коришћене моделе као што су ПхисхингЈС и Инноцент Унтил Унтил Гуилти (ИУПГ). У многим случајевима, чак ни платформа ВирусТотал није успела да открије преписане скрипте као злонамерне.
Опасна ивица замагљивања вештачке интелигенције
За разлику од старијих алата као што је обфусцатор.ио, који производе обрасце који се могу лакше открити и узети отиске прстију, преписи засновани на ЛЛМ су инхерентно софистициранији. Изгледају ближе легитимном коду, што их чини тежим за идентификацију модела машинског учења (МЛ) и антивирусних алата.
Утицај ове методе је дубок:
- Класификатори злонамерног софтвера су преварени да означе злонамерне скрипте као бенигне.
- МЛ модели трпе деградацију перформанси, борећи се да одрже корак са константном еволуцијом варијанти малвера.
- Системи за откривање ризикују да постану застарели јер противници непрестано стварају свеж малвер који се не може открити.
Искоришћавање ЛЛМ-а за шири сајбер криминал
Овај тренд није ограничен само на развој малвера. Злонамерни актери користе лажне алате као што је ВормГПТ, који користе генеративну вештачку интелигенцију за аутоматизацију пхисхинг кампања и креирају убедљиве нападе социјалног инжењеринга прилагођене одређеним жртвама.
Док су ЛЛМ провајдери увели заштитне ограде како би ограничили злоупотребу, као што је недавно ОпенАИ-јево блокирање 20 обмањујућих операција у октобру 2024. године, актери претњи стално проналазе начине да заобиђу ова ограничења.
Сребрна облога: Гашење ватре ватром
Упркос ризицима, исте технике вођене ЛЛМ-ом које се користе за прикривање злонамерног софтвера такође могу помоћи браниоцима. Јединица 42 предлаже коришћење ових метода вештачке интелигенције за генерисање података о обуци који побољшавају робусност модела за откривање злонамерног софтвера. Дајући класификаторима више примера замагљеног кода, истраживачи би потенцијално могли да појачају своју способност да открију чак и најнапредније варијанте.
Нове рањивости вештачке интелигенције: ТПУКСтрацт напад
Пораст злонамерног софтвера који покреће ЛЛМ није једина претња у вези са вештачком интелигенцијом која је на насловницама. Истраживачи са Државног универзитета Северне Каролине открили су напад бочног канала, назван ТПУКСтрацт, способан да украде архитектуре АИ модела из Гуглових Едге Тенсор Процессинг Унитс (ТПУ).
Снимањем електромагнетних сигнала који се емитују током закључивања неуронске мреже, нападачи могу извући детаље као што су типови слојева, бројеви чворова, величине филтера и функције активације са тачношћу од 99,91%. Иако овај напад захтева физички приступ уређају и скупој опреми, он представља озбиљан ризик за интелектуалну својину и могао би да олакша накнадне сајбер нападе.
Шта ово значи за сајбер безбедност
Брза еволуција генеративне АИ је мач са две оштрице за сајбер безбедност . Иако отвара нова врата за иновације, такође пружа алате без преседана за сајбер криминалце.
- Организације морају деловати проактивно , улажући у напредне системе за откривање који су способни да се прилагоде техникама замагљивања вођеним вештачком интелигенцијом.
- Креатори политике треба да успоставе јасне смернице за етичку употребу вештачке интелигенције уз спровођење строжије контроле како би се спречила злоупотреба.
- Истраживачи безбедности морају да искористе вештачку интелигенцију да надмаше противнике , развијајући отпорне системе који могу да се супротставе претњама које се развијају.
Будућност АИ малвера
Способност ЛЛМ-ова да креирају 10.000 варијанти злонамерног софтвера и избегну откривање у 88% случајева је оштар подсетник на растућу софистицираност сајбер претњи. Како се технологија развија, тако мора и наша одбрана. Предузећа, владе и стручњаци за сајбер безбедност морају да прихвате иновативне стратегије како би били испред злонамерних актера и заштитили дигитални свет од напада које покреће вештачка интелигенција.