Генериран от AI зловреден софтуер е открит и може да промени киберсигурността, каквато я познаваме

В развиващия се свят на киберсигурността от известно време знаем, че AI може да се използва за създаване на злонамерен софтуер. Но последните развития сигнализираха, че бъдещето на генерирания от AI зловреден софтуер може да е по-близо, отколкото си мислим. HP наскоро прихвана имейл кампания, която доставя стандартен полезен товар от злонамерен софтуер чрез генериран от AI капкомер, отбелязвайки значителна промяна в тактиката за киберпрестъпления.
Съдържание
Открит е нов вид заплаха при разработването на зловреден софтуер с изкуствен интелект
Откритието стана през юни 2024 г., когато екипът по сигурността на HP се натъкна на фишинг имейл, който включваше типична примамка на тема фактура. Прикаченият файл беше криптиран HTML файл - техника, известна като контрабанда на HTML, предназначена да избегне откриването. Въпреки че контрабандата на HTML не е нищо ново, този случай имаше интересен обрат. Обикновено киберпрестъпниците изпращат предварително криптиран файл, но този път нападателите са включили AES ключа за дешифриране директно в JavaScript кода на прикачения файл. Тази странност предизвика допълнително разследване.
След декриптирането на прикачения файл изследователите на HP установиха, че той изглежда като нормален уебсайт, но скрит в него беше VBScript и прословутия крадец на информация AsyncRAT. VBScript действаше като капкомер, внедрявайки полезния товар на infostealer, модифицирайки системните регистри и изпълнявайки JavaScript като планирана задача. След това се изпълнява скрипт на PowerShell, завършвайки внедряването на AsyncRAT.
Докато голяма част от този процес е познат, един ключов детайл се открои: VBScript беше необичайно добре структуриран и съдържаше коментари - необичайна практика при разработването на зловреден софтуер. Още по-изненадващо, сценарият е написан на френски. Тези фактори накараха изследователите на HP да повярват, че капкомерът не е създаден от човек, а по-скоро генериран от AI.
Ролята на ИИ за намаляване на бариерата пред киберпрестъпниците
За да тества своята теория, екипът на HP използва свои собствени инструменти за изкуствен интелект, за да копира VBScript. Полученият скрипт имаше поразителна прилика с този, използван при атаката. Въпреки че това не е окончателно доказателство, изследователите са уверени, че AI е участвал в създаването на зловреден софтуер. Но мистерията се задълбочава: защо злонамереният софтуер не е бил скрит? Защо бяха оставени коментарите в кода?
Едно от възможните обяснения е, че нападателят е бил новодошъл в света на киберпрестъпността. Генерираният от AI злонамерен софтуер може да намалява бариерите за влизане на бъдещи хакери, като прави инструменти като генерирането на VBScript достъпни за хора с минимални технически умения. В този случай AsyncRAT, основният полезен товар, е свободно достъпен и техники като HTML контрабанда не изискват обширни познания по кодиране.
Алекс Холанд, главен изследовател на заплахи в HP, посочи, че тази атака изисква много малко ресурси. Нямаше сложна инфраструктура освен един сървър за командване и контрол (C&C) за управление на откраднатите данни. Самият злонамерен софтуер беше основен и му липсваше обичайното объркване, наблюдавано при по-сложни атаки. Накратко, това може да е дело на неопитен хакер, използващ AI, за да свърши тежката работа.
Бъдещето на генерирания от AI зловреден софтуер
Това откритие повдига друга тревожна възможност. Ако неопитен нападател може да остави улики, сочещи към скриптове, генерирани от AI, какво биха могли да постигнат по-опитните противници с подобни инструменти? Опитните киберпрестъпници вероятно биха премахнали всички следи от участие на AI, правейки откриването много по-трудно, ако не и невъзможно.
„Отдавна очаквахме, че AI може да се използва за генериране на злонамерен софтуер“, каза Холанд. „Но това е един от първите примери в реалния свят, които сме виждали. Това е още една стъпка към бъдещето, където генерираният от AI злонамерен софтуер ще стане по-напреднал и широко разпространен.“
Тъй като AI технологията продължава да напредва бързо, времевата линия за напълно автономен малуер, генериран от AI, се свива. Въпреки че е трудно да се предвиди точната времева линия, експерти като Холанд смятат, че това може да се случи през следващите няколко години. Заплахата от ИИ не се задава на хоризонта – тя вече е тук.
Подготовка за следващата вълна от киберзаплахи
Тъй като границите между човешкия и генерирания от AI зловреден софтуер се размиват, пейзажът на киберсигурността ще стане още по-предизвикателен. Въпреки че този инцидент служи като предупреждение, той е и поглед към бъдещето, където AI ще играе по-голяма роля в кибератаките. Специалистите по сигурността трябва да останат бдителни, като непрекъснато адаптират защитата си, за да се противопоставят на тези възникващи заплахи.
С генерирания от AI злонамерен софтуер, който се появява за първи път в дивата природа, не е пресилено да си представим време, когато по-сложните, задвижвани от AI атаки се превърнат в норма. Както застрашително предполага Холанд, може би вече казваме: „Те вече са тук! Ти си следващият! Ти си следващият!“