Ирански хакери злоупотребиха с ChatGPT при кибератаки, насочени към критична инфраструктура

В новаторски доклад OpenAI разкри как ирански хакери са използвали ChatGPT, за да подобрят кибератаките срещу индустриални системи за контрол (ICS). Докладът хвърля светлина върху кибернетични дейности, извършвани от групи като CyberAv3ngers, свързани с Ислямския революционен гвардейски корпус на Иран (IRGC), и други, спонсорирани от Китай.
Тези заплахи са използвали ChatGPT за разузнаване, използване на уязвимости и действия след компрометиране. Въпреки че OpenAI подчертава, че AI не предлага нови възможности, той е помогнал на тези хакери да извършват атаки по-ефективно, използвайки публично достъпни техники.
Съдържание
Иранска група CyberAv3ngers и атаки на водни съоръжения
CyberAv3ngers спечелиха известност тази година с това, че се насочиха към водоснабдителните компании в Ирландия и Пенсилвания, причинявайки значителни смущения. Групата е използвала лошо защитени ICS системи, които са били изложени на интернет и са използвали пароли по подразбиране. Техният фокус беше върху програмируемите логически контролери (PLC), критични устройства, управляващи промишлени процеси.
Тяхното използване на ChatGPT включва искане на chatbot за информация за индустриални рутери, PLC и пароли по подразбиране за критични инфраструктурни устройства като Tridium Niagara и Hirschmann RS рутери.
Злоупотреба с AI за кибератаки
В допълнение към специфичните за ICS цели, CyberAv3ngers потърси помощ от ChatGPT, за да замаскира зловреден код и да сканира мрежи за експлоатируеми уязвимости. Групата също се опита да намери начини за достъп до пароли за macOS.
OpenAI обаче пояснява, че тези дейности не са предоставили на хакерите никакви нови или усъвършенствани възможности извън това, което е достъпно чрез инструменти, които не са AI. Това подчертава опасностите от злоупотреба с AI, дори ако получената информация не е революционна.
Други участници в заплахата
Освен CyberAv3ngers, друга иранска група, известна като Storm-0817, злоупотребява с ChatGPT. Те се опитаха да разработят злонамерен софтуер за Android и да изтрият данни от Instagram, използвайки AI за превод на профили в LinkedIn на персийски. Въпреки че не са толкова пряко увреждащи, колкото ICS атаките, тези дейности отразяват по-широки усилия за въоръжение на ИИ в кибер операции.
Свързаната с Китай SweetSpectre също беше спомената в доклада. Тази група използва ChatGPT за разработване на зловреден софтуер и изследване на уязвимости. За отбелязване е, че SweetSpectre се опита да изпрати натоварени със зловреден софтуер имейли до служители на OpenAI, но атаката беше осуетена, преди да достигне целите си.
По-голямата картина
Докладът подчертава нарастващия риск от злоупотреба с ИИ в кибервойната. Въпреки че AI, включително ChatGPT, може да рационализира задачите за законни потребители, той може да служи и като инструмент за лоши актьори. Проактивният подход на OpenAI за откриване и неутрализиране на тези заплахи е от жизненоважно значение за ограничаване на тяхното въздействие.
Това повдига въпроси за индустрията за киберсигурност: Как AI може да бъде защитен от злоупотреба? Какви мерки са необходими, за да се попречи на участниците в заплахата да използват такива инструменти за подобряване на техните способности?
Тези разкрития трябва да накарат индустриите и правителствата да преосмислят стратегиите за сигурност, особено за критичната инфраструктура, и да дадат приоритет на затварянето на пропуските, които позволяват на хакерите да експлоатират уязвими системи.
AI има огромен потенциал за напредък на индустриите и подобряване на ефективността. Но както показва докладът, това също е нож с две остриета. Когато се използва неправилно, той може да разшири възможностите на киберпрестъпниците и участниците в националните държави. Изпреварването на тези заплахи изисква постоянна бдителност, по-силни защити и отговорно развитие на AI технологиите.
Ролята на ChatGPT в тези инциденти може да е ограничена, но служи като сигнал за събуждане за по-широките последици от AI в пейзажа на киберсигурността.