Irańscy hakerzy niewłaściwie wykorzystali ChatGPT w cyberatakach na infrastrukturę krytyczną

W przełomowym raporcie OpenAI ujawniło, jak irańscy hakerzy wykorzystali ChatGPT do zwiększenia cyberataków na systemy sterowania przemysłowego (ICS). Raport rzuca światło na cyberdziałania prowadzone przez grupy takie jak CyberAv3ngers, powiązane z Korpusem Strażników Rewolucji Islamskiej Iranu (IRGC) i inne sponsorowane przez Chiny.
Ci aktorzy zagrożeń używali ChatGPT do rozpoznania, wykorzystywania luk w zabezpieczeniach i działań po włamaniu. Podczas gdy OpenAI podkreśla, że sztuczna inteligencja nie oferowała nowych możliwości, pomogła tym hakerom przeprowadzać ataki bardziej efektywnie, wykorzystując publicznie dostępne techniki.
Spis treści
Irańska Grupa CyberAv3ngers i ataki na zakłady wodne
CyberAv3ngers zyskało w tym roku rozgłos, atakując zakłady wodociągowe w Irlandii i Pensylwanii, powodując znaczne zakłócenia. Grupa wykorzystała słabo zabezpieczone systemy ICS, które były narażone na działanie Internetu i używały domyślnych haseł. Skupiali się na programowalnych sterownikach logicznych (PLC), krytycznych urządzeniach sterujących procesami przemysłowymi.
Wykorzystanie ChatGPT polegało na poproszeniu chatbota o podanie informacji na temat routerów przemysłowych, sterowników PLC i domyślnych haseł do urządzeń infrastruktury krytycznej, takich jak routery Tridium Niagara i Hirschmann RS.
Nadużywanie sztucznej inteligencji w cyberatakach
Oprócz celów specyficznych dla ICS, CyberAv3ngers zwrócił się o pomoc do ChatGPT w celu zaciemnienia złośliwego kodu i przeskanowania sieci pod kątem podatności na wykorzystanie. Grupa próbowała również znaleźć sposoby na dostęp do haseł macOS.
Jednak OpenAI wyjaśniło, że te działania nie zapewniły hakerom żadnych nowych ani zaawansowanych możliwości poza tymi, które są dostępne za pośrednictwem narzędzi innych niż AI. Podkreśla to niebezpieczeństwa związane z niewłaściwym wykorzystaniem AI, nawet jeśli uzyskane informacje nie są rewolucyjne.
Inni zaangażowani aktorzy zagrożeń
Oprócz CyberAv3ngers inna irańska grupa znana jako Storm-0817 nadużywała ChatGPT. Próbowali opracować złośliwe oprogramowanie na Androida i zeskrobać dane z Instagrama, wykorzystując sztuczną inteligencję do tłumaczenia profili LinkedIn na perski. Choć nie są tak bezpośrednio szkodliwe jak ataki ICS, działania te odzwierciedlają szersze wysiłki na rzecz uzbrojenia sztucznej inteligencji w cyberoperacjach.
W raporcie wspomniano również o powiązanym z Chinami SweetSpectre. Ta grupa używała ChatGPT do opracowywania złośliwego oprogramowania i badań nad lukami w zabezpieczeniach. Co ciekawe, SweetSpectre próbował wysyłać e-maile z malware do pracowników OpenAI, ale atak został udaremniony, zanim dotarł do celu.
Szerszy obraz
Raport podkreśla rosnące ryzyko niewłaściwego wykorzystania AI w cyberwojnie. Chociaż AI, w tym ChatGPT, może usprawniać zadania dla prawowitych użytkowników, może również służyć jako narzędzie dla złych aktorów. Proaktywne podejście OpenAI do wykrywania i neutralizowania tych zagrożeń ma kluczowe znaczenie dla ograniczenia ich wpływu.
Rodzi to pytania dla branży cyberbezpieczeństwa: Jak można chronić AI przed niewłaściwym użyciem? Jakie środki są konieczne, aby uniemożliwić aktorom zagrożeń korzystanie z takich narzędzi w celu zwiększenia ich możliwości?
Te odkrycia powinny skłonić branże i rządy do ponownego przemyślenia strategii bezpieczeństwa, zwłaszcza w odniesieniu do infrastruktury krytycznej, i nadania priorytetu usuwaniu luk, które umożliwiają hakerom wykorzystywanie podatnych na ataki systemów.
AI ma ogromny potencjał, aby rozwijać branże i zwiększać wydajność. Ale jak pokazuje raport, jest to również miecz obosieczny. Gdy jest niewłaściwie używana, może wzmacniać możliwości cyberprzestępców i podmiotów państwowych. Aby wyprzedzić te zagrożenia, konieczna jest stała czujność, silniejsza obrona i odpowiedzialny rozwój technologii AI.
Rola ChatGPT w tych incydentach może być ograniczona, jednak stanowi ona sygnał ostrzegawczy dotyczący szerszych implikacji sztucznej inteligencji w obszarze cyberbezpieczeństwa.