Íránští hackeři zneužili ChatGPT při kyberútocích zaměřených na kritickou infrastrukturu

V průkopnické zprávě OpenAI odhalilo, jak íránští hackeři zneužili ChatGPT k posílení kybernetických útoků na průmyslové řídicí systémy (ICS). Zpráva vrhá světlo na kybernetické aktivity prováděné skupinami jako CyberAv3ngers spojenými s íránskými islámskými revolučními gardami (IRGC) a dalšími sponzorovanými Čínou.
Tito aktéři hrozeb používali ChatGPT k průzkumu, zneužívání zranitelnosti a akcím po kompromitaci. I když OpenAI zdůrazňuje, že umělá inteligence nenabízela nové možnosti, pomohla těmto hackerům provádět útoky efektivněji pomocí veřejně dostupných technik.
Obsah
CyberAv3ngers a útoky na vodní zařízení Íránské skupiny
CyberAv3ngers se letos proslavily tím, že se zaměřovaly na vodohospodářské společnosti v Irsku a Pensylvánii, což způsobilo značné narušení. Skupina zneužila špatně zabezpečené systémy ICS, které byly vystaveny internetu, a používala výchozí hesla. Zaměřili se na programovatelné logické automaty (PLC), kritická zařízení řídící průmyslové procesy.
Jejich použití ChatGPT zahrnovalo dotazování chatbota na informace o průmyslových směrovačích, PLC a výchozích heslech pro zařízení kritické infrastruktury, jako jsou směrovače Tridium Niagara a Hirschmann RS.
Zneužití AI pro kybernetické útoky
Kromě cílů specifických pro ICS, CyberAv3ngers hledali pomoc od ChatGPT, aby obfuskovali škodlivý kód a skenovali sítě na zneužitelná zranitelnost. Skupina se také pokusila najít způsoby, jak získat přístup k heslům macOS.
OpenAI však objasnilo, že tyto aktivity neposkytují hackerům žádné nové nebo pokročilé schopnosti nad rámec toho, co je dostupné prostřednictvím nástrojů jiných než AI. To zdůrazňuje nebezpečí zneužití AI, i když získané informace nejsou převratné.
Další zapojení aktéři ohrožení
Kromě CyberAv3ngers zneužila ChatGPT další íránská skupina známá jako Storm-0817. Pokusili se vyvinout malware pro Android a seškrábat data Instagramu a využít AI k překladu profilů LinkedIn do perštiny. I když nejsou tak přímo škodlivé jako útoky ICS, tyto aktivity odrážejí širší snahy o vyzbrojení AI v kybernetických operacích.
Ve zprávě byla zmíněna i společnost SweetSpectre napojená na Čínu. Tato skupina používala ChatGPT pro vývoj malwaru a výzkum zranitelnosti. SweetSpectre se zejména pokusil poslat zaměstnancům OpenAI e-maily plné malwaru, ale útok byl zmařen dříve, než dosáhl svých cílů.
Větší obrázek
Zpráva zdůrazňuje rostoucí riziko zneužití umělé inteligence v kybernetické válce. Přestože umělá inteligence, včetně ChatGPT, může zefektivnit úkoly pro legitimní uživatele, může také sloužit jako nástroj pro špatné herce. Proaktivní přístup OpenAI k detekci a neutralizaci těchto hrozeb je zásadní pro omezení jejich dopadu.
To vyvolává otázky pro odvětví kybernetické bezpečnosti: Jak lze AI ochránit před zneužitím? Jaká opatření jsou nezbytná k tomu, aby se zabránilo aktérům ohrožení používat takové nástroje ke zvýšení svých schopností?
Tato odhalení by měla přimět průmyslová odvětví a vlády, aby přehodnotily bezpečnostní strategie, zejména pro kritickou infrastrukturu, a upřednostňovaly zaplnění mezer, které hackerům umožňují zneužít zranitelné systémy.
Umělá inteligence má obrovský potenciál posunout průmyslová odvětví a zlepšit efektivitu. Ale jak zpráva ukazuje, je to také dvousečná zbraň. Při zneužití může posílit schopnosti kyberzločinců a aktérů národního státu. Udržet si náskok před těmito hrozbami vyžaduje neustálou ostražitost, silnější obranu a zodpovědný vývoj technologií AI.
Role ChatGPT v těchto incidentech může být omezená, ale slouží jako budíček pro širší důsledky AI v prostředí kybernetické bezpečnosti.