Iráni hackerek visszaéltek a ChatGPT-vel kritikus infrastruktúrát célzó kibertámadások során

Egy úttörő jelentésben az OpenAI felfedte, hogy az iráni hackerek hogyan használták ki a ChatGPT-t az ipari vezérlőrendszerek (ICS) elleni kibertámadások fokozására. A jelentés rávilágít az olyan csoportok kibertevékenységére, mint az iráni Iszlám Forradalmi Gárda (IRGC) és más, Kína által támogatott csoportok, például a CyberAv3ngers.
Ezek a fenyegető szereplők a ChatGPT-t használták felderítésre, sebezhetőségek kihasználására és a kompromittálódást követő műveletekre. Noha az OpenAI hangsúlyozza, hogy az AI nem kínált új képességeket, segített ezeknek a hackereknek a nyilvánosan elérhető technikák segítségével hatékonyabban végrehajtani a támadásokat.
Tartalomjegyzék
Iráni csoport CyberAv3ngers és Water Facility támadások
A CyberAv3ngers idén azzal vált ismertté, hogy Írországban és Pennsylvaniában célzott víziközműveket, jelentős fennakadásokat okozva. A csoport olyan rosszul védett ICS-rendszereket használt ki, amelyek ki voltak téve az internetnek, és alapértelmezett jelszavakat használtak. Fókuszban a programozható logikai vezérlők (PLC) álltak, amelyek az ipari folyamatokat vezérlő kritikus eszközök.
A ChatGPT használata során információkat kértek a chatbottól az ipari útválasztókról, PLC-kről és a kritikus infrastrukturális eszközök, például a Tridium Niagara és a Hirschmann RS útválasztók alapértelmezett jelszavairól.
AI visszaélés kibertámadásokhoz
Az ICS-specifikus célokon kívül a CyberAv3ngers segítséget kért a ChatGPT-től a rosszindulatú kódok elhomályosítása és a hálózatok kihasználható sebezhetőségeinek keresése érdekében. A csoport megpróbálta megtalálni a módját a macOS jelszavak elérésének.
Az OpenAI azonban tisztázta, hogy ezek a tevékenységek nem biztosítottak a hackerek számára új vagy fejlettebb képességeket a nem mesterséges intelligencia eszközökön keresztül elérhetőeken túl. Ez rávilágít az AI visszaélés veszélyeire, még akkor is, ha a megszerzett információ nem forradalmi.
Egyéb érintett szereplők
A CyberAv3ngers mellett egy másik Storm-0817 néven ismert iráni csoport is visszaélt a ChatGPT-vel. Megpróbáltak androidos rosszindulatú programokat kifejleszteni, és az Instagram-adatokat lekaparni, kihasználva az AI-t a LinkedIn-profilok perzsa nyelvre történő lefordításához. Bár nem olyan közvetlenül károsak, mint az ICS-támadások, ezek a tevékenységek a mesterséges intelligencia kiberműveletekben való fegyveresítésére irányuló szélesebb körű erőfeszítéseket tükrözik.
A Kínához köthető SweetSpectre is szóba került a jelentésben. Ez a csoport a ChatGPT-t használta rosszindulatú programok fejlesztésére és sebezhetőségi kutatására. A SweetSpectre megkísérelt rosszindulatú programokkal teli e-maileket küldeni az OpenAI alkalmazottainak, de a támadást meghiúsították, mielőtt elérte volna a célját.
A nagyobb kép
A jelentés kiemeli a mesterséges intelligencia visszaéléseinek növekvő kockázatát a kiberhadviselés során. Bár a mesterséges intelligencia, beleértve a ChatGPT-t is, leegyszerűsítheti a jogos felhasználók feladatait, de a rossz szereplők eszközeként is szolgálhat. Az OpenAI proaktív megközelítése e fenyegetések észlelésére és semlegesítésére létfontosságú hatásuk visszaszorításához.
Ez kérdéseket vet fel a kiberbiztonsági iparban: Hogyan védhető meg a mesterséges intelligencia a visszaélésektől? Milyen intézkedések szükségesek ahhoz, hogy a fenyegetés szereplői ne használjanak ilyen eszközöket képességeik javítására?
Ezek a leleplezések arra késztetik az iparágakat és a kormányokat, hogy gondolják újra a biztonsági stratégiákat, különösen a kritikus infrastruktúrákra vonatkozóan, és prioritásként kezeljék azoknak a hiányosságoknak a megszüntetését, amelyek lehetővé teszik a hackerek számára, hogy kihasználják a sebezhető rendszereket.
A mesterséges intelligencia óriási lehetőségeket rejt magában az iparágak előmozdítására és a hatékonyság javítására. De ahogy a jelentés is mutatja, ez is kétélű fegyver. Ha helytelenül használják, felerősítheti a kiberbűnözők és a nemzetállami szereplők képességeit. E fenyegetések megelőzéséhez állandó éberség, erősebb védelem és az AI-technológiák felelős fejlesztése szükséges.
A ChatGPT szerepe ezekben az incidensekben korlátozott lehet, de ébresztőként szolgál a mesterséges intelligencia kiberbiztonsági környezetre gyakorolt szélesebb körű hatásaira.