Iranski hekerji so zlorabili ChatGPT pri kibernetskih napadih, usmerjenih na kritično infrastrukturo

V prelomnem poročilu je OpenAI razkril, kako so iranski hekerji izkoristili ChatGPT za izboljšanje kibernetskih napadov na industrijske nadzorne sisteme (ICS). Poročilo osvetljuje kibernetske dejavnosti, ki jih izvajajo skupine, kot je CyberAv3ngers, povezane z iransko Islamsko revolucionarno gardo (IRGC), in druge, ki jih sponzorira Kitajska.
Ti akterji groženj so uporabili ChatGPT za izvidovanje, izkoriščanje ranljivosti in dejanja po odkritju. Čeprav OpenAI poudarja, da umetna inteligenca ni ponudila novih zmogljivosti, je tem hekerjem pomagala učinkoviteje izvajati napade z uporabo javno dostopnih tehnik.
Kazalo
Iranska skupina CyberAv3ngers in napadi na vodne objekte
CyberAv3ngers je letos zaslovel zaradi ciljanja na vodovodna podjetja na Irskem in v Pensilvaniji, kar je povzročilo znatne motnje. Skupina je izkoriščala slabo zavarovane sisteme ICS, ki so bili izpostavljeni internetu in so uporabljali privzeta gesla. Njihov poudarek je bil na programabilnih logičnih krmilnikih (PLC), kritičnih napravah za nadzor industrijskih procesov.
Njihova uporaba ChatGPT je vključevala povpraševanje chatbota po informacijah o industrijskih usmerjevalnikih, PLC-jih in privzetih geslih za kritične infrastrukturne naprave, kot sta usmerjevalniki Tridium Niagara in Hirschmann RS.
Zloraba AI za kibernetske napade
Poleg ciljev, specifičnih za ICS, je CyberAv3ngers poiskal pomoč pri ChatGPT za zameglitev zlonamerne kode in skeniranje omrežij za ranljivosti, ki jih je mogoče izkoristiti. Skupina je prav tako poskušala najti načine za dostop do gesel za macOS.
Vendar pa je OpenAI pojasnil, da te dejavnosti hekerjem niso zagotovile nobenih novih ali naprednih zmogljivosti, razen tistega, kar je na voljo prek orodij, ki niso AI. To poudarja nevarnosti zlorabe umetne inteligence, tudi če pridobljene informacije niso revolucionarne.
Drugi vpleteni akterji groženj
Poleg CyberAv3ngers je druga iranska skupina, znana kot Storm-0817, zlorabila ChatGPT. Poskušali so razviti zlonamerno programsko opremo za Android in postrgati podatke Instagrama, pri čemer so uporabili AI za prevajanje profilov LinkedIn v perzijščino. Čeprav niso tako neposredno škodljivi kot napadi ICS, te dejavnosti odražajo širša prizadevanja za orožje AI v kibernetskih operacijah.
V poročilu je bil omenjen tudi SweetSpectre, povezan s Kitajsko. Ta skupina je uporabila ChatGPT za razvoj zlonamerne programske opreme in raziskavo ranljivosti. Predvsem je SweetSpectre poskušal poslati e-pošto z zlonamerno programsko opremo zaposlenim v OpenAI, vendar je bil napad onemogočen, preden je dosegel svoje cilje.
Večja slika
Poročilo poudarja naraščajoče tveganje zlorabe umetne inteligence v kibernetskem vojskovanju. Čeprav lahko AI, vključno s ChatGPT, racionalizira naloge za zakonite uporabnike, lahko služi tudi kot orodje za slabe akterje. Proaktivni pristop OpenAI k odkrivanju in nevtralizaciji teh groženj je ključnega pomena za omejitev njihovega vpliva.
To sproža vprašanja za industrijo kibernetske varnosti: Kako je mogoče AI zaščititi pred zlorabo? Kateri ukrepi so potrebni, da akterjem groženj preprečimo uporabo takih orodij za izboljšanje svojih zmogljivosti?
Ta razkritja bi morala spodbuditi industrije in vlade, da ponovno razmislijo o varnostnih strategijah, zlasti za kritično infrastrukturo, in dajo prednost zapolnitvi vrzeli, ki hekerjem omogočajo izkoriščanje ranljivih sistemov.
AI ima ogromen potencial za napredek v panogah in izboljšanje učinkovitosti. A kot kaže poročilo, je to tudi dvorezen meč. Če se zlorablja, lahko poveča zmogljivosti kibernetskih kriminalcev in akterjev v nacionalni državi. Biti pred temi grožnjami zahteva stalno pazljivost, močnejšo obrambo in odgovoren razvoj tehnologij umetne inteligence.
Vloga ChatGPT v teh incidentih je morda omejena, vendar služi kot opozorilo za širše posledice umetne inteligence v okolju kibernetske varnosti.