Irānas hakeri ļaunprātīgi izmantoja ChatGPT kiberuzbrukumos, kuru mērķis bija kritiskā infrastruktūra

Revolucionārā ziņojumā OpenAI atklāja, kā Irānas hakeri izmantoja ChatGPT, lai veicinātu kiberuzbrukumus rūpnieciskās kontroles sistēmām (ICS). Ziņojums atklāj kiberdarbības, ko veic tādas grupas kā CyberAv3ngers, kas saistītas ar Irānas Islāma revolucionāro gvardu korpusu (IRGC), un citas, ko sponsorē Ķīna.
Šie apdraudējuma dalībnieki izmantoja ChatGPT izlūkošanai, ievainojamības izmantošanai un darbībām pēc kompromisa. Lai gan OpenAI uzsver, ka AI nepiedāvāja jaunas iespējas, tas palīdzēja šiem hakeriem efektīvāk veikt uzbrukumus, izmantojot publiski pieejamas metodes.
Satura rādītājs
Irānas grupas CyberAv3ngers un ūdens objektu uzbrukumi
CyberAv3ngers šogad ieguva bēdīgu slavu, mērķējot uz ūdensapgādes uzņēmumiem Īrijā un Pensilvānijā, radot ievērojamus traucējumus. Grupa izmantoja slikti aizsargātas ICS sistēmas, kas bija pakļautas internetam un izmantoja noklusējuma paroles. Viņu uzmanības centrā bija programmējamie loģiskie kontrolleri (PLC), kritiskās ierīces, kas kontrolē rūpnieciskos procesus.
Viņi izmantoja ChatGPT, prasīja tērzēšanas robotam informāciju par rūpnieciskajiem maršrutētājiem, PLC un noklusējuma paroles kritiskās infrastruktūras ierīcēm, piemēram, Tridium Niagara un Hirschmann RS maršrutētājiem.
AI ļaunprātīga izmantošana kiberuzbrukumiem
Papildus ICS specifiskajiem mērķiem, CyberAv3ngers lūdza palīdzību no ChatGPT, lai novērstu ļaunprātīgu kodu un skenētu tīklus, lai atrastu izmantojamas ievainojamības. Grupa arī mēģināja atrast veidus, kā piekļūt macOS parolēm.
Tomēr OpenAI paskaidroja, ka šīs darbības nesniedza hakeriem jaunas vai uzlabotas iespējas, izņemot to, kas ir pieejams ar rīkiem, kas nav AI. Tas izceļ AI ļaunprātīgas izmantošanas draudus, pat ja iegūtā informācija nav revolucionāra.
Citi iesaistītie draudu dalībnieki
Papildus CyberAv3ngers cita Irānas grupa, kas pazīstama ar nosaukumu Storm-0817, ļaunprātīgi izmantoja ChatGPT. Viņi mēģināja izstrādāt Android ļaunprātīgu programmatūru un nokasīt Instagram datus, izmantojot AI, lai tulkotu LinkedIn profilus persiešu valodā. Lai gan šīs darbības nav tik tiešas kaitīgas kā ICS uzbrukumi, tās atspoguļo plašākus centienus ieroci AI izmantot kiberoperācijās.
Ziņojumā tika minēts arī ar Ķīnu saistītais SweetSpectre. Šī grupa izmantoja ChatGPT ļaunprātīgas programmatūras izstrādei un ievainojamības izpētei. Proti, SweetSpectre mēģināja nosūtīt OpenAI darbiniekiem e-pasta ziņojumus ar ļaunprātīgu programmatūru, taču uzbrukums tika izjaukts, pirms tas sasniedza savus mērķus.
Lielāka bilde
Ziņojumā uzsvērts pieaugošais mākslīgā intelekta ļaunprātīgas izmantošanas risks kiberkarā. Lai gan AI, tostarp ChatGPT, var racionalizēt uzdevumus likumīgiem lietotājiem, tas var kalpot arī kā rīks sliktiem dalībniekiem. OpenAI proaktīvā pieeja šo draudu noteikšanai un neitralizēšanai ir ļoti svarīga, lai ierobežotu to ietekmi.
Tas rada jautājumus kiberdrošības nozarei: kā AI var pasargāt no ļaunprātīgas izmantošanas? Kādi pasākumi ir nepieciešami, lai novērstu to, ka apdraudējuma dalībnieki izmanto šādus rīkus savu spēju uzlabošanai?
Šīm atklāsmēm vajadzētu mudināt nozares un valdības pārdomāt drošības stratēģijas, jo īpaši attiecībā uz kritisko infrastruktūru, un noteikt par prioritāti to trūkumu novēršanu, kas ļauj hakeriem izmantot neaizsargātās sistēmas.
AI ir milzīgs potenciāls attīstīt nozares un uzlabot efektivitāti. Bet, kā liecina ziņojums, tas ir arī abpusgriezīgs zobens. Ja to izmanto nepareizi, tas var palielināt kibernoziedznieku un nacionālo valstu dalībnieku spējas. Lai izvairītos no šiem draudiem, nepieciešama pastāvīga modrība, spēcīgāka aizsardzība un atbildīga AI tehnoloģiju attīstība.
ChatGPT loma šajos negadījumos var būt ierobežota, taču tā kalpo kā trauksmes zvans plašākai AI ietekmei kiberdrošības vidē.