Hackerii iranieni au folosit greșit ChatGPT în atacuri cibernetice care vizează infrastructura critică

Într-un raport revoluționar, OpenAI a dezvăluit modul în care hackerii iranieni au exploatat ChatGPT pentru a îmbunătăți atacurile cibernetice asupra sistemelor de control industrial (ICS). Raportul pune în lumină activitățile cibernetice desfășurate de grupuri precum CyberAv3ngers, legate de Corpul Gărzilor Revoluționare Islamice (IRGC) din Iran și de altele sponsorizate de China.
Acești actori de amenințări au folosit ChatGPT pentru recunoaștere, exploatarea vulnerabilităților și acțiuni post-compromis. Deși OpenAI subliniază că AI nu a oferit noi capabilități, a ajutat acești hackeri să efectueze atacuri mai eficient folosind tehnici disponibile public.
Cuprins
Grupul iranian CyberAv3ngers și atacuri la instalațiile de apă
CyberAv3ngers a câștigat notorietate anul acesta pentru că vizează utilitățile de apă din Irlanda și Pennsylvania, provocând perturbări semnificative. Grupul a exploatat sisteme ICS prost securizate care au fost expuse internetului și au folosit parole implicite. Accentul lor a fost pe controlere logice programabile (PLC), dispozitive critice care controlează procesele industriale.
Utilizarea lor a ChatGPT a implicat solicitarea chatbot-ului de informații despre routerele industriale, PLC-uri și parolele implicite pentru dispozitivele de infrastructură critică, cum ar fi routerele Tridium Niagara și Hirschmann RS.
Folosirea greșită a AI pentru atacuri cibernetice
În plus față de țintele specifice ICS, CyberAv3ngers a căutat asistență de la ChatGPT pentru a ofusca codul rău intenționat și a scana rețelele pentru vulnerabilități exploatabile. De asemenea, grupul a încercat să găsească modalități de a accesa parolele macOS.
Cu toate acestea, OpenAI a clarificat că aceste activități nu le-au oferit hackerilor nicio capacitate nouă sau avansată în afară de ceea ce este disponibil prin instrumente non-AI. Acest lucru evidențiază pericolele utilizării greșite a AI, chiar dacă informațiile obținute nu sunt revoluționare.
Alți actori de amenințare implicați
Pe lângă CyberAv3ngers, un alt grup iranian cunoscut sub numele de Storm-0817 a folosit abuziv ChatGPT. Ei au încercat să dezvolte malware pentru Android și să răzuiască datele Instagram, utilizând AI pentru a traduce profilurile LinkedIn în persană. Deși nu sunt la fel de dăunătoare ca atacurile ICS, aceste activități reflectă eforturi mai ample de a arma AI în operațiunile cibernetice.
În raport a fost menționat și SweetSpectre, legat de China. Acest grup a folosit ChatGPT pentru dezvoltarea de programe malware și cercetarea vulnerabilităților. În special, SweetSpectre a încercat să trimită e-mailuri încărcate cu malware angajaților OpenAI, dar atacul a fost dejucat înainte de a-și atinge obiectivele.
Imaginea de ansamblu
Raportul subliniază riscul tot mai mare de utilizare abuzivă a inteligenței artificiale în războiul cibernetic. Deși AI, inclusiv ChatGPT, poate eficientiza sarcinile pentru utilizatorii legitimi, poate servi și ca instrument pentru actorii răi. Abordarea proactivă a OpenAI pentru detectarea și neutralizarea acestor amenințări este vitală pentru a le reduce impactul.
Acest lucru ridică întrebări pentru industria securității cibernetice: Cum poate fi protejată AI de utilizarea abuzivă? Ce măsuri sunt necesare pentru a împiedica actorii amenințărilor să folosească astfel de instrumente pentru a-și îmbunătăți capacitățile?
Aceste dezvăluiri ar trebui să determine industriile și guvernele să regândească strategiile de securitate, în special pentru infrastructura critică, și să acorde prioritate reducerii decalajelor care permit hackerilor să exploateze sistemele vulnerabile.
AI are un potențial extraordinar de a promova industriile și de a îmbunătăți eficiența. Dar, după cum arată raportul, este și o sabie cu două tăișuri. Atunci când este utilizat greșit, poate amplifica capacitățile infractorilor cibernetici și ale actorilor din statul național. A rămâne în fața acestor amenințări necesită vigilență constantă, apărare mai puternică și dezvoltarea responsabilă a tehnologiilor AI.
Rolul ChatGPT în aceste incidente poate fi limitat, dar servește ca un semnal de alarmă pentru implicațiile mai largi ale AI în peisajul securității cibernetice.