Datasikkerhet Iranske hackere misbrukte ChatGPT i cyberangrep rettet...

Iranske hackere misbrukte ChatGPT i cyberangrep rettet mot kritisk infrastruktur

I en banebrytende rapport avslørte OpenAI hvordan iranske hackere utnyttet ChatGPT for å forbedre cyberangrep på industrielle kontrollsystemer (ICS). Rapporten kaster lys over cyberaktiviteter utført av grupper som CyberAv3ngers, knyttet til Irans Islamic Revolutionary Guard Corps (IRGC), og andre sponset av Kina.

Disse trusselaktørene brukte ChatGPT til rekognosering, sårbarhetsutnyttelse og handlinger etter kompromiss. Mens OpenAI understreker at AI ikke ga nye funksjoner, hjalp det disse hackerne med å utføre angrep mer effektivt ved å bruke offentlig tilgjengelige teknikker.

Iransk gruppe CyberAv3ngers og vannanleggsangrep

CyberAv3ngers ble kjent i år for å ha rettet seg mot vannverk i Irland og Pennsylvania, noe som forårsaket betydelige forstyrrelser. Gruppen utnyttet dårlig sikrede ICS-systemer som var eksponert for internett og brukte standardpassord. Fokuset deres var på programmerbare logiske kontrollere (PLC), kritiske enheter som kontrollerer industrielle prosesser.

Deres bruk av ChatGPT innebar å spørre chatboten om informasjon om industrielle rutere, PLS-er og standardpassord for kritiske infrastrukturenheter som Tridium Niagara og Hirschmann RS-rutere.

Misbruk av kunstig intelligens til nettangrep

I tillegg til ICS-spesifikke mål, søkte CyberAv3ngers hjelp fra ChatGPT for å tilsløre ondsinnet kode og skanne nettverk for utnyttbare sårbarheter. Gruppen forsøkte også å finne måter å få tilgang til macOS-passord.

OpenAI presiserte imidlertid at disse aktivitetene ikke ga hackerne noen nye eller avanserte muligheter utover det som er tilgjengelig gjennom ikke-AI-verktøy. Dette fremhever farene ved misbruk av AI, selv om informasjonen som er oppnådd ikke er revolusjonerende.

Andre trusselaktører involvert

Foruten CyberAv3ngers, misbrukte en annen iransk gruppe kjent som Storm-0817 ChatGPT. De prøvde å utvikle Android-malware og skrape Instagram-data, og utnyttet AI for å oversette LinkedIn-profiler til persisk. Selv om de ikke er like direkte skadelige som ICS-angrep, reflekterer disse aktivitetene en bredere innsats for å bevæpne AI i cyberoperasjoner.

Kina-tilknyttede SweetSpectre ble også nevnt i rapporten. Denne gruppen brukte ChatGPT for utvikling av skadelig programvare og sårbarhetsforskning. Spesielt forsøkte SweetSpectre å sende e-poster med malware til OpenAI-ansatte, men angrepet ble hindret før det nådde sine mål.

Det større bildet

Rapporten understreker den økende risikoen for AI-misbruk i nettkrigføring. Selv om AI, inkludert ChatGPT, kan strømlinjeforme oppgaver for legitime brukere, kan det også tjene som et verktøy for dårlige skuespillere. OpenAIs proaktive tilnærming til å oppdage og nøytralisere disse truslene er avgjørende for å dempe deres innvirkning.

Dette reiser spørsmål for cybersikkerhetsindustrien: Hvordan kan AI beskyttes mot misbruk? Hvilke tiltak er nødvendige for å hindre trusselaktører fra å bruke slike verktøy for å forbedre sine evner?

Disse avsløringene bør få industrier og myndigheter til å revurdere sikkerhetsstrategier, spesielt for kritisk infrastruktur, og prioritere å tette hullene som lar hackere utnytte sårbare systemer.

AI har et enormt potensial for å fremme bransjer og forbedre effektiviteten. Men som rapporten viser, er det også et tveegget sverd. Når det misbrukes, kan det forsterke evnene til nettkriminelle og nasjonalstatlige aktører. Å ligge i forkant av disse truslene krever konstant årvåkenhet, sterkere forsvar og ansvarlig utvikling av AI-teknologier.

Rollen til ChatGPT i disse hendelsene kan være begrenset, men den fungerer som en vekker for de bredere implikasjonene av AI i cybersikkerhetslandskapet.

Laster inn...