Datorsäkerhet Iranska hackare missbrukade ChatGPT i cyberattacker...

Iranska hackare missbrukade ChatGPT i cyberattacker inriktade på kritisk infrastruktur

I en banbrytande rapport avslöjade OpenAI hur iranska hackare utnyttjade ChatGPT för att förbättra cyberattacker på industriella kontrollsystem (ICS). Rapporten belyser cyberaktiviteter som utförs av grupper som CyberAv3ngers, kopplade till Irans islamiska revolutionsgardet (IRGC), och andra sponsrade av Kina.

Dessa hotaktörer använde ChatGPT för spaning, exploatering av sårbarheter och åtgärder efter kompromisser. Även om OpenAI betonar att AI inte erbjöd nya möjligheter, hjälpte det dessa hackare att utföra attacker mer effektivt med hjälp av allmänt tillgängliga tekniker.

Iranska gruppen CyberAv3ngers och attacker mot vattenanläggningar

CyberAv3ngers blev känd i år för att ha inriktat sig på vattenverk i Irland och Pennsylvania, vilket orsakade betydande störningar. Gruppen utnyttjade dåligt säkrade ICS-system som var utsatta för internet och använde standardlösenord. Deras fokus låg på programmerbara logiska styrenheter (PLC), kritiska enheter som styr industriella processer.

Deras användning av ChatGPT innebar att de bad chatboten om information om industriella routrar, PLC:er och standardlösenord för kritiska infrastrukturenheter som Tridium Niagara och Hirschmann RS-routrar.

Missbruk av AI för cyberattacker

Förutom ICS-specifika mål, sökte CyberAv3ngers hjälp från ChatGPT för att fördunkla skadlig kod och skanna nätverk efter exploateringsbara sårbarheter. Gruppen försökte också hitta sätt att komma åt macOS-lösenord.

OpenAI klargjorde dock att dessa aktiviteter inte gav hackarna några nya eller avancerade möjligheter utöver vad som är tillgängligt genom icke-AI-verktyg. Detta belyser farorna med missbruk av AI, även om informationen som erhålls inte är revolutionerande.

Andra inblandade hotaktörer

Förutom CyberAv3ngers missbrukade en annan iransk grupp känd som Storm-0817 ChatGPT. De försökte utveckla skadlig programvara för Android och skrapa Instagram-data och utnyttjade AI för att översätta LinkedIn-profiler till persiska. Även om de inte är lika direkt skadliga som ICS-attacker, återspeglar dessa aktiviteter bredare ansträngningar för att beväpna AI i cyberoperationer.

Kina-kopplade SweetSpectre nämndes också i rapporten. Denna grupp använde ChatGPT för utveckling av skadlig programvara och sårbarhetsforskning. Speciellt försökte SweetSpectre skicka e-postmeddelanden med skadlig programvara till OpenAI-anställda, men attacken omintetgjordes innan den nådde sina mål.

Den större bilden

Rapporten understryker den ökande risken för AI-missbruk i cyberkrigföring. Även om AI, inklusive ChatGPT, kan effektivisera uppgifter för legitima användare, kan det också fungera som ett verktyg för dåliga aktörer. OpenAI:s proaktiva tillvägagångssätt för att upptäcka och neutralisera dessa hot är avgörande för att dämpa deras inverkan.

Detta väcker frågor för cybersäkerhetsindustrin: Hur kan AI skyddas från missbruk? Vilka åtgärder krävs för att förhindra hotaktörer från att använda sådana verktyg för att förbättra sin kapacitet?

Dessa avslöjanden bör få industrier och regeringar att ompröva säkerhetsstrategier, särskilt för kritisk infrastruktur, och prioritera att täppa till de luckor som tillåter hackare att utnyttja sårbara system.

AI har en enorm potential att främja industrier och förbättra effektiviteten. Men som rapporten visar är det också ett tveeggat svärd. När den missbrukas kan den förstärka kapaciteten hos cyberkriminella och nationalstatliga aktörer. Att ligga steget före dessa hot kräver konstant vaksamhet, starkare försvar och ansvarsfull utveckling av AI-teknik.

ChatGPT:s roll i dessa incidenter kan vara begränsad, men den fungerar som en väckarklocka för de bredare implikationerna av AI i cybersäkerhetslandskapet.

Läser in...