Computersikkerhed Iranske hackere misbrugte ChatGPT i cyberangreb rettet...

Iranske hackere misbrugte ChatGPT i cyberangreb rettet mod kritisk infrastruktur

I en banebrydende rapport afslørede OpenAI, hvordan iranske hackere udnyttede ChatGPT til at forbedre cyberangreb på industrielle kontrolsystemer (ICS). Rapporten kaster lys over cyberaktiviteter udført af grupper som CyberAv3ngers, knyttet til Irans Islamiske Revolutionsgarde (IRGC) og andre sponsoreret af Kina.

Disse trusselsaktører brugte ChatGPT til rekognoscering, udnyttelse af sårbarhed og handlinger efter kompromis. Mens OpenAI understreger, at AI ikke tilbød nye muligheder, hjalp det disse hackere med at udføre angreb mere effektivt ved hjælp af offentligt tilgængelige teknikker.

Den iranske gruppe CyberAv3ngere og angreb på vandfaciliteter

CyberAv3ngers blev kendt i år for at målrette mod vandforsyninger i Irland og Pennsylvania, hvilket forårsagede betydelige forstyrrelser. Gruppen udnyttede dårligt sikrede ICS-systemer, der var udsat for internettet, og brugte standardadgangskoder. Deres fokus var på programmerbare logiske controllere (PLC'er), kritiske enheder, der styrer industrielle processer.

Deres brug af ChatGPT involverede at bede chatbotten om information om industrielle routere, PLC'er og standardadgangskoder til kritiske infrastrukturenheder som Tridium Niagara og Hirschmann RS-routere.

Misbrug af kunstig intelligens til cyberangreb

Ud over ICS-specifikke mål søgte CyberAv3ngers hjælp fra ChatGPT til at sløre ondsindet kode og scanne netværk for udnyttelige sårbarheder. Gruppen forsøgte også at finde måder at få adgang til macOS-adgangskoder.

Men OpenAI præciserede, at disse aktiviteter ikke gav hackerne nogen nye eller avancerede muligheder ud over, hvad der er tilgængeligt gennem ikke-AI-værktøjer. Dette fremhæver farerne ved AI-misbrug, selvom de opnåede oplysninger ikke er revolutionerende.

Andre involverede trusselsaktører

Udover CyberAv3ngers misbrugte en anden iransk gruppe kendt som Storm-0817 ChatGPT. De forsøgte at udvikle Android-malware og skrabe Instagram-data ved at udnytte AI til at oversætte LinkedIn-profiler til persisk. Selvom de ikke er lige så direkte skadelige som ICS-angreb, afspejler disse aktiviteter en bredere indsats for at våben AI i cyberoperationer.

Kina-linkede SweetSpectre blev også nævnt i rapporten. Denne gruppe brugte ChatGPT til malwareudvikling og sårbarhedsforskning. Navnlig forsøgte SweetSpectre at sende malware-ladede e-mails til OpenAI-medarbejdere, men angrebet blev forpurret, før det nåede sine mål.

Det større billede

Rapporten understreger den voksende risiko for AI-misbrug i cyberkrigsførelse. Selvom AI, inklusive ChatGPT, kan strømline opgaver for legitime brugere, kan det også tjene som et værktøj for dårlige skuespillere. OpenAIs proaktive tilgang til at opdage og neutralisere disse trusler er afgørende for at dæmme deres indvirkning.

Dette rejser spørgsmål for cybersikkerhedsindustrien: Hvordan kan AI beskyttes mod misbrug? Hvilke foranstaltninger er nødvendige for at forhindre trusselsaktører i at bruge sådanne værktøjer til at forbedre deres kapacitet?

Disse afsløringer bør få industrier og regeringer til at genoverveje sikkerhedsstrategier, især for kritisk infrastruktur, og prioritere at lukke de huller, der giver hackere mulighed for at udnytte sårbare systemer.

AI har et enormt potentiale til at fremme industrier og forbedre effektiviteten. Men som rapporten viser, er det også et tveægget sværd. Når det misbruges, kan det forstærke cyberkriminelles og nationalstatsaktørers evner. At være på forkant med disse trusler kræver konstant årvågenhed, stærkere forsvar og ansvarlig udvikling af AI-teknologier.

ChatGPT's rolle i disse hændelser kan være begrænset, men det tjener som et wake-up call for de bredere implikationer af AI i cybersikkerhedslandskabet.

Indlæser...