Iraanse hackers misbruikten ChatGPT bij cyberaanvallen gericht op kritieke infrastructuur

In een baanbrekend rapport onthulde OpenAI hoe Iraanse hackers ChatGPT misbruikten om cyberaanvallen op industriële controlesystemen (ICS) te verbeteren. Het rapport werpt licht op cyberactiviteiten uitgevoerd door groepen zoals CyberAv3ngers, gelinkt aan de Islamitische Revolutionaire Garde van Iran (IRGC), en andere gesponsorde door China.
Deze bedreigingsactoren gebruikten ChatGPT voor verkenning, kwetsbaarheidsexploitatie en post-compromise-acties. Hoewel OpenAI benadrukt dat de AI geen nieuwe mogelijkheden bood, hielp het deze hackers wel om aanvallen efficiënter uit te voeren met behulp van openbaar beschikbare technieken.
Inhoudsopgave
Iraanse groep CyberAv3ngers en aanvallen op waterfaciliteiten
CyberAv3ngers kreeg dit jaar bekendheid door het targeten van waterbedrijven in Ierland en Pennsylvania, wat leidde tot aanzienlijke verstoringen. De groep maakte misbruik van slecht beveiligde ICS-systemen die waren blootgesteld aan het internet en gebruikte standaardwachtwoorden. Hun focus lag op programmeerbare logische controllers (PLC's), kritische apparaten die industriële processen besturen.
Ze gebruikten ChatGPT om de chatbot te vragen naar informatie over industriële routers, PLC's en standaardwachtwoorden voor kritieke infrastructuurapparaten zoals Tridium Niagara en Hirschmann RS-routers.
Misbruik van AI voor cyberaanvallen
Naast ICS-specifieke targets zocht CyberAv3ngers hulp bij ChatGPT om kwaadaardige code te verdoezelen en netwerken te scannen op exploiteerbare kwetsbaarheden. De groep probeerde ook manieren te vinden om toegang te krijgen tot macOS-wachtwoorden.
OpenAI verduidelijkte echter dat deze activiteiten de hackers geen nieuwe of geavanceerde mogelijkheden boden die verder gingen dan wat beschikbaar is via niet-AI-tools. Dit benadrukt de gevaren van AI-misbruik, zelfs als de verkregen informatie niet revolutionair is.
Andere betrokken bedreigingsactoren
Naast CyberAv3ngers misbruikte een andere Iraanse groep, Storm-0817, ChatGPT. Ze probeerden Android-malware te ontwikkelen en Instagram-gegevens te scrapen, waarbij ze de AI gebruikten om LinkedIn-profielen naar het Perzisch te vertalen. Hoewel ze niet zo direct schadelijk zijn als ICS-aanvallen, weerspiegelen deze activiteiten bredere inspanningen om AI te wapenen in cyberoperaties.
Ook het aan China gelinkte SweetSpectre werd in het rapport genoemd. Deze groep gebruikte ChatGPT voor malwareontwikkeling en kwetsbaarheidsonderzoek. SweetSpectre probeerde met name e-mails vol malware te sturen naar OpenAI-medewerkers, maar de aanval werd verijdeld voordat deze zijn doelen bereikte.
Het grotere geheel
Het rapport onderstreept het groeiende risico van AI-misbruik in cyberoorlogvoering. Hoewel AI, inclusief ChatGPT, taken voor legitieme gebruikers kan stroomlijnen, kan het ook dienen als een hulpmiddel voor kwaadwillenden. De proactieve aanpak van OpenAI om deze bedreigingen te detecteren en neutraliseren, is essentieel om hun impact te beperken.
Dit roept vragen op voor de cybersecurity-industrie: Hoe kan AI worden beschermd tegen misbruik? Welke maatregelen zijn nodig om te voorkomen dat dreigingsactoren dergelijke tools gebruiken om hun capaciteiten te vergroten?
Deze onthullingen zouden ervoor moeten zorgen dat bedrijven en overheden hun beveiligingsstrategieën, met name voor kritieke infrastructuur, opnieuw moeten bekijken en prioriteit moeten geven aan het dichten van de gaten waardoor hackers kwetsbare systemen kunnen misbruiken.
AI heeft een enorm potentieel om industrieën vooruit te helpen en de efficiëntie te verbeteren. Maar zoals het rapport laat zien, is het ook een tweesnijdend zwaard. Wanneer het verkeerd wordt gebruikt, kan het de mogelijkheden van cybercriminelen en actoren van natiestaten versterken. Om deze bedreigingen voor te blijven, is constante waakzaamheid, sterkere verdediging en verantwoorde ontwikkeling van AI-technologieën vereist.
De rol van ChatGPT bij dit soort incidenten is misschien beperkt, maar het is wel een waarschuwing voor de bredere implicaties van AI op het gebied van cyberbeveiliging.