Microsoft en OpenAI waarschuwen voor nationale hackers die AI inzetten voor destructieve cyberaanvallen

Microsoft en OpenAI hebben gezamenlijk gewaarschuwd voor de groeiende dreiging van nationale hackers die kunstmatige intelligentie (AI) en grote taalmodellen (LLM's) gebruiken om hun cyberaanvalmogelijkheden te vergroten. Het rapport identificeert nationale actoren die banden hebben met Rusland, Noord-Korea, Iran en China als actief experimenteren met AI-technologieën voor kwaadaardige cyberactiviteiten.
Uit de samenwerking tussen Microsoft en OpenAI bleek dat ze de inspanningen van vijf aan de staat gelieerde actoren hadden verijdeld en hun pogingen hadden verstoord om AI-diensten voor destructieve doeleinden te gebruiken door activa en accounts te beëindigen. Volgens Microsoft ligt de aantrekkingskracht van grote taalmodellen in hun natuurlijke taalondersteuning, waardoor ze aantrekkelijk worden voor dreigingsactoren die gespecialiseerd zijn in social engineering en misleidende communicatie die is afgestemd op specifieke doelen.
Hoewel er tot nu toe geen significante of nieuwe aanvallen met behulp van LLM’s zijn waargenomen, benadrukt het rapport dat deze aan de staat gelieerde actoren AI-technologieën onderzoeken in verschillende stadia van de cyberaanvalketen. De activiteiten variëren van verkennings- en codeerondersteuning tot de ontwikkeling van malware.
De Russische natiestatengroep Forest Blizzard (APT28) zou OpenAI-diensten hebben gebruikt voor open-sourceonderzoek naar satellietcommunicatieprotocollen en radarbeeldtechnologie, evenals voor scripttaken. Op dezelfde manier hebben andere bedreigingsactoren zoals Noord-Korea's Emerald Sleet (Kimusky), Iran's Crimson Sandstorm (Imperial Kitten) en China's Charcoal Typhoon (Aquatic Panda) en Salmon Typhoon (Maverick Panda) LLM's gebruikt voor taken zoals het identificeren van experts, het uitvoeren van onderzoek , het genereren van codefragmenten en het maken van inhoud voor phishing-campagnes.
Als reactie op de groeiende dreiging neemt Microsoft proactieve maatregelen door een reeks principes te formuleren om de risico’s te beperken die gepaard gaan met het kwaadwillige gebruik van AI-tools en API’s door nationale actoren, geavanceerde persistente bedreigingen (APT’s) en geavanceerde persistente manipulatoren (APM’s). en cybercriminele syndicaten. De principes omvatten onder meer het identificeren van en het ondernemen van actie tegen kwaadwillige actoren, het op de hoogte stellen van andere AI-dienstverleners, het samenwerken met belanghebbenden en het garanderen van transparantie bij het omgaan met deze bedreigingen.
Deze samenwerking tussen Microsoft en OpenAI onderstreept de noodzaak van een collectieve inspanning om vangrails en veiligheidsmechanismen rond AI-modellen te creëren , waardoor de toewijding aan verantwoord AI-gebruik en beveiliging in het licht van de evoluerende cyberdreigingen wordt versterkt.