OpenAI blockerar 20 skadliga cyberoperationer som slåss tillbaka mot globala cyberbrottskampanjer

Överraskande nog har OpenAI framstått som en formidabel kraft i kampen mot digitala hot. Sedan början av året har företaget framgångsrikt stört mer än 20 skadliga kampanjer som försökte utnyttja sin AI-plattform för skadliga aktiviteter , vilket visar att framtiden för cybersäkerhet redan är här.
Dessa operationer sträckte sig från att felsöka skadlig programvara och skapa desinformation till att skapa falska sociala medier. Hotaktörer försökte utnyttja OpenAI:s plattform för att hjälpa till med skadliga aktiviteter som att skapa biografier för falska konton eller skapa AI-genererade profilbilder för falska sociala medieidentiteter på X (tidigare Twitter).
Men trots dessa ansträngningar försäkrade OpenAI allmänheten att ingen av dessa kampanjer ledde till banbrytande framsteg när det gäller att skapa skadlig programvara eller viral spridning av desinformation. Med andra ord, medan dåliga skådespelare experimenterar med AI, har de ännu inte uppnått betydande genombrott.
Innehållsförteckning
Hur cyberbrottslingar utnyttjade AI
De illvilliga aktörerna kom från alla hörn av världen, från Kina till Iran, och använde en mängd olika taktiker. Ett framträdande exempel var SweetSpecter, en Kina-baserad grupp som använde AI för spaning och sårbarhetsforskning, och till och med försökte (misslyckat) att spjutfiska OpenAI-anställda.
Iranska grupper spelade också en anmärkningsvärd roll. Cyber Av3ngers, kopplade till Iranian Islamic Revolutionary Guard Corps (IRGC), undersökte programmerbara logiska kontroller som använder AI, medan en annan iransk enhet, Storm-0817, använde AI för att felsöka skadlig programvara för Android och skrapa profiler på sociala medier.
Utöver dessa riktade kampanjer blockerade OpenAI flera storskaliga påverkansoperationer. En av dessa, A2Z, genererade engelska och franska innehåll för utbredda sociala medier, medan Stop News utnyttjade AI-genererade bilder, ofta i tecknade eller dramatiska stilar, för att förbättra deras artiklar och tweets.
Att störa globala desinformationskampanjer
Desinformationskampanjer riktade mot politiska system var ett annat problemområde. OpenAI rapporterade att de ingrep i försök att påverka val i USA, Rwanda, Indien och EU. Ingen av dessa ansträngningar uppnådde viral dragkraft, men det faktum att hotaktörer försökte manipulera val understryker de ökande riskerna med AI-driven desinformation.
STOIC, ett israeliskt företag även känt som Zero Zeno, var bland nyckelaktörerna i detta område, och genererade kommentarer i sociala medier om indiska val, en aktivitet som tidigare avslöjats av både Meta och OpenAI tidigare i år.
OpenAIs pågående vaksamhet ledde också till upptäckten av två andra nätverk, Bet Bot och Corrupt Comment, som använde sitt API för att generera konversationer på X och länka användare till spelsajter eller översvämma sociala medier med tillverkade kommentarer.
AI:s roll i mikroriktad desinformation
Generativ AI har potential att beväpnas inte bara för massskalig desinformation, utan också för mikromål. Enligt en färsk rapport från cybersäkerhetsföretaget Sophos kan AI manipuleras för att sprida mycket personlig politisk desinformation via e-post, webbplatser och falska personas. Genom att noggrant skräddarsy budskap till specifika kampanjpunkter kan hotaktörer lura väljare på en ny nivå, eventuellt ändra valresultat eller svaja åsikter med falsk information.
Forskare varnar för att det är oroväckande lätt att associera vilken politisk figur eller rörelse som helst med en politisk hållning som de faktiskt inte stöder, vilket skapar förvirring bland väljarna och skadar den demokratiska processen.
OpenAI:s engagemang för cybersäkerhet
Även om AI erbjuder oöverträffade möjligheter till framsteg, innebär det också allvarliga säkerhetsutmaningar. OpenAI har bevisat att det är upp till uppgiften att motverka skadliga försök att utnyttja sin teknologi. Katt och råtta-spelet mellan cybersäkerhetsexperter och cyberbrottslingar kommer dock sannolikt att fortsätta.
OpenAI:s ansträngningar att störa över 20 globala kampanjer i år markerar en betydande seger, men kampen är långt ifrån över. I takt med att AI utvecklas, kommer också taktiken som används av hotaktörer att utvecklas. Ständig vaksamhet och innovation kommer att vara nyckeln till att säkerställa att AI förblir en kraft för det goda, snarare än ett verktyg för digitalt bedrägeri.