OpenAI blokuje 20 škodlivých kybernetických operací v boji proti globálním kampaním proti kyberzločinu

OpenAI se překvapivě ukázalo jako impozantní síla v boji proti digitálním hrozbám. Od začátku roku společnost úspěšně narušila více než 20 škodlivých kampaní, které se snažily zneužít její platformu AI ke škodlivým činnostem , což dokazuje, že budoucnost kybernetické bezpečnosti je již tady.
Tyto operace sahaly od ladění malwaru a vytváření dezinformací až po vytváření falešných osobností sociálních médií. Aktéři hrozeb se pokusili využít platformu OpenAI k pomoci při škodlivých činnostech, jako je generování biografií pro falešné účty nebo vytváření profilových obrázků generovaných AI pro falešné identity sociálních médií na X (dříve Twitter).
Navzdory těmto snahám však OpenAI ujistila veřejnost, že žádná z těchto kampaní nevedla k převratnému pokroku v tvorbě malwaru nebo virovému šíření dezinformací. Jinými slovy, špatní herci sice experimentují s umělou inteligencí, ale ještě musí dosáhnout významných průlomů.
Obsah
Jak kyberzločinci zneužívali AI
Zlomyslní aktéři pocházeli ze všech koutů světa, od Číny po Írán, a používali různé taktiky. Jedním z prominentních příkladů byla SweetSpecter, skupina se sídlem v Číně, která používala AI pro průzkum a výzkum zranitelnosti a dokonce se (neúspěšně) pokusila oštěpovat zaměstnance OpenAI.
Významnou roli sehrály také íránské skupiny. Cyber Av3ngers, napojení na Íránské islámské revoluční gardy (IRGC), zkoumali programovatelné logické řadiče pomocí AI, zatímco další íránská entita, Storm-0817, používala AI k ladění malwaru pro Android a škrábání profilů na sociálních sítích.
Kromě těchto cílených kampaní OpenAI zablokovala několik rozsáhlých ovlivňovacích operací. Jedna z nich, A2Z, generovala anglický a francouzský obsah pro široce rozšířené zveřejňování na sociálních sítích, zatímco Stop News využívalo snímky generované AI, často v kreslených nebo dramatických stylech, k vylepšení svých článků a tweetů.
Rušení globálních dezinformačních kampaní
Další oblastí zájmu byly dezinformační kampaně zaměřené na politické systémy. OpenAI oznámila, že zasáhla do pokusů ovlivnit volby v USA, Rwandě, Indii a Evropské unii. Žádné z těchto snah nedosáhlo virálního tahu, ale skutečnost, že aktéři hrozeb se snažili zmanipulovat volby, podtrhuje rostoucí rizika, která představují dezinformace řízené umělou inteligencí.
STOIC, izraelská společnost známá také jako Zero Zeno, patřila mezi klíčové hráče v tomto prostoru a generovala komentáře na sociálních sítích o indických volbách, což je aktivita, kterou dříve v tomto roce odhalily jak Meta, tak OpenAI.
Pokračující ostražitost OpenAI také vedla k objevení dalších dvou sítí, Bet Bot a Corrupt Comment, které využívaly své API ke generování konverzací na X a propojování uživatelů s hazardními weby nebo zaplavování sociálních médií umělými komentáři.
Role AI v mikrocílených dezinformacích
Generativní umělá inteligence má potenciál být zbraní nejen pro masové dezinformace, ale také pro mikrocílení. Podle nedávné zprávy společnosti Sophos zabývající se kybernetickou bezpečností může být umělá inteligence zmanipulována k šíření vysoce personalizovaných politických dezinformací prostřednictvím e-mailů, webových stránek a falešných osob. Pečlivým přizpůsobením sdělení konkrétním bodům kampaně mohou aktéři hrozeb oklamat voliče na nové úrovni, případně pozměnit výsledky voleb nebo ovlivnit názory nepravdivými informacemi.
Výzkumníci varují, že je znepokojivě snadné spojit jakoukoli politickou osobnost nebo hnutí s politickým postojem, který ve skutečnosti nemusí podporovat, což zasévá zmatek mezi voliče a poškozuje demokratický proces.
Závazek OpenAI k kybernetické bezpečnosti
I když umělá inteligence nabízí nebývalé příležitosti k pokroku, představuje také vážné bezpečnostní výzvy. OpenAI prokázalo, že je připraveno čelit škodlivým pokusům o zneužití jeho technologie. Hra na kočku a myš mezi odborníky na kybernetickou bezpečnost a kyberzločinci však bude pravděpodobně pokračovat.
Snahy OpenAI letos narušit více než 20 globálních kampaní znamenají významné vítězství, ale boj ještě zdaleka nekončí. S vývojem umělé inteligence se budou vyvíjet i taktiky používané aktéry hrozeb. Neustálá ostražitost a inovace budou klíčové pro zajištění toho, aby umělá inteligence zůstala silou dobra, spíše než nástrojem digitálního klamu.