Počítačová bezpečnosť OpenAI blokuje 20 škodlivých kybernetických operácií v...

OpenAI blokuje 20 škodlivých kybernetických operácií v boji proti globálnym kampaniam proti počítačovej kriminalite

OpenAI sa prekvapivo ukázalo ako impozantná sila v boji proti digitálnym hrozbám. Od začiatku roka spoločnosť úspešne narušila viac ako 20 škodlivých kampaní, ktoré sa snažili zneužiť jej platformu AI na škodlivé aktivity , čo dokazuje, že budúcnosť kybernetickej bezpečnosti je už tu.

Tieto operácie siahali od ladenia malvéru a vytvárania dezinformácií až po vytváranie falošných osobností sociálnych médií. Aktéri hrozieb sa pokúsili využiť platformu OpenAI na pomoc pri škodlivých činnostiach, ako je vytváranie biografií pre falošné účty alebo vytváranie profilových obrázkov generovaných AI pre falošné identity sociálnych médií na X (predtým Twitter).

Napriek tomuto úsiliu však OpenAI ubezpečil verejnosť, že žiadna z týchto kampaní neviedla k prevratným pokrokom v tvorbe malvéru alebo k vírusovému šíreniu dezinformácií. Inými slovami, zatiaľ čo zlí herci experimentujú s AI, ešte musia dosiahnuť výrazné prelomy.

Ako kyberzločinci využívali AI

Zákerní herci pochádzali zo všetkých kútov sveta, od Číny po Irán, a používali rôzne taktiky. Jedným z prominentných príkladov bola SweetSpecter, skupina so sídlom v Číne, ktorá používala AI na prieskum a výskum zraniteľnosti a dokonca sa (neúspešne) pokúsila oklamať zamestnancov OpenAI.

Významnú úlohu zohrali aj iránske skupiny. Cyber Av3ngers, prepojení s Iránskymi islamskými revolučnými gardami (IRGC), skúmali programovateľné logické ovládače pomocou AI, zatiaľ čo iná iránska entita, Storm-0817, používala AI na ladenie škodlivého softvéru pre Android a zoškrabovanie profilov sociálnych médií.

Okrem týchto cielených kampaní OpenAI zablokovala niekoľko rozsiahlych ovplyvňovacích operácií. Jedna z nich, A2Z, generovala anglický a francúzsky obsah pre rozšírené zverejňovanie na sociálnych médiách, zatiaľ čo Stop News využívalo snímky generované AI, často v kreslených alebo dramatických štýloch, na vylepšenie svojich článkov a tweetov.

Rušenie globálnych dezinformačných kampaní

Ďalšou oblasťou záujmu boli dezinformačné kampane zamerané na politické systémy. OpenAI oznámila, že zasiahla do pokusov ovplyvniť voľby v USA, Rwande, Indii a Európskej únii. Žiadne z týchto snáh nedosiahlo vírusovú trakciu, ale skutočnosť, že aktéri hrozby sa snažili zmanipulovať voľby, podčiarkuje zvyšujúce sa riziká, ktoré predstavujú dezinformácie poháňané AI.

STOIC, izraelská spoločnosť známa aj ako Zero Zeno, patrila medzi kľúčových hráčov v tomto priestore, ktorý generoval komentáre na sociálnych sieťach o indických voľbách, čo je aktivita, ktorú predtým v tomto roku zverejnili Meta aj OpenAI.

Pokračujúca ostražitosť OpenAI viedla aj k objaveniu dvoch ďalších sietí, Bet Bot a Corrupt Comment, ktoré využívali svoje API na generovanie konverzácií na X a prepojenie používateľov s hazardnými stránkami alebo zaplavenie sociálnych médií vyrobenými komentármi.

Úloha AI v mikrocieľových dezinformáciách

Generatívna AI má potenciál stať sa zbraňou nielen pre masové dezinformácie, ale aj pre mikrozacielenie. Podľa nedávnej správy spoločnosti Sophos, ktorá sa zaoberá kybernetickou bezpečnosťou, môže byť AI manipulovaná tak, aby šírila vysoko personalizované politické dezinformácie prostredníctvom e-mailov, webových stránok a falošných osôb. Starostlivým prispôsobením správ konkrétnym bodom kampane môžu aktéri hrozieb oklamať voličov na novej úrovni, prípadne zmeniť výsledky volieb alebo ovplyvniť názory nepravdivými informáciami.

Výskumníci varujú, že je znepokojivo ľahké spájať akúkoľvek politickú osobnosť alebo hnutie s politickým postojom, ktorý v skutočnosti nepodporujú, čo zasieva zmätok medzi voličmi a poškodzuje demokratický proces.

Záväzok OpenAI pre kybernetickú bezpečnosť

Aj keď AI ponúka bezprecedentné príležitosti na pokrok, predstavuje aj vážne bezpečnostné výzvy. OpenAI dokázalo, že je schopné čeliť škodlivým pokusom o zneužitie jeho technológie. Hra na mačku a myš medzi odborníkmi na kybernetickú bezpečnosť a kyberzločincami však bude pravdepodobne pokračovať.

Úsilie OpenAI narušiť viac ako 20 globálnych kampaní v tomto roku znamená významné víťazstvo, ale boj sa ani zďaleka neskončil. S vývojom AI sa budú vyvíjať aj taktiky používané aktérmi hrozieb. Neustála ostražitosť a inovácie budú kľúčom k tomu, aby AI zostala silou dobra, a nie nástrojom digitálneho podvodu.

Načítava...