OpenAI blokira 20 zlonamernih kibernetskih operacij, ki se borijo proti globalnim kampanjam kibernetske kriminalitete

Presenetljivo je, da se je OpenAI izkazal kot mogočna sila v boju proti digitalnim grožnjam. Od začetka leta je podjetje uspešno prekinilo več kot 20 zlonamernih kampanj, ki so poskušale izkoristiti njegovo platformo AI za škodljive dejavnosti , kar dokazuje, da je prihodnost kibernetske varnosti že tu.
Te operacije so segale od odpravljanja napak zlonamerne programske opreme in ustvarjanja dezinformacij do ustvarjanja lažnih osebnosti družbenih medijev. Akterji groženj so poskušali izkoristiti platformo OpenAI za pomoč pri zlonamernih dejavnostih, kot je ustvarjanje biografij za lažne račune ali ustvarjanje profilnih slik, ki jih ustvari umetna inteligenca, za lažne identitete družbenih medijev na X (prej Twitterju).
Vendar pa je OpenAI kljub tem prizadevanjem zagotovil javnosti, da nobena od teh kampanj ni privedla do prelomnega napredka pri ustvarjanju zlonamerne programske opreme ali virusnem širjenju dezinformacij. Z drugimi besedami, medtem ko slabi akterji eksperimentirajo z umetno inteligenco, še niso dosegli pomembnih prebojev.
Kazalo
Kako so kibernetski kriminalci izrabljali AI
Zlonamerni akterji so prihajali z vseh koncev sveta, od Kitajske do Irana, in uporabljali različne taktike. Eden vidnih primerov je bil SweetSpecter, skupina s sedežem na Kitajskem, ki je uporabljala AI za izvidovanje in raziskave ranljivosti ter celo poskušala (neuspešno) lažno predstavljati zaposlene OpenAI.
Pomembno vlogo so imele tudi iranske skupine. Cyber Av3ngers, povezani z iransko Korpusom islamske revolucionarne garde (IRGC), so raziskovali programabilne logične krmilnike z uporabo umetne inteligence, medtem ko je drugi iranski subjekt, Storm-0817, uporabil umetno inteligenco za odpravljanje napak v zlonamerni programski opremi Android in strganje profilov družbenih medijev.
Poleg teh ciljanih kampanj je OpenAI blokiral več obsežnih operacij vplivanja. Eden od teh, A2Z, je ustvaril angleško in francosko vsebino za široko objavo v družabnih omrežjih, medtem ko je Stop News uporabil slike, ustvarjene z umetno inteligenco, pogosto v risanih ali dramatičnih slogih, da bi izboljšal svoje članke in tvite.
Prekinitev globalnih dezinformacijskih kampanj
Dezinformacijske kampanje, usmerjene v politične sisteme, so bile še eno zaskrbljujoče področje. OpenAI je poročal, da je posredoval pri poskusih vplivanja na volitve v ZDA, Ruandi, Indiji in Evropski uniji. Nobeno od teh prizadevanj ni doseglo virusne privlačnosti, vendar dejstvo, da so akterji groženj poskušali manipulirati z volitvami, poudarja vse večja tveganja, ki jih predstavljajo dezinformacije, ki jih poganja umetna inteligenca.
STOIC, izraelsko podjetje, znano tudi kot Zero Zeno, je bilo med ključnimi akterji v tem prostoru in je ustvarjalo komentarje v družabnih omrežjih o indijskih volitvah, dejavnost, ki sta jo Meta in OpenAI že razkrila v začetku tega leta.
Stalna budnost OpenAI je privedla tudi do odkritja dveh drugih omrežij, Bet Bot in Corrupt Comment, ki sta uporabljala svoj API za ustvarjanje pogovorov na X in povezovanje uporabnikov s spletnimi mesti za igre na srečo ali preplavljanje družbenih medijev z izmišljenimi komentarji.
Vloga umetne inteligence pri mikrociljanih dezinformacijah
Generativna umetna inteligenca ima potencial, da jo uporabimo kot orožje ne le za masovno dezinformacijo, ampak tudi za mikrotargetiranje. Po nedavnem poročilu podjetja za kibernetsko varnost Sophos je mogoče z AI manipulirati za širjenje zelo personaliziranih političnih dezinformacij prek e-pošte, spletnih mest in lažnih osebnosti. S skrbnim prilagajanjem sporočil določenim točkam kampanje lahko akterji groženj zavedejo volivce na novi ravni, po možnosti spremenijo izide volitev ali zamajejo mnenja z lažnimi informacijami.
Raziskovalci opozarjajo, da je moteče enostavno katero koli politično osebnost ali gibanje povezati s politično držo, ki je morda dejansko ne podpira, kar povzroča zmedo med volivci in škoduje demokratičnemu procesu.
Zaveza OpenAI kibernetski varnosti
Čeprav umetna inteligenca ponuja priložnosti za napredek brez primere, predstavlja tudi resne varnostne izzive. OpenAI je dokazal, da je kos nalogi boja proti zlonamernim poskusom izkoriščanja njegove tehnologije. Vendar se bo igra mačke z mišjo med strokovnjaki za kibernetsko varnost in kiberkriminalci verjetno nadaljevala.
Prizadevanja OpenAI, da bi motil več kot 20 globalnih kampanj v tem letu, pomenijo pomembno zmago, vendar boj še zdaleč ni končan. Z razvojem umetne inteligence se bodo razvijale tudi taktike, ki jih uporabljajo akterji groženj. Nenehna pazljivost in inovativnost bosta ključni pri zagotavljanju, da bo umetna inteligenca ostala sila dobrega in ne orodje za digitalno prevaro.