OpenAI bloķē 20 ļaunprātīgas kiberoperācijas, kas cīnās pret globālajām kibernoziedzības kampaņām

Pārsteidzoši, OpenAI ir kļuvis par milzīgu spēku cīņā pret digitālajiem draudiem. Kopš gada sākuma uzņēmums ir veiksmīgi pārtraucis vairāk nekā 20 ļaunprātīgas kampaņas, kuru mērķis bija izmantot tā AI platformu kaitīgām darbībām , parādot, ka kiberdrošības nākotne jau ir klāt.
Šīs darbības bija no ļaunprātīgas programmatūras atkļūdošanas un dezinformācijas veidošanas līdz viltotu sociālo mediju personu izveidei. Draudu dalībnieki mēģināja izmantot OpenAI platformu, lai palīdzētu ļaunprātīgām darbībām, piemēram, ģenerēt biogrāfijas viltotiem kontiem vai izveidot AI ģenerētus profila attēlus viltotām sociālo mediju identitātēm vietnē X (iepriekš Twitter).
Tomēr, neskatoties uz šiem centieniem, OpenAI pārliecināja sabiedrību, ka neviena no šīm kampaņām nav izraisījusi revolucionārus sasniegumus ļaunprātīgas programmatūras izveidē vai dezinformācijas vīrusu izplatīšanos. Citiem vārdiem sakot, kamēr sliktie aktieri eksperimentē ar AI, viņiem vēl ir jāpanāk būtiski sasniegumi.
Satura rādītājs
Kā kibernoziedznieki izmantoja AI
Ļaunprātīgie aktieri nāca no visām pasaules malām, no Ķīnas līdz Irānai, un izmantoja dažādas taktikas. Viens no spilgtākajiem piemēriem bija SweetSpecter, Ķīnā bāzēta grupa, kas izmantoja AI izlūkošanai un ievainojamības izpētei un pat mēģināja (neveiksmīgi) izkrāpt OpenAI darbiniekus.
Ievērojama loma bija arī Irānas grupām. Cyber Av3ngers, kas ir saistīts ar Irānas Islāma revolucionāro gvardu korpusu (IRGC), pētīja programmējamos loģiskos kontrollerus, izmantojot AI, savukārt cita Irānas vienība Storm-0817 izmantoja AI, lai atkļūdotu Android ļaunprātīgu programmatūru un nokasītu sociālo mediju profilus.
Papildus šīm mērķa kampaņām OpenAI bloķēja vairākas liela mēroga ietekmes operācijas. Viens no tiem, A2Z, ģenerēja angļu un franču saturu plaši izplatītiem sociālajiem medijiem, savukārt Stop News izmantoja AI ģenerētus attēlus, bieži vien karikatūras vai dramatiskā stilā, lai uzlabotu savus rakstus un tvītus.
Globālo dezinformācijas kampaņu pārtraukšana
Vēl viena bažas radīja dezinformācijas kampaņas, kuru mērķauditorija bija politiskās sistēmas. OpenAI ziņoja, ka tā iejaukusies mēģinājumos ietekmēt vēlēšanas ASV, Ruandā, Indijā un Eiropas Savienībā. Neviens no šiem centieniem nesasniedza vīrusu vilni, taču fakts, ka draudu dalībnieki mēģināja manipulēt ar vēlēšanām, uzsver pieaugošos riskus, ko rada AI virzīta dezinformācija.
STOIC, Izraēlas uzņēmums, kas pazīstams arī kā Zero Zeno, bija viens no galvenajiem spēlētājiem šajā jomā, radot komentārus sociālajos medijos par Indijas vēlēšanām, un šo darbību iepriekš bija atklājuši gan Meta, gan OpenAI šī gada sākumā.
OpenAI pastāvīgā modrība ļāva atklāt arī divus citus tīklus, Bet Bot un Corrupt Comment, kas izmantoja savu API, lai ģenerētu sarunas X un piesaistītu lietotājus azartspēļu vietnēm vai pārpludinātu sociālos medijus ar izgatavotiem komentāriem.
AI loma mikromērķtiecīgā dezinformācijā
Ģeneratīvo AI var izmantot ne tikai masveida dezinformācijas, bet arī mikromērķa noteikšanai. Saskaņā ar neseno kiberdrošības uzņēmuma Sophos ziņojumu, AI var manipulēt, lai izplatītu ļoti personalizētu politisko dezinformāciju, izmantojot e-pastus, vietnes un viltotas personas. Rūpīgi pielāgojot ziņojumus konkrētiem kampaņas punktiem, draudu dalībnieki var maldināt vēlētājus jaunā līmenī, iespējams, mainot vēlēšanu rezultātus vai mainot viedokļus ar nepatiesu informāciju.
Pētnieki brīdina, ka ir satraucoši viegli saistīt jebkuru politisko figūru vai kustību ar tādu politisko nostāju, kuru viņi, iespējams, neatbalsta, radot neskaidrības vēlētāju vidū un kaitējot demokrātiskajam procesam.
OpenAI apņemšanās nodrošināt kiberdrošību
Lai gan AI piedāvā vēl nepieredzētas progresa iespējas, tas rada arī nopietnas drošības problēmas. OpenAI ir pierādījis, ka tā spēj cīnīties pret ļaunprātīgiem mēģinājumiem izmantot tās tehnoloģiju. Tomēr kaķa un peles spēle starp kiberdrošības ekspertiem un kibernoziedzniekiem, visticamāk, turpināsies.
OpenAI centieni izjaukt vairāk nekā 20 globālas kampaņas šogad iezīmē nozīmīgu uzvaru, taču cīņa nebūt nav beigusies. Attīstoties mākslīgajam intelektam, mainīsies arī draudu dalībnieku taktika. Pastāvīga modrība un jauninājumi būs galvenie, lai nodrošinātu, ka AI joprojām ir labs spēks, nevis digitālās maldināšanas instruments.