OpenAI blokuoja 20 kenkėjiškų kibernetinių operacijų, kovojančių prieš pasaulines elektroninių nusikaltimų kampanijas

Keista, bet OpenAI pasirodė kaip didžiulė jėga kovojant su skaitmeninėmis grėsmėmis. Nuo metų pradžios bendrovė sėkmingai nutraukė daugiau nei 20 kenkėjiškų kampanijų, kuriomis siekta išnaudoti jos AI platformą žalingoms veikloms , parodydama, kad kibernetinio saugumo ateitis jau čia.
Šios operacijos svyravo nuo kenkėjiškų programų derinimo ir dezinformacijos kūrimo iki netikrų socialinės žiniasklaidos asmenybių kūrimo. Grėsmių dalyviai bandė panaudoti OpenAI platformą, kad padėtų vykdyti kenkėjišką veiklą, pvz., kurti biografijas netikroms paskyroms arba kurti dirbtinio intelekto sukurtas profilio nuotraukas, skirtas netikriems socialinės žiniasklaidos tapatybėms X (buvęs Twitter).
Tačiau, nepaisant šių pastangų, OpenAI patikino visuomenę, kad nė viena iš šių kampanijų nepadėjo pasiekti novatoriškų kenkėjiškų programų kūrimo ar virusinės dezinformacijos plitimo. Kitaip tariant, nors blogi aktoriai eksperimentuoja su dirbtiniu intelektu, jie dar turi pasiekti reikšmingų proveržių.
Turinys
Kaip kibernetiniai nusikaltėliai išnaudojo AI
Piktybiški veikėjai atvyko iš visų pasaulio kampelių, nuo Kinijos iki Irano, ir taikė įvairias taktikas. Vienas ryškus pavyzdys buvo SweetSpecter, Kinijoje įsikūrusi grupė, kuri naudojo dirbtinį intelektą žvalgybai ir pažeidžiamumo tyrimams ir netgi bandė (nesėkmingai) apgauti OpenAI darbuotojus.
Irano grupės taip pat atliko svarbų vaidmenį. „Cyber Av3ngers“, susijęs su Irano Islamo revoliucijos gvardijos korpusu (IRGC), tyrinėjo programuojamus loginius valdiklius naudodamas AI, o kitas Irano subjektas „Storm-0817“ naudojo dirbtinį intelektą „Android“ kenkėjiškų programų derinimui ir socialinės žiniasklaidos profiliams nubraukti.
Be šių tikslinių kampanijų, OpenAI užblokavo keletą didelio masto įtakos operacijų. Vienas iš jų, A2Z, sukūrė anglų ir prancūzų turinį, skirtą plačiai skelbti socialinėje žiniasklaidoje, o „Stop News“ panaudojo dirbtinio intelekto sukurtus vaizdus, dažnai animacinio ar dramatiško stiliaus, kad pagerintų savo straipsnius ir tviterius.
Sužlugdyti pasaulines dezinformacijos kampanijas
Kita susirūpinimą kėlė dezinformacijos kampanijos, nukreiptos į politines sistemas. OpenAI pranešė, kad ji kišosi į bandymus daryti įtaką rinkimams JAV, Ruandoje, Indijoje ir Europos Sąjungoje. Nė viena iš šių pastangų nepasiekė virusinės traukos, tačiau faktas, kad grėsmės veikėjai siekė manipuliuoti rinkimais, pabrėžia didėjančią AI skatinamos dezinformacijos keliamą riziką.
STOIC, Izraelio įmonė, dar žinoma kaip Zero Zeno, buvo viena iš pagrindinių žaidėjų šioje erdvėje, socialiniuose tinkluose generuojanti komentarus apie Indijos rinkimus – veiklą, kurią anksčiau šiais metais atskleidė ir Meta, ir OpenAI.
Nuolatinis „OpenAI“ budrumas taip pat paskatino atrasti du kitus tinklus – „Bet Bot“ ir „Corrupt Comment“, kurie naudojo savo API, kad generuotų pokalbius per X ir nukreiptų vartotojus į lošimų svetaines arba užtvindytų socialinę žiniasklaidą sukurtais komentarais.
AI vaidmuo mikrotikslinėje dezinformacijoje
Generatyvusis AI gali būti ginkluotas ne tik masinio masto dezinformacijai, bet ir mikrotaikymui. Remiantis naujausia kibernetinio saugumo įmonės „Sophos“ ataskaita, dirbtinis intelektas gali būti manipuliuojamas siekiant platinti labai suasmenintą politinę dezinformaciją el. laiškais, svetainėse ir netikromis asmenybėmis. Kruopščiai pritaikydami pranešimus prie konkrečių kampanijos punktų, grėsmės veikėjai gali apgauti rinkėjus nauju lygiu, galbūt pakeisdami rinkimų rezultatus arba pateikdami klaidingą informaciją.
Tyrėjai perspėja, kad bet kurią politinę figūrą ar judėjimą sunku susieti su politine pozicija, kurios jie iš tikrųjų nepalaiko, o tai sukelia sumaištį tarp rinkėjų ir kenkia demokratiniam procesui.
OpenAI įsipareigojimas kibernetiniam saugumui
Nors dirbtinis intelektas siūlo precedento neturinčias pažangos galimybes, jis taip pat kelia rimtų saugumo iššūkių. „OpenAI“ įrodė, kad yra pajėgi kovoti su kenkėjiškais bandymais išnaudoti jos technologiją. Tačiau katės ir pelės žaidimas tarp kibernetinio saugumo ekspertų ir kibernetinių nusikaltėlių greičiausiai tęsis.
OpenAI pastangos sutrikdyti daugiau nei 20 pasaulinių kampanijų šiais metais žymi reikšmingą pergalę, tačiau kova toli gražu nesibaigė. Tobulėjant dirbtiniam intelektui, keisis ir grėsmės veikėjų naudojama taktika. Nuolatinis budrumas ir naujovės bus labai svarbūs užtikrinant, kad dirbtinis intelektas išliktų gėrio jėga, o ne skaitmeninės apgaulės įrankis.