Az OpenAI 20 rosszindulatú kiberműveletet blokkol a globális kiberbűnözés elleni kampányok ellen

Meglepő módon az OpenAI hatalmas erővé vált a digitális fenyegetések elleni küzdelemben. Az év eleje óta a vállalat sikeresen megzavart több mint 20 rosszindulatú kampányt, amelyek a mesterségesintelligencia-platformot káros tevékenységekre akarták kihasználni , bizonyítva, hogy a kiberbiztonság jövője már itt van.
Ezek a műveletek a rosszindulatú programok hibakeresésétől és a dezinformáció létrehozásától a hamis közösségimédia-személyek létrehozásáig terjedtek. A fenyegetőzők megpróbálták kihasználni az OpenAI platformját, hogy segítsenek olyan rosszindulatú tevékenységekben, mint például életrajzok létrehozása hamis fiókokhoz vagy mesterséges intelligencia által generált profilképek létrehozása hamis közösségi média identitásokhoz az X-en (korábban Twitter).
Azonban ezen erőfeszítések ellenére az OpenAI megnyugtatta a közvéleményt, hogy egyik kampány sem vezetett átütő előrelépéshez a rosszindulatú programok létrehozásában vagy a dezinformációk vírusos terjedésében. Más szóval, miközben a rossz színészek kísérleteznek az AI-val, még nem értek el jelentős áttörést.
Tartalomjegyzék
Hogyan használták ki a kiberbűnözők az AI-t
A rosszindulatú szereplők a világ minden sarkából érkeztek Kínától Iránig, és sokféle taktikát alkalmaztak. Az egyik kiemelkedő példa a SweetSpecter, egy kínai székhelyű csoport, amely mesterséges intelligenciát használt fel felderítésre és sebezhetőségi kutatásokra, sőt (sikertelenül) megkísérelte az OpenAI alkalmazottak adathalászatát.
Az iráni csoportok is jelentős szerepet játszottak. Az Iráni Iszlám Forradalmi Gárdával (IRGC) kapcsolatban álló Cyber Av3ngers programozható logikai vezérlőket kutatott mesterséges intelligencia segítségével, míg egy másik iráni szervezet, a Storm-0817 mesterséges intelligencia segítségével végezte az Android rosszindulatú programjainak hibakeresését és a közösségi média profiljait.
Ezeken a célzott kampányokon kívül az OpenAI számos nagyszabású befolyásolási műveletet blokkolt. Ezek egyike, az A2Z, angol és francia tartalmat generált a közösségi médiában való széles körben elterjedt bejegyzésekhez, míg a Stop News mesterséges intelligencia által generált képeket használt fel, gyakran karikatúraszerű vagy drámai stílusban, hogy javítsa cikkeit és tweetjeit.
A globális dezinformációs kampányok megzavarása
A politikai rendszereket célzó dezinformációs kampányok is aggodalomra adnak okot. Az OpenAI arról számolt be, hogy beavatkozott az Egyesült Államokban, Ruandában, Indiában és az Európai Unióban zajló választások befolyásolására irányuló kísérletekbe. Ezen erőfeszítések egyike sem ért el a vírus terjedését, de az a tény, hogy a fenyegetés szereplői megpróbálták manipulálni a választásokat, aláhúzza az AI-vezérelt dezinformáció növekvő kockázatait.
A STOIC, a Zero Zeno néven is ismert izraeli cég az egyik kulcsszereplő volt ezen a téren, és a közösségi médiában kommentárokat generált az indiai választásokkal kapcsolatban, amely tevékenységről korábban a Meta és az OpenAI is nyilvánosságra hozott az év elején.
Az OpenAI folyamatos ébersége két másik hálózat, a Bet Bot és a Corrupt Comment felfedezéséhez is vezetett, amelyek az API-ját használva beszélgetéseket generáltak az X-en, és a felhasználókat szerencsejáték-oldalakra irányították, vagy elárasztották a közösségi médiát gyártott megjegyzésekkel.
Az AI szerepe a mikrocélzott félretájékoztatásban
A generatív mesterséges intelligencia nemcsak tömeges félretájékoztatásra, hanem mikrocélzásra is felfegyverkezhető. A Sophos kiberbiztonsági cég legújabb jelentése szerint a mesterséges intelligencia manipulálható erősen személyre szabott politikai téves információk terjesztésére e-maileken, webhelyeken és hamis személyeken keresztül. Az üzenetek gondosan az adott kampánypontokhoz igazításával a fenyegetés szereplői új szinten megtéveszthetik a választókat, esetleg megváltoztathatják a választási eredményeket, vagy hamis információkkal megingathatják a véleményeket.
A kutatók arra figyelmeztetnek, hogy zavarba ejtően könnyű bármely politikai szereplőt vagy mozgalmat olyan politikai állásponthoz társítani, amelyet valójában nem támogat, ami zavart kelt a választók körében és károsítja a demokratikus folyamatot.
Az OpenAI elkötelezettsége a kiberbiztonság mellett
Bár az AI példátlan előrelépési lehetőségeket kínál, komoly biztonsági kihívásokat is jelent. Az OpenAI bebizonyította, hogy képes megbirkózni a technológiája kihasználására irányuló rosszindulatú kísérletekkel. A kiberbiztonsági szakértők és a kiberbűnözők közötti macska-egér játék azonban valószínűleg folytatódni fog.
Az OpenAI idén több mint 20 globális kampány megzavarására tett erőfeszítése jelentős győzelmet aratott, de a küzdelem még korántsem ért véget. A mesterséges intelligencia fejlődésével a fenyegetés szereplői által alkalmazott taktikák is változni fognak. Az állandó éberség és innováció kulcsfontosságú lesz annak biztosításában, hogy a mesterséges intelligencia a jót szolgáló erő maradjon, ne pedig a digitális megtévesztés eszköze.