OpenAI estää 20 haitallista kyberoperaatiota, jotka taistelevat maailmanlaajuisia kyberrikollisuuskampanjoita vastaan

Yllättäen OpenAI on noussut valtavaksi voimaksi taistelussa digitaalisia uhkia vastaan. Vuoden alusta lähtien yritys on onnistuneesti katkaissut yli 20 haitallista kampanjaa, jotka pyrkivät hyödyntämään sen tekoälyalustaa haitallisiin toimiin , mikä osoittaa, että kyberturvallisuuden tulevaisuus on jo täällä.
Nämä toiminnot vaihtelivat haittaohjelmien virheenkorjauksesta ja disinformaation luomisesta väärennettyjen sosiaalisen median henkilöiden luomiseen. Uhkatoimijat yrittivät hyödyntää OpenAI:n alustaa auttamaan haitallisissa toimissa, kuten luomalla elämäkertoja väärennetyille tileille tai luomalla tekoälyn luomia profiilikuvia väärennetyille sosiaalisen median identiteeteille X:ssä (entinen Twitter).
Näistä ponnisteluista huolimatta OpenAI kuitenkin vakuutti yleisölle, että mikään näistä kampanjoista ei johtanut uraauurtaviin edistysaskeleihin haittaohjelmien luomisessa tai disinformaation leviämiseen. Toisin sanoen, vaikka huonot näyttelijät kokeilevat tekoälyä, he eivät ole vielä saavuttaneet merkittäviä läpimurtoja.
Sisällysluettelo
Kuinka kyberrikolliset hyödynsivät tekoälyä
Haitalliset toimijat saapuivat eri puolilta maailmaa Kiinasta Iraniin, ja he käyttivät erilaisia taktiikoita. Eräs näkyvä esimerkki oli SweetSpecter, kiinalainen ryhmä, joka käytti tekoälyä tiedusteluun ja haavoittuvuustutkimukseen ja jopa yritti (epäonnistuneesti) kalastella OpenAI:n työntekijöitä.
Iranilaisryhmillä oli myös merkittävä rooli. Cyber Av3ngers, joka on yhteydessä Iranin Islamic Revolutionary Guard Corpsiin (IRGC), tutki ohjelmoitavia logiikkaohjaimia tekoälyn avulla, kun taas toinen iranilainen entiteetti, Storm-0817, käytti tekoälyä Android-haittaohjelmien virheenkorjaukseen ja sosiaalisen median profiileihin.
Näiden kohdistettujen kampanjoiden lisäksi OpenAI esti useita laajamittaisia vaikuttamisoperaatioita. Yksi näistä, A2Z, loi englannin- ja ranskankielistä sisältöä sosiaalisen median julkaisuja varten, kun taas Stop News hyödynsi tekoälyn luomaa kuvia, usein sarjakuvamaisia tai dramaattisia tyylejä parantaakseen artikkeleitaan ja twiittejään.
Maailmanlaajuisten disinformaatiokampanjoiden katkaiseminen
Poliittisiin järjestelmiin kohdistetut disinformaatiokampanjat olivat toinen huolenaihe. OpenAI ilmoitti puuttuneensa yrityksiin vaikuttaa vaaleihin Yhdysvalloissa, Ruandassa, Intiassa ja Euroopan unionissa. Mikään näistä ponnisteluista ei saavuttanut viruksia, mutta se tosiasia, että uhkatoimijat yrittivät manipuloida vaaleja, korostaa tekoälyn aiheuttaman disinformaation aiheuttamia lisääntyviä riskejä.
STOIC, israelilainen yritys, joka tunnetaan myös nimellä Zero Zeno, oli tämän tilan avaintoimijoiden joukossa, ja se loi sosiaalisen median kommentteja Intian vaaleista, mikä on toimintaa, jonka sekä Meta että OpenAI olivat aiemmin paljastaneet aiemmin tänä vuonna.
OpenAI:n jatkuva valppaus johti myös kahden muun verkoston, Bet Botin ja Corrupt Commentin, löytämiseen, jotka käyttivät sovellusliittymäänsä luodakseen keskusteluja X:stä ja linkittäessään käyttäjiä uhkapelisivustoille tai tulvikseen sosiaalista mediaa valmistetuilla kommenteilla.
Tekoälyn rooli mikrokohdennetussa väärässä tiedossa
Generatiivisella tekoälyllä on potentiaalia aseistaa massamittakaavan disinformaation lisäksi myös mikrokohdistukseen. Kyberturvallisuusyhtiö Sophosin tuoreen raportin mukaan tekoälyä voidaan manipuloida erittäin henkilökohtaisen poliittisen väärän tiedon levittämiseksi sähköpostien, verkkosivustojen ja väärennettyjen henkilöiden kautta. Räätälöimällä viestit tarkasti tiettyihin kampanjakohtiin uhkatoimijat voivat huijata äänestäjiä uudelle tasolle, mikä mahdollisesti muuttaa vaalituloksia tai horjuttaa mielipiteitä väärillä tiedoilla.
Tutkijat varoittavat, että on hämmentävän helppoa liittää mikä tahansa poliittinen hahmo tai liike politiikkaan, jota he eivät välttämättä tue, mikä kylvää hämmennystä äänestäjien keskuudessa ja vahingoittaa demokraattista prosessia.
OpenAI:n sitoutuminen kyberturvallisuuteen
Tekoäly tarjoaa ennennäkemättömiä edistysmahdollisuuksia, mutta se asettaa myös vakavia turvallisuushaasteita. OpenAI on osoittanut, että se pystyy torjumaan haitallisia yrityksiä hyödyntää sen tekniikkaa. Kissa-hiiri -peli kyberturvallisuusasiantuntijoiden ja kyberrikollisten välillä kuitenkin todennäköisesti jatkuu.
OpenAI:n pyrkimykset keskeyttää yli 20 maailmanlaajuista kampanjaa tänä vuonna merkitsevät merkittävää voittoa, mutta taistelu ei ole vielä läheskään ohi. Tekoälyn kehittyessä muuttuvat myös uhkatoimijoiden käyttämät taktiikat. Jatkuva valppaus ja innovointi ovat avainasemassa sen varmistamisessa, että tekoäly pysyy hyvää tekevänä voimana eikä digitaalisen petoksen välineenä.