OpenAI blochează 20 de operațiuni cibernetice rău intenționate care luptă împotriva campaniilor globale de criminalitate cibernetică

În mod surprinzător, OpenAI a apărut ca o forță formidabilă în lupta împotriva amenințărilor digitale. De la începutul anului, compania a întrerupt cu succes peste 20 de campanii rău intenționate care au încercat să -și exploateze platforma AI pentru activități dăunătoare , demonstrând că viitorul securității cibernetice este deja aici.
Aceste operațiuni au variat de la depanarea programelor malware și crearea dezinformarii până la crearea de persoane false pe rețelele sociale. Actorii amenințărilor au încercat să folosească platforma OpenAI pentru a ajuta la activități rău intenționate, cum ar fi generarea de biografii pentru conturi false sau crearea de imagini de profil generate de AI pentru identități false de rețele sociale pe X (fostul Twitter).
Cu toate acestea, în ciuda acestor eforturi, OpenAI a asigurat publicul că niciuna dintre aceste campanii nu a dus la progrese inovatoare în crearea de programe malware sau la răspândirea virală a dezinformarii. Cu alte cuvinte, în timp ce actorii răi experimentează cu inteligența artificială, ei încă nu au realizat progrese semnificative.
Cuprins
Cum au exploatat AI infractorii cibernetici
Actorii rău intenționați au venit din toate colțurile globului, din China până în Iran, și au folosit o varietate de tactici. Un exemplu proeminent a fost SweetSpecter, un grup din China care a folosit inteligența artificială pentru recunoaștere și cercetarea vulnerabilităților și chiar a încercat (fără succes) să-și atace angajații OpenAI.
Grupurile iraniene au jucat și ele un rol notabil. Cyber Av3ngers, legat de Corpul Gărzilor Revoluționare Islamice Iraniene (IRGC), a cercetat controlere logice programabile folosind AI, în timp ce o altă entitate iraniană, Storm-0817, a folosit AI pentru a depana malware-ul Android și a curăța profilurile rețelelor sociale.
Pe lângă aceste campanii direcționate, OpenAI a blocat mai multe operațiuni de influență la scară largă. Unul dintre acestea, A2Z, a generat conținut în engleză și franceză pentru postări pe scară largă pe rețelele sociale, în timp ce Stop News a folosit imagini generate de AI, adesea în stiluri de desene animate sau dramatice, pentru a-și îmbunătăți articolele și tweet-urile.
Perturbarea campaniilor globale de dezinformare
Campaniile de dezinformare care vizează sistemele politice au fost un alt domeniu de îngrijorare. OpenAI a raportat că a intervenit în încercările de a influența alegerile din SUA, Rwanda, India și Uniunea Europeană. Niciunul dintre aceste eforturi nu a atins tracțiune virală, dar faptul că actorii amenințărilor au încercat să manipuleze alegerile subliniază riscurile tot mai mari pe care le prezintă dezinformarea condusă de inteligență artificială.
STOIC, o companie israeliană cunoscută și sub numele de Zero Zeno, s-a numărat printre jucătorii cheie în acest spațiu, generând comentarii pe rețelele sociale despre alegerile din India, activitate care fusese dezvăluită anterior atât de Meta, cât și de OpenAI la începutul acestui an.
Vigilența continuă a OpenAI a dus, de asemenea, la descoperirea altor două rețele, Bet Bot și Corrupt Comment, care și-au folosit API-ul pentru a genera conversații pe X și a lega utilizatorii la site-uri de jocuri de noroc sau a inunda rețelele sociale cu comentarii fabricate.
Rolul AI în dezinformarea microdirecționată
Inteligența artificială generativă are potențialul de a fi folosită nu doar pentru dezinformarea la scară în masă, ci și pentru microtargeting. Potrivit unui raport recent al firmei de securitate cibernetică Sophos, inteligența artificială poate fi manipulată pentru a răspândi dezinformări politice extrem de personalizate prin e-mailuri, site-uri web și persoane false. Adaptând cu atenție mesajele la anumite puncte ale campaniei, actorii amenințători pot înșela alegătorii la un nou nivel, eventual modificând rezultatele alegerilor sau influențând opiniile cu informații false.
Cercetătorii avertizează că este îngrijorător de ușor să asociezi orice personalitate politică sau mișcare cu o poziție politică pe care s-ar putea să nu o susțină de fapt, semănând confuzie în rândul alegătorilor și dăunând procesului democratic.
Angajamentul OpenAI față de securitatea cibernetică
În timp ce AI oferă oportunități fără precedent de progres, prezintă și provocări serioase de securitate. OpenAI a dovedit că este la înălțimea sarcinii de a contracara încercările rău intenționate de a-și exploata tehnologia. Cu toate acestea, jocul pisica și șoarecele dintre experții în securitate cibernetică și infractorii cibernetici va continua probabil.
Eforturile OpenAI de a perturba peste 20 de campanii globale în acest an marchează o victorie semnificativă, dar lupta este departe de a fi încheiată. Pe măsură ce AI evoluează, la fel vor evolua și tacticile folosite de actorii amenințărilor. Vigilența constantă și inovația vor fi esențiale pentru a ne asigura că AI rămâne o forță pentru bine, mai degrabă decât un instrument pentru înșelăciunea digitală.