Siguria kompjuterike OpenAI bllokon 20 operacione keqdashëse kibernetike që...

OpenAI bllokon 20 operacione keqdashëse kibernetike që luftojnë kundër fushatave globale të krimit kibernetik

Çuditërisht, OpenAI është shfaqur si një forcë e frikshme në betejën kundër kërcënimeve dixhitale. Që nga fillimi i vitit, kompania ka ndërprerë me sukses më shumë se 20 fushata keqdashëse që kërkonin të shfrytëzonin platformën e saj të AI për aktivitete të dëmshme , duke demonstruar se e ardhmja e sigurisë kibernetike është tashmë këtu.

Këto operacione varionin nga korrigjimi i malware dhe krijimi i dezinformatave deri te krijimi i personave të rremë të mediave sociale. Aktorët e kërcënimit u përpoqën të shfrytëzonin platformën e OpenAI për të ndihmuar në aktivitete keqdashëse si gjenerimi i biografive për llogari të rreme ose krijimi i fotografive të profilit të krijuara nga AI për identitete të rreme të mediave sociale në X (ish Twitter).

Megjithatë, pavarësisht këtyre përpjekjeve, OpenAI siguroi publikun se asnjë nga këto fushata nuk çoi në përparime novatore në krijimin e malware ose përhapjen virale të dezinformatave. Me fjalë të tjera, ndërsa aktorët e këqij po eksperimentojnë me AI, ata ende nuk kanë arritur përparime të rëndësishme.

Si e shfrytëzonin inteligjencën artificiale nga kriminelët kibernetikë

Aktorët keqdashës erdhën nga të gjitha anët e globit, nga Kina në Iran, dhe përdorën një sërë taktikash. Një shembull i spikatur ishte SweetSpecter, një grup me bazë në Kinë që përdori AI për zbulimin dhe kërkimin e cenueshmërisë, dhe madje u përpoq (pa sukses) të mashtronte punonjësit e OpenAI.

Grupet iraniane gjithashtu luajtën një rol të dukshëm. Cyber Av3ngers, i lidhur me Korpusin e Gardës Revolucionare Islamike iraniane (IRGC), hulumtoi kontrollorët logjikë të programueshëm duke përdorur AI, ndërsa një ent tjetër iranian, Storm-0817, përdori AI për të korrigjuar malware Android dhe për të fshirë profilet e mediave sociale.

Përveç këtyre fushatave të synuara, OpenAI bllokoi disa operacione me ndikim në shkallë të gjerë. Një prej tyre, A2Z, gjeneroi përmbajtje në anglisht dhe frëngjisht për postime të përhapura në mediat sociale, ndërsa Stop News përdori imazhe të krijuara nga AI, shpesh në stile vizatimore ose dramatike, për të përmirësuar artikujt dhe postimet e tyre në Twitter.

Ndërprerja e fushatave globale të dezinformimit

Fushatat e dezinformimit që synonin sistemet politike ishin një tjetër fushë shqetësimi. OpenAI raportoi se ndërhyri në përpjekjet për të ndikuar në zgjedhjet në SHBA, Ruandë, Indi dhe Bashkimin Evropian. Asnjë nga këto përpjekje nuk arriti tërheqje virale, por fakti që aktorët e kërcënimit u përpoqën të manipulonin zgjedhjet nënvizon rreziqet në rritje të paraqitura nga dezinformimi i drejtuar nga AI.

STOIC, një kompani izraelite e njohur gjithashtu si Zero Zeno, ishte ndër lojtarët kryesorë në këtë hapësirë, duke gjeneruar komente në mediat sociale për zgjedhjet indiane, një aktivitet që ishte zbuluar më parë nga Meta dhe OpenAI në fillim të këtij viti.

Vigjilenca e vazhdueshme e OpenAI çoi gjithashtu në zbulimin e dy rrjeteve të tjera, Bet Bot dhe Corrupt Comment, të cilët përdorën API-në e tij për të gjeneruar biseda në X dhe për të lidhur përdoruesit me faqet e lojërave të fatit ose për të vërshuar mediat sociale me komente të prodhuara.

Roli i AI në Dezinformimin e Mikro-shënjestruar

Inteligjenca artificiale gjeneruese ka potencialin për t'u armatosur jo vetëm për dezinformim në shkallë masive, por edhe për mikro-shënjestrim. Sipas një raporti të fundit nga firma e sigurisë kibernetike Sophos, AI mund të manipulohet për të përhapur dezinformata politike shumë të personalizuara përmes emaileve, faqeve të internetit dhe personave të rremë. Duke përshtatur me kujdes mesazhet në pika specifike të fushatës, aktorët e kërcënimit mund të mashtrojnë votuesit në një nivel të ri, ndoshta duke ndryshuar rezultatet e zgjedhjeve ose duke lëkundur opinionet me informacione të rreme.

Studiuesit paralajmërojnë se është shqetësuese e lehtë të lidhësh çdo figurë apo lëvizje politike me një qëndrim politik që mund të mos e mbështesin në fakt, duke mbjellë konfuzion midis votuesve dhe duke dëmtuar procesin demokratik.

Angazhimi i OpenAI për sigurinë kibernetike

Ndërsa AI ofron mundësi të paprecedentë për përparim, ajo gjithashtu paraqet sfida serioze të sigurisë. OpenAI ka dëshmuar se është në detyrë për të kundërshtuar përpjekjet me qëllim të keq për të shfrytëzuar teknologjinë e tij. Megjithatë, loja mace-miu mes ekspertëve të sigurisë kibernetike dhe kriminelëve kibernetikë ka të ngjarë të vazhdojë.

Përpjekjet e OpenAI për të ndërprerë mbi 20 fushata globale këtë vit shënojnë një fitore të rëndësishme, por lufta nuk ka përfunduar ende. Ndërsa AI evoluon, po ashtu do të zhvillohen edhe taktikat e përdorura nga aktorët e kërcënimit. Vigjilenca dhe inovacioni i vazhdueshëm do të jenë thelbësore për të siguruar që AI të mbetet një forcë për të mirën, sesa një mjet për mashtrimin dixhital.

Po ngarkohet...