OpenAI blokerer 20 ondsindede cyberoperationer, der kæmper tilbage mod globale cyberkriminalitetskampagner

Overraskende nok har OpenAI vist sig som en formidabel kraft i kampen mod digitale trusler. Siden begyndelsen af året har virksomheden med succes afbrudt mere end 20 ondsindede kampagner, der forsøgte at udnytte sin AI-platform til skadelige aktiviteter , hvilket viser, at fremtiden for cybersikkerhed allerede er her.
Disse operationer strakte sig fra fejlfinding af malware og udformning af desinformation til at skabe falske sociale medier. Trusselsaktører forsøgte at udnytte OpenAIs platform til at hjælpe med ondsindede aktiviteter som at generere biografier til falske konti eller oprette AI-genererede profilbilleder til falske sociale medie-identiteter på X (tidligere Twitter).
På trods af disse bestræbelser forsikrede OpenAI dog offentligheden om, at ingen af disse kampagner førte til banebrydende fremskridt inden for malware-oprettelse eller viral spredning af desinformation. Med andre ord, mens dårlige skuespillere eksperimenterer med kunstig intelligens, har de endnu ikke opnået væsentlige gennembrud.
Indholdsfortegnelse
Hvordan cyberkriminelle udnyttede AI
De ondsindede aktører kom fra alle hjørner af kloden, fra Kina til Iran, og brugte en række forskellige taktikker. Et fremtrædende eksempel var SweetSpecter, en Kina-baseret gruppe, der brugte AI til rekognoscering og sårbarhedsforskning og endda forsøgte (forgæves) at spydfiske OpenAI-medarbejdere.
Iranske grupper spillede også en bemærkelsesværdig rolle. Cyber Av3ngers, der er knyttet til Iranian Islamic Revolutionary Guard Corps (IRGC), undersøgte programmerbare logiske controllere ved hjælp af AI, mens en anden iransk enhed, Storm-0817, brugte AI til at fejlsøge Android-malware og skrabe profiler på sociale medier.
Ud over disse målrettede kampagner blokerede OpenAI adskillige storstilede indflydelsesoperationer. En af disse, A2Z, genererede engelsk og fransk indhold til udbredt opslag på sociale medier, mens Stop News udnyttede AI-genererede billeder, ofte i tegneserieagtige eller dramatiske stilarter, for at forbedre deres artikler og tweets.
Forstyrrelse af globale desinformationskampagner
Desinformationskampagner rettet mod politiske systemer var et andet problemområde. OpenAI rapporterede, at det greb ind i forsøg på at påvirke valg i USA, Rwanda, Indien og EU. Ingen af disse bestræbelser opnåede viral trækkraft, men det faktum, at trusselsaktører forsøgte at manipulere valg, understreger de stigende risici, som AI-drevet desinformation udgør.
STOIC, et israelsk firma også kendt som Zero Zeno, var blandt nøgleaktørerne på dette område og genererede kommentarer på sociale medier om indiske valg, en aktivitet, der tidligere var blevet afsløret af både Meta og OpenAI tidligere på året.
OpenAIs løbende årvågenhed førte også til opdagelsen af to andre netværk, Bet Bot og Corrupt Comment, som brugte deres API til at generere samtaler på X og linke brugere til gamblingsider eller oversvømme sociale medier med fremstillede kommentarer.
AI's rolle i mikromålrettet misinformation
Generativ AI har potentialet til at blive våben, ikke kun til masseskala desinformation, men også til mikromålretning. Ifølge en nylig rapport fra cybersikkerhedsfirmaet Sophos kan AI manipuleres til at sprede meget personlig politisk misinformation gennem e-mails, websteder og falske personas. Ved omhyggeligt at skræddersy budskaber til specifikke kampagnepunkter kan trusselsaktører bedrage vælgerne på et nyt niveau, muligvis ændre valgresultater eller svajende meninger med falsk information.
Forskere advarer om, at det er foruroligende nemt at forbinde enhver politisk figur eller bevægelse med en politisk holdning, de måske faktisk ikke støtter, hvilket sår forvirring blandt vælgerne og skader den demokratiske proces.
OpenAI's forpligtelse til cybersikkerhed
Mens AI tilbyder hidtil usete muligheder for fremskridt, giver det også alvorlige sikkerhedsudfordringer. OpenAI har bevist, at det er op til opgaven at imødegå ondsindede forsøg på at udnytte sin teknologi. Kat-og-mus-spillet mellem cybersikkerhedseksperter og cyberkriminelle vil dog sandsynligvis fortsætte.
OpenAIs bestræbelser på at forstyrre over 20 globale kampagner i år markerer en betydelig sejr, men kampen er langt fra slut. Efterhånden som AI udvikler sig, vil taktikken, der bruges af trusselsaktører, også. Konstant årvågenhed og innovation vil være nøglen til at sikre, at AI forbliver en kraft for det gode, snarere end et værktøj til digitalt bedrag.