Datasikkerhet OpenAI blokkerer 20 ondsinnede cyberoperasjoner som...

OpenAI blokkerer 20 ondsinnede cyberoperasjoner som kjemper tilbake mot globale nettkriminalitetskampanjer

Overraskende nok har OpenAI dukket opp som en formidabel kraft i kampen mot digitale trusler. Siden begynnelsen av året har selskapet med suksess forstyrret mer enn 20 ondsinnede kampanjer som forsøkte å utnytte AI-plattformen for skadelige aktiviteter , og demonstrerte at fremtiden for cybersikkerhet allerede er her.

Disse operasjonene varierte fra feilsøking av skadelig programvare og utforming av desinformasjon til å lage falske sosiale medier. Trusselaktører forsøkte å utnytte OpenAIs plattform for å hjelpe til med ondsinnede aktiviteter som å generere biografier for falske kontoer eller lage AI-genererte profilbilder for falske sosiale medieidentiteter på X (tidligere Twitter).

Til tross for disse anstrengelsene, forsikret OpenAI imidlertid publikum om at ingen av disse kampanjene førte til banebrytende fremskritt innen opprettelse av skadelig programvare eller viral spredning av desinformasjon. Med andre ord, mens dårlige skuespillere eksperimenterer med AI, har de ennå ikke oppnådd betydelige gjennombrudd.

Hvordan nettkriminelle utnyttet AI

De ondsinnede aktørene kom fra alle verdenshjørner, fra Kina til Iran, og brukte en rekke taktikker. Et fremtredende eksempel var SweetSpecter, en Kina-basert gruppe som brukte AI til rekognosering og sårbarhetsforskning, og til og med forsøkte (uten hell) å spydfiske OpenAI-ansatte.

Iranske grupper spilte også en bemerkelsesverdig rolle. Cyber Av3ngers, knyttet til Iranian Islamic Revolutionary Guard Corps (IRGC), forsket på programmerbare logiske kontrollere ved bruk av AI, mens en annen iransk enhet, Storm-0817, brukte AI til å feilsøke Android-malware og skrape profiler på sosiale medier.

I tillegg til disse målrettede kampanjene, blokkerte OpenAI flere store påvirkningsoperasjoner. En av disse, A2Z, genererte engelsk og fransk innhold for utbredt innlegg på sosiale medier, mens Stop News utnyttet AI-genererte bilder, ofte i tegneserieaktige eller dramatiske stiler, for å forbedre artiklene og tweetene deres.

Forstyrrende globale desinformasjonskampanjer

Desinformasjonskampanjer rettet mot politiske systemer var et annet problemområde. OpenAI rapporterte at de grep inn i forsøk på å påvirke valg i USA, Rwanda, India og EU. Ingen av disse forsøkene oppnådde viral trekkraft, men det faktum at trusselaktører forsøkte å manipulere valg understreker den økende risikoen som AI-drevet desinformasjon utgjør.

STOIC, et israelsk selskap også kjent som Zero Zeno, var blant nøkkelaktørene på dette området, og genererte kommentarer på sosiale medier om indiske valg, en aktivitet som tidligere hadde blitt avslørt av både Meta og OpenAI tidligere i år.

OpenAIs pågående årvåkenhet førte også til oppdagelsen av to andre nettverk, Bet Bot og Corrupt Comment, som brukte API-en til å generere samtaler på X og koble brukere til gamblingsider eller oversvømme sosiale medier med produserte kommentarer.

Rollen til AI i mikromålrettet feilinformasjon

Generativ AI har potensial til å bli våpen, ikke bare for masseskala desinformasjon, men også for mikromålretting. I følge en fersk rapport fra nettsikkerhetsfirmaet Sophos, kan AI manipuleres for å spre svært personlig politisk feilinformasjon gjennom e-poster, nettsteder og falske personas. Ved nøye å skreddersy meldinger til spesifikke kampanjepunkter, kan trusselaktører lure velgere på et nytt nivå, muligens endre valgresultater eller svaie meninger med falsk informasjon.

Forskere advarer om at det er urovekkende enkelt å assosiere enhver politisk figur eller bevegelse med en politisk holdning de kanskje ikke støtter, noe som skaper forvirring blant velgerne og skader den demokratiske prosessen.

OpenAIs forpliktelse til cybersikkerhet

Mens AI tilbyr enestående muligheter for fremgang, byr det også på alvorlige sikkerhetsutfordringer. OpenAI har bevist at det er opp til oppgaven å motvirke ondsinnede forsøk på å utnytte teknologien. Imidlertid vil katt-og-mus-spillet mellom nettsikkerhetseksperter og nettkriminelle sannsynligvis fortsette.

OpenAIs innsats for å forstyrre over 20 globale kampanjer i år markerer en betydelig seier, men kampen er langt fra over. Ettersom AI utvikler seg, vil også taktikken som brukes av trusselaktører. Konstant årvåkenhet og innovasjon vil være nøkkelen til å sikre at AI forblir en kraft for det gode, snarere enn et verktøy for digitalt bedrag.

Laster inn...