Tietokoneturva Tekoälykäyttöiset haittaohjelmat uhkaavat ylittää...

Tekoälykäyttöiset haittaohjelmat uhkaavat ylittää tunnistusjärjestelmät luomalla 10 000 muunnelmaa

Kyberturvallisuustutkijat antavat hälytystä suurten kielimallien (LLM) mahdollisesta väärinkäytöstä haittaohjelmien kehityksen lisäämiseksi. Palo Alto Networksin Unit 42:n uusi analyysi paljastaa, että vaikka LLM:t eivät ole taitavia luomaan haittaohjelmia tyhjästä, ne voivat kirjoittaa uudelleen ja hämärtää olemassa olevan haitallisen koodin massiivisessa mittakaavassa luoden muunnelmia, jotka välttävät havaitsemisen jopa 88 %:ssa tapauksista.

Tämä herättää kriittisiä huolenaiheita siitä, kuinka uhkatekijät voivat hyödyntää generatiivista tekoälyä ohittaakseen tunnistusjärjestelmiä, heikentääkseen koneoppimismalleja ja ottaakseen käyttöön jatkuvasti laajenevan haittaohjelmien arsenaalin .

Tekoälyllä tehostetun haittaohjelmien luomisen mekaniikka

"Yksiön 42 mukaan rikolliset voivat kehottaa LLM:itä muuttamaan haitallista JavaScript-koodia, mikä vaikeuttaa tunnistusjärjestelmien merkitsemistä uudelleen kirjoitetuista skripteistä . Toisin kuin perinteiset hämärätyökalut, jotka tuottavat vähemmän vakuuttavia tuloksia, LLM-ohjatut uudelleenkirjoitukset näyttävät luonnollisemmalta ja vaikeammin havaittavilta.

Keskeisiä muunnostekniikoita ovat:

  • Muuttujien uudelleennimeäminen
  • Merkkijonojen halkaisu
  • Roskakoodin lisääminen
  • Välilyöntien poisto
  • Täydellinen koodin uudelleenkäyttöönotto

Jokainen iteraatio luo uuden haittaohjelmaversion, joka säilyttää alkuperäisen haittaohjelman ja vähentää merkittävästi sen havaitsemismahdollisuuksia.

Yksikkö 42 esitteli tämän lähestymistavan luomalla LLM:itä 10 000 JavaScript-versiota olemassa olevista haittaohjelmanäytteistä. Nämä versiot huijasivat onnistuneesti haittaohjelmien luokittelijat, mukaan lukien laajalti käytetyt mallit, kuten PhishingJS ja Innocent Until Proven Guilty (IUPG). Monissa tapauksissa jopa VirusTotal-alusta ei pystynyt havaitsemaan uudelleenkirjoitettuja skriptejä haitallisiksi.

Tekoälyn hämärtymisen vaarallinen reuna

Toisin kuin vanhemmat työkalut, kuten obfuscator.io, jotka tuottavat kuvioita, jotka voidaan havaita ja ottaa sormenjäljet helpommin, LLM-pohjaiset uudelleenkirjoitukset ovat luonnostaan kehittyneempiä. Ne näyttävät lähempänä laillista koodia, mikä vaikeuttaa koneoppimismallien (ML) ja virustorjuntatyökalujen tunnistamista.

Tämän menetelmän vaikutus on syvä:

  • Haittaohjelmien luokittelijat huijataan merkitsemään haitalliset skriptit hyvänlaatuisiksi.
  • ML-mallit kärsivät suorituskyvyn heikkenemisestä, ja niiden on vaikeuksia pysyä mukana haittaohjelmaversioiden jatkuvassa kehityksessä.
  • Havaintojärjestelmät ovat vaarassa vanhentua, koska vastustajat luovat jatkuvasti uusia, havaitsemattomia haittaohjelmia.

LLM-yritysten hyödyntäminen laajempaan tietoverkkorikollisuuteen

Tämä suuntaus ei rajoitu haittaohjelmien kehittämiseen. Haitalliset toimijat hyödyntävät roistotyökaluja, kuten WormGPT:tä, jotka käyttävät generatiivista tekoälyä automatisoidakseen tietojenkalastelukampanjoita ja luodakseen vakuuttavia sosiaalisen manipuloinnin hyökkäyksiä, jotka on räätälöity tietyille uhreille.

Vaikka LLM-palveluntarjoajat ovat ottaneet käyttöön suojakaiteita väärinkäytön rajoittamiseksi, kuten OpenAI esti äskettäin 20 petollista toimintaa lokakuussa 2024, uhkatoimijat etsivät jatkuvasti tapoja kiertää näitä rajoituksia.

Hopeavuori: Taistele tulella tulella

Riskeistä huolimatta samat LLM-ohjatut tekniikat, joita käytetään haittaohjelmien hämärtämiseen, voivat myös auttaa puolustajia. Yksikkö 42 ehdottaa näiden tekoälymenetelmien käyttöä harjoitustietojen tuottamiseen, mikä parantaa haittaohjelmien havaitsemismallien kestävyyttä. Syöttämällä luokittelijoille enemmän esimerkkejä hämärästä koodista, tutkijat voisivat mahdollisesti vahvistaa kykyään havaita jopa edistyneimmät muunnelmat.

Uusia tekoälyn haavoittuvuuksia: TPUXtract Attack

LLM-pohjaisten haittaohjelmien nousu ei ole ainoa tekoälyyn liittyvä uhka otsikoissa. North Carolina State Universityn tutkijat ovat julkistaneet sivukanavahyökkäyksen, nimeltään TPUXtract, joka pystyy varastamaan tekoälymalliarkkitehtuuria Googlen Edge Tensor Processing Units (TPU:t) -yksiköistä.

Kaappaamalla hermoverkkopäätelmien aikana lähetetyt sähkömagneettiset signaalit hyökkääjät voivat poimia yksityiskohtia, kuten kerrostyyppejä, solmujen numeroita, suodatinkokoja ja aktivointitoimintoja 99,91 %:n tarkkuudella. Vaikka tämä hyökkäys vaatii fyysistä pääsyä laitteeseen ja kalliisiin laitteisiin, se aiheuttaa vakavan riskin immateriaaliomaisuudelle ja voi helpottaa kyberhyökkäyksiä.

Mitä tämä tarkoittaa kyberturvallisuudelle

Generatiivisen tekoälyn nopea kehitys on kyberturvallisuuden kaksiteräinen miekka . Vaikka se avaa uusia ovia innovaatioille, se tarjoaa myös ennennäkemättömiä työkaluja kyberrikollisille.

  • Organisaatioiden on toimittava ennakoivasti ja investoitava kehittyneisiin tunnistusjärjestelmiin, jotka pystyvät mukautumaan tekoälyyn perustuviin hämärätekniikoihin.
  • Poliittisten päättäjien tulee laatia selkeät ohjeet tekoälyn eettiselle käytölle ja valvoa samalla tiukempia valvontatoimia väärinkäytön estämiseksi.
  • Tietoturvatutkijoiden on hyödynnettävä tekoälyä päihittääkseen vihollisia ja kehittääkseen joustavia järjestelmiä, jotka voivat torjua kehittyviä uhkia.

AI-haittaohjelmien tulevaisuus

LLM-yritysten kyky luoda 10 000 haittaohjelmaversiota ja välttää havaitseminen 88 prosentissa tapauksista on jyrkkä muistutus kyberuhkien kehittyvyydestä. Teknologian kehittyessä myös puolustuksemme kehittyvät. Yritysten, hallitusten ja kyberturvallisuuden ammattilaisten on omaksuttava innovatiivisia strategioita pysyäkseen haitallisten toimijoiden edellä ja suojellakseen digitaalista maailmaa tekoälyllä toimivilta hyökkäyksiltä.

Ladataan...