Számítógépes biztonság A mesterséges intelligencia által hajtott rosszindulatú...

A mesterséges intelligencia által hajtott rosszindulatú programok 10 000 változat létrehozásával fenyegetik az észlelőrendszereket

A kiberbiztonsági kutatók vészharangot fújnak a nagy nyelvi modellek (LLM) esetleges visszaélése miatt a rosszindulatú programok fejlesztése érdekében. A Palo Alto Networks 42-es részlegének új elemzése feltárja, hogy bár az LLM-ek nem jártasak a rosszindulatú programok létrehozásában, hatalmas léptékben átírhatják és elhomályosíthatják a meglévő rosszindulatú kódokat, és olyan változatokat hozhatnak létre, amelyek az esetek 88%-ában elkerülik az észlelést.

Ez kritikus aggodalmakat vet fel azzal kapcsolatban, hogy a fenyegetés szereplői hogyan tudják kihasználni a generatív AI-t az észlelőrendszerek megkerülésére, a gépi tanulási modellek lerontására és a rosszindulatú programok egyre bővülő arzenáljának telepítésére .

A mesterséges intelligencia által továbbfejlesztett rosszindulatú programok létrehozásának mechanikája

„A 42. rész szerint a bűnözők arra kérhetik az LLM-eket, hogy átalakításokat hajtsanak végre rosszindulatú JavaScript-kódon, ami megnehezíti az észlelőrendszerek számára az újraírt szkriptek megjelölését . Ellentétben a hagyományos, kevésbé meggyőző eredményeket generáló obfuszkáló eszközökkel, az LLM-vezérelt átírások természetesebbnek és nehezebben észlelhetőnek tűnnek.

A legfontosabb transzformációs technikák a következők:

  • Változó átnevezése
  • Húrfelosztás
  • Kéretlen kód beillesztése
  • Szóköz eltávolítása
  • Teljes kód újraimplementáció

Minden iteráció egy új rosszindulatú programváltozatot hoz létre, amely megőrzi az eredeti rosszindulatú funkcionalitást, miközben jelentősen csökkenti az észlelés esélyét.

A 42-es egység ezt a megközelítést úgy demonstrálta, hogy LLM-ek segítségével 10 000 JavaScript-változatot hoztak létre a meglévő rosszindulatú programok mintáiból. Ezek a változatok sikeresen becsapták a rosszindulatú programok osztályozóit, köztük olyan széles körben használt modelleket, mint a PhishingJS és az Innocent Until Proven Guilty (IUPG). Sok esetben még a VirusTotal platform sem észlelte rosszindulatúként az átírt szkripteket.

A mesterséges intelligencia elhomályosításának veszélyes határa

Ellentétben a régebbi eszközökkel, például az obfuscator.io-val, amelyek könnyebben észlelhető és ujjlenyomattal rendelkező mintákat hoznak létre, az LLM-alapú átírások eleve kifinomultabbak. Úgy tűnik, közelebb állnak a legitim kódhoz, így nehezebb azonosítani őket a gépi tanulási (ML) modellek és víruskereső eszközök számára.

Ennek a módszernek a hatása mélyreható:

  • A rosszindulatú programok osztályozóit becsapják azzal, hogy a rosszindulatú szkripteket jóindulatúnak minősítsék.
  • Az ML modellek teljesítménye romlik, és nem tudnak lépést tartani a rosszindulatú programok változatainak folyamatos fejlődésével.
  • Fennáll az a veszély, hogy az észlelési rendszerek elavulnak, mivel az ellenfelek folyamatosan friss, észlelhetetlen kártevőket generálnak.

LLM-ek kihasználása a szélesebb körű kiberbűnözés érdekében

Ez a tendencia nem korlátozódik a rosszindulatú programok fejlesztésére. A rosszindulatú szereplők olyan szélhámos eszközöket használnak fel, mint a WormGPT, amelyek generatív mesterséges intelligencia segítségével automatizálják az adathalász kampányokat, és meggyőző, konkrét áldozatokra szabott társadalmi manipulációs támadásokat készítenek.

Míg az LLM-szolgáltatók védőkorlátokat vezettek be a visszaélések korlátozása érdekében, például az OpenAI nemrégiben 20 megtévesztő műveletet blokkolt 2024 októberében, a fenyegetés szereplői folyamatosan keresik a lehetőségeket e korlátozások megkerülésére.

Az ezüst bélés: Tűz elleni küzdelem tűzzel

A kockázatok ellenére ugyanazok az LLM-vezérelt technikák, amelyeket a rosszindulatú programok elhomályosítására használnak, szintén segíthetik a védelmezőket. A 42. rész azt javasolja, hogy ezeket a mesterséges intelligencia-módszereket használjuk képzési adatok generálására, amelyek javítják a rosszindulatú programok észlelési modelljeinek robusztusságát. Ha az osztályozóknak több példát adnak a homályos kódra, a kutatók potenciálisan megerősíthetik képességüket még a legfejlettebb változatok észlelésére is.

Feltörekvő AI sebezhetőségek: TPUXtract Attack

Az LLM-alapú rosszindulatú programok térnyerése nem az egyetlen mesterséges intelligenciával kapcsolatos fenyegetés, amely a címlapokon szerepel. Az Észak-Karolinai Állami Egyetem kutatói bemutattak egy TPUXtract névre keresztelt oldalcsatornás támadást, amely képes mesterséges intelligencia modellarchitektúrákat ellopni a Google Edge Tensor Processing Units (TPU) egységeiből.

A neurális hálózati következtetések során kibocsátott elektromágneses jelek rögzítésével a támadók 99,91%-os pontossággal nyerhetnek ki részleteket, például rétegtípusokat, csomópontszámokat, szűrőméreteket és aktiválási funkciókat. Bár ez a támadás fizikai hozzáférést igényel az eszközhöz és költséges berendezésekhez, komoly kockázatot jelent a szellemi tulajdonra nézve, és megkönnyítheti a kibertámadások nyomon követését.

Mit jelent ez a kiberbiztonság szempontjából

A generatív mesterséges intelligencia gyors fejlődése a kiberbiztonság kétélű fegyvere . Miközben új kapukat nyit az innováció előtt, példátlan eszközöket kínál a kiberbűnözők számára.

  • A szervezeteknek proaktívan kell fellépniük , olyan fejlett észlelési rendszerekbe fektetve be, amelyek képesek alkalmazkodni az AI által vezérelt zavaró technikákhoz.
  • A döntéshozóknak egyértelmű iránymutatásokat kell megállapítaniuk a mesterséges intelligencia etikus használatára vonatkozóan, miközben szigorúbb ellenőrzéseket kell végrehajtaniuk a visszaélések megelőzése érdekében.
  • A biztonsági kutatóknak ki kell használniuk a mesterséges intelligenciát, hogy megelőzzék az ellenfeleket , és olyan ellenálló rendszereket fejlesztenek ki, amelyek képesek ellenállni a fejlődő fenyegetéseknek.

Az AI malware jövője

Az LLM-ek azon képessége, hogy 10 000 rosszindulatú programváltozatot hozzanak létre, és az esetek 88%-ában elkerüljék az észlelést, határozottan emlékeztet a kiberfenyegetések egyre kifinomultabbá válására. A technológia fejlődésével a védekezésünknek is fejlődnie kell. A vállalkozásoknak, a kormányoknak és a kiberbiztonsági szakembereknek innovatív stratégiákat kell alkalmazniuk, hogy megelőzzék a rosszindulatú szereplőket, és megvédjék a digitális világot a mesterséges intelligencia által vezérelt támadásoktól.

Betöltés...