Számítógépes biztonság AI által generált rosszindulatú programokat fedeztek fel,...

AI által generált rosszindulatú programokat fedeztek fel, és megváltoztathatják az általunk ismert kiberbiztonságot

A kiberbiztonság fejlődő világában már egy ideje tudjuk, hogy az AI felhasználható rosszindulatú szoftverek létrehozására. A legújabb fejlemények azonban azt jelezték, hogy az AI által generált rosszindulatú programok jövője közelebb állhat, mint gondolnánk. A HP a közelmúltban elfogott egy e-mail kampányt, amely egy mesterséges intelligencia által generált dropperen keresztül szabványos rosszindulatú programokat szállított, ami jelentős változást jelent a kiberbűnözés taktikájában.

Újfajta fenyegetést találtak az AI rosszindulatú szoftverek fejlesztésében

A felfedezés 2024 júniusában történt, amikor a HP biztonsági csapata ráakadt egy adathalász e-mailre, amely egy tipikus számla témájú csalit tartalmazott. A melléklet egy titkosított HTML-fájl volt – ez a HTML-csempészet néven ismert technika, amelyet az észlelés elkerülésére terveztek. Bár a HTML-csempészet nem újdonság, ennek az ügynek volt egy érdekes fordulata. A kiberbűnözők általában előre titkosított fájlt küldtek, de ezúttal a támadók az AES visszafejtő kulcsot közvetlenül a melléklet JavaScript-kódjába helyezték. Ez a furcsaság további vizsgálatra késztetett.

A melléklet visszafejtésekor a HP kutatói azt találták, hogy az egy normál webhelynek tűnt, de egy VBScript és a hírhedt AsyncRAT információlopó volt benne. A VBScript dropperként működött, telepítette az infostealer hasznos terhét, módosította a rendszerleíró adatbázisokat, és ütemezett feladatként futtatta a JavaScriptet. Ezután egy PowerShell-szkript futott le, befejezve az AsyncRAT telepítését.

Noha ennek a folyamatnak nagy része ismerős, egy kulcsfontosságú részlet kiemelkedik: a VBScript szokatlanul jól felépített volt, és megjegyzéseket tartalmazott – ez a rosszindulatú programok fejlesztése során nem mindennapi gyakorlat. Még meglepőbb, hogy a forgatókönyvet franciául írták. Ezek a tényezők arra késztették a HP kutatóit, hogy elhiggyék, hogy a cseppentőt nem ember készítette, hanem inkább mesterséges intelligencia.

Az AI szerepe a kiberbűnözők akadályainak csökkentésében

Elméletük tesztelésére a HP csapata saját AI-eszközeit használta a VBScript replikálására. Az eredményül kapott szkript megdöbbentően hasonlított a támadásnál használt szkripthez. Bár ez nem végleges bizonyíték, a kutatók biztosak abban, hogy a mesterséges intelligencia részt vett a kártevő létrehozásában. De a rejtély mélyül: miért nem sikerült elfedni a rosszindulatú programot? Miért maradtak a megjegyzések a kódban?

Az egyik lehetséges magyarázat az, hogy a támadó újonc volt a kiberbűnözés világában. A mesterséges intelligencia által generált rosszindulatú programok csökkenthetik a potenciális hackerek belépési korlátait azáltal, hogy olyan eszközöket tesznek elérhetővé, mint a VBScript generálása minimális technikai tudással rendelkező egyének számára. Ebben az esetben az AsyncRAT, az elsődleges hasznos adat szabadon elérhető, és az olyan technikákhoz, mint a HTML-csempészet, nincs szükség kiterjedt kódolási ismeretekre.

Alex Holland, a HP egyik fő fenyegetettségkutatója rámutatott, hogy ez a támadás nagyon kevés erőforrást igényelt. Az ellopott adatok kezelésére egyetlen parancs- és vezérlőkiszolgálón (C&C) kívül nem volt bonyolult infrastruktúra. Maga a rosszindulatú program alapvető volt, és hiányzott belőle a kifinomultabb támadásoknál tapasztalt szokásos elhomályosítás. Röviden, ez egy tapasztalatlan hacker munkája lehetett, aki mesterséges intelligencia segítségével végezte el a nehéz terheket.

A mesterséges intelligencia által generált rosszindulatú programok jövője

Ez a felfedezés egy újabb riasztó lehetőséget vet fel. Ha egy tapasztalatlan támadó AI által generált szkriptekre utaló nyomokat hagyhat maga után, mit érhetnének el a tapasztaltabb ellenfelek hasonló eszközökkel? A tapasztalt kiberbűnözők valószínűleg eltávolítanák a mesterséges intelligencia részvételének minden nyomát, ami sokkal nehezebbé, ha nem lehetetlenné teszi az észlelést.

„Régóta számítottunk arra, hogy az AI felhasználható rosszindulatú programok generálására” – mondta Holland. „De ez az egyik első valós példa, amit láttunk. Ez egy újabb lépés a jövő felé, ahol az AI által generált rosszindulatú programok fejlettebbé és szélesebb körben elterjedtek.”

Ahogy a mesterséges intelligencia technológia továbbra is gyorsan fejlődik, a teljesen autonóm, mesterséges intelligencia által generált rosszindulatú programok idővonala egyre szűkül. Bár nehéz megjósolni a pontos idővonalat, az olyan szakértők, mint Holland, úgy vélik, hogy ez a következő néhány évben megtörténhet. A mesterséges intelligencia veszélye nem dereng a láthatáron – már itt van.

Felkészülés a kiberfenyegetések következő hullámára

Ahogy elmosódnak a határvonalak az emberi és a mesterséges intelligencia által generált rosszindulatú programok között, a kiberbiztonsági környezet még nagyobb kihívást jelent. Noha ez az incidens figyelmeztetésként szolgál, egyben bepillantást nyújt a jövőbe, ahol az AI nagyobb szerepet fog játszani a kibertámadásokban. A biztonsági szakembereknek ébernek kell maradniuk, és folyamatosan módosítaniuk kell védelmüket az újonnan megjelenő fenyegetésekkel szemben.

Mivel a mesterséges intelligencia által generált rosszindulatú programok először jelennek meg a vadonban, nem messziről képzeljük el azt az időszakot, amikor a kifinomultabb, mesterséges intelligencia által hajtott támadások válnak a normává. Ahogy Holland vészjóslóan sugallja, már talán azt mondjuk: „Már itt vannak! Te vagy a következő! Te vagy a következő!”

Betöltés...