Bezpieczeństwo komputerowe Oprogramowanie złośliwe oparte na sztucznej inteligencji...

Oprogramowanie złośliwe oparte na sztucznej inteligencji zagraża systemom wykrywania poprzez tworzenie 10 000 wariantów

Badacze cyberbezpieczeństwa biją na alarm w związku z potencjalnym niewłaściwym wykorzystaniem dużych modeli językowych (LLM) w celu zwiększenia wydajności rozwoju złośliwego oprogramowania. Nowa analiza przeprowadzona przez Unit 42 Palo Alto Networks ujawnia, że LLM, choć nie są biegli w tworzeniu złośliwego oprogramowania od podstaw, mogą przepisywać i zaciemniać istniejący złośliwy kod na masową skalę, tworząc warianty, które unikają wykrycia w 88% przypadków.

Rodzi to poważne obawy dotyczące tego, w jaki sposób osoby atakujące mogą wykorzystać generatywną sztuczną inteligencję do omijania systemów wykrywania, osłabiania modeli uczenia maszynowego i wdrażania stale powiększającego się arsenału złośliwego oprogramowania .

Mechanika tworzenia złośliwego oprogramowania wspomaganego sztuczną inteligencją

„Według Unit 42, przestępcy mogą nakłonić LLM do wykonywania transformacji złośliwego kodu JavaScript, co utrudnia systemom wykrywania oznaczanie przepisanych skryptów . W przeciwieństwie do tradycyjnych narzędzi zaciemniających, które generują mniej przekonujące wyniki, przepisywanie sterowane przez LLM wydaje się bardziej naturalne i trudniejsze do wykrycia.

Do kluczowych technik transformacji zalicza się:

  • Zmiana nazwy zmiennej
  • Rozdzielanie strun
  • Wstawianie kodu śmieciowego
  • Usuwanie odstępów
  • Całkowita reimplementacja kodu

Każda iteracja generuje nową odmianę złośliwego oprogramowania, która zachowuje oryginalną szkodliwą funkcjonalność, jednocześnie znacznie zmniejszając szansę na jej wykrycie.

Jednostka 42 zademonstrowała to podejście, używając LLM do stworzenia 10 000 wariantów JavaScript z istniejących próbek złośliwego oprogramowania. Te warianty skutecznie oszukały klasyfikatory złośliwego oprogramowania, w tym szeroko stosowane modele, takie jak PhishingJS i Innocent Until Proven Guilty (IUPG). W wielu przypadkach nawet platforma VirusTotal nie wykryła przepisanych skryptów jako złośliwych.

Niebezpieczna granica zaciemniania sztucznej inteligencji

W przeciwieństwie do starszych narzędzi, takich jak obfuscator.io, które generują wzorce, które można łatwiej wykryć i odciskać, przeróbki oparte na LLM są z natury bardziej wyrafinowane. Wydają się bliższe legalnemu kodowi, co utrudnia ich identyfikację przez modele uczenia maszynowego (ML) i narzędzia antywirusowe.

Wpływ tej metody jest głęboki:

  • Klasyfikatory złośliwego oprogramowania są tak oszukane, że oznaczają złośliwe skrypty jako nieszkodliwe.
  • Modele uczenia maszynowego charakteryzują się spadkiem wydajności i mają trudności z nadążaniem za ciągłą ewolucją wariantów złośliwego oprogramowania.
  • Systemy wykrywania są narażone na ryzyko stania się przestarzałymi, ponieważ przeciwnicy ciągle tworzą nowe, niewykrywalne złośliwe oprogramowanie.

Wykorzystywanie LLM do szerszej cyberprzestępczości

Ten trend nie ogranicza się do rozwoju złośliwego oprogramowania. Złośliwi aktorzy wykorzystują nieuczciwe narzędzia, takie jak WormGPT, które wykorzystują generatywną sztuczną inteligencję do automatyzacji kampanii phishingowych i tworzenia przekonujących ataków socjotechnicznych dostosowanych do konkretnych ofiar.

Chociaż dostawcy szkoleń LLM wdrożyli zabezpieczenia mające na celu ograniczenie nadużyć, takie jak niedawne zablokowanie 20 oszukańczych operacji przez OpenAI w październiku 2024 r., sprawcy zagrożeń nieustannie znajdują sposoby na obejście tych ograniczeń.

Srebrna podszewka: zwalczanie ognia ogniem

Pomimo ryzyka, te same techniki oparte na LLM, które służą do zaciemniania złośliwego oprogramowania, mogą również pomóc obrońcom. Jednostka 42 sugeruje wykorzystanie tych metod AI do generowania danych treningowych, które poprawiają solidność modeli wykrywania złośliwego oprogramowania. Dostarczając klasyfikatorom więcej przykładów zaciemnionego kodu, badacze mogliby potencjalnie wzmocnić swoją zdolność do wykrywania nawet najbardziej zaawansowanych wariantów.

Nowe luki w zabezpieczeniach AI: atak TPUXtract

Rozwój złośliwego oprogramowania opartego na LLM nie jest jedynym zagrożeniem związanym z AI, które pojawia się na pierwszych stronach gazet. Naukowcy z North Carolina State University ujawnili atak kanału bocznego, nazwany TPUXtract, zdolny do kradzieży architektur modeli AI z Edge Tensor Processing Units (TPU) firmy Google.

Przechwytując sygnały elektromagnetyczne emitowane podczas wnioskowania sieci neuronowej, atakujący mogą wyodrębnić szczegóły, takie jak typy warstw, numery węzłów, rozmiary filtrów i funkcje aktywacji z dokładnością 99,91%. Chociaż ten atak wymaga fizycznego dostępu do urządzenia i kosztownego sprzętu, stanowi on poważne ryzyko dla własności intelektualnej i może ułatwić późniejsze cyberataki.

Co to oznacza dla cyberbezpieczeństwa

Szybka ewolucja generatywnej AI jest mieczem obosiecznym dla cyberbezpieczeństwa . Podczas gdy otwiera nowe drzwi dla innowacji, zapewnia również bezprecedensowe narzędzia dla cyberprzestępców.

  • Organizacje muszą działać proaktywnie , inwestując w zaawansowane systemy wykrywania, które potrafią dostosować się do technik zaciemniania opartych na sztucznej inteligencji.
  • Decydenci polityczni powinni ustalić jasne wytyczne dotyczące etycznego korzystania ze sztucznej inteligencji, a jednocześnie wprowadzić bardziej rygorystyczne kontrole w celu zapobiegania niewłaściwemu wykorzystaniu.
  • Badacze zajmujący się bezpieczeństwem muszą wykorzystywać sztuczną inteligencję, aby wyprzedzić przeciwników i opracować odporne systemy zdolne stawić czoła zmieniającym się zagrożeniom.

Przyszłość złośliwego oprogramowania AI

Zdolność LLM do tworzenia 10 000 wariantów złośliwego oprogramowania i unikania wykrycia w 88% przypadków jest jaskrawym przypomnieniem rosnącego wyrafinowania cyberzagrożeń. Wraz z rozwojem technologii, ewoluują również nasze środki obrony. Przedsiębiorstwa, rządy i specjaliści ds. cyberbezpieczeństwa muszą przyjąć innowacyjne strategie, aby wyprzedzać złośliwych aktorów i chronić świat cyfrowy przed atakami opartymi na sztucznej inteligencji.

Ładowanie...