Seguretat informàtica El programari maliciós impulsat per IA amenaça...

El programari maliciós impulsat per IA amenaça d'aclaparar els sistemes de detecció amb la creació de 10.000 variants

Els investigadors de ciberseguretat estan sonant l'alarma sobre el possible ús indegut dels grans models de llenguatge (LLM) per augmentar el desenvolupament de programari maliciós. Una nova anàlisi de la Unitat 42 de Palo Alto Networks revela que els LLM, tot i que no són hàbils en la creació de programari maliciós des de zero, poden reescriure i ofuscar el codi maliciós existent a gran escala, creant variants que evadin la detecció en fins a un 88% dels casos.

Això genera preocupacions crítiques sobre com els actors de les amenaces podrien explotar la IA generativa per esquivar els sistemes de detecció, degradar els models d'aprenentatge automàtic i desplegar un arsenal de programari maliciós en constant expansió .

La mecànica de la creació de programari maliciós millorat amb IA

"Segons la Unitat 42, els delinqüents poden demanar als LLM que realitzin transformacions en codi JavaScript maliciós, cosa que fa que sigui més difícil que els sistemes de detecció marquin els scripts reescrits . A diferència de les eines d'ofuscació tradicionals que generen resultats menys convincents, les reescriptures impulsades per LLM semblen més naturals i més difícils de detectar.

Les tècniques clau de transformació inclouen:

  • Canvi de nom de variables
  • Divisió de cordes
  • Inserció de codi brossa
  • Eliminació d'espais en blanc
  • Reimplementació completa del codi

Cada iteració genera una nova variant de programari maliciós que manté la funcionalitat maliciosa original alhora que redueix significativament les possibilitats de ser detectada.

La unitat 42 va demostrar aquest enfocament utilitzant LLM per crear 10.000 variants de JavaScript a partir de mostres de programari maliciós existents. Aquestes variants van enganyar amb èxit els classificadors de programari maliciós, inclosos models àmpliament utilitzats com PhishingJS i Innocent Until Proven Guilty (IUPG). En molts casos, fins i tot la plataforma VirusTotal no va detectar els scripts reescrits com a maliciosos.

La vora perillosa de l'ofuscament de la IA

A diferència de les eines més antigues com obfuscator.io, que produeixen patrons que es poden detectar i prendre empremtes digitals més fàcilment, les reescriptures basades en LLM són intrínsecament més sofisticades. Semblan més propers al codi legítim, cosa que els dificulta identificar els models d'aprenentatge automàtic (ML) i les eines antivirus.

L'impacte d'aquest mètode és profund:

  • Els classificadors de programari maliciós són enganyats perquè etiquetin els scripts maliciosos com a benignes.
  • Els models ML pateixen una degradació del rendiment i lluiten per mantenir-se al dia amb l'evolució constant de les variants de programari maliciós.
  • Els sistemes de detecció corren el risc de quedar obsolets a mesura que els adversaris generen contínuament programari maliciós nou i indetectable.

Aprofitant els LLM per a la ciberdelinqüència més àmplia

Aquesta tendència no es limita al desenvolupament de programari maliciós. Els actors maliciosos estan aprofitant eines canalla com WormGPT, que utilitzen IA generativa per automatitzar campanyes de pesca i crear atacs convincents d'enginyeria social adaptats a víctimes específiques.

Tot i que els proveïdors de LLM han implementat baranes per limitar l'abús, com ara el recent bloqueig de 20 operacions enganyoses per part d'OpenAI l'octubre de 2024, els actors de les amenaces estan trobant constantment maneres d'evitar aquestes restriccions.

The Silver Lining: Combatre el foc amb foc

Malgrat els riscos, les mateixes tècniques basades en LLM que s'utilitzen per ofuscar programari maliciós també poden ajudar els defensors. La unitat 42 suggereix utilitzar aquests mètodes d'IA per generar dades d'entrenament que millorin la robustesa dels models de detecció de programari maliciós. Mitjançant l'alimentació dels classificadors amb més exemples de codi ofuscat, els investigadors podrien potenciar la seva capacitat per detectar fins i tot les variants més avançades.

Vulnerabilitats emergents d'IA: atac TPUXtract

L'augment del programari maliciós impulsat per LLM no és l'única amenaça relacionada amb la intel·ligència artificial que apareix als titulars. Investigadors de la Universitat Estatal de Carolina del Nord han presentat un atac de canal lateral, anomenat TPUXtract, capaç de robar arquitectures de models d'IA de les unitats de processament de tensors (TPU) de Google.

En capturar els senyals electromagnètics emesos durant les inferències de la xarxa neuronal, els atacants poden extreure detalls com els tipus de capes, números de nodes, mides de filtre i funcions d'activació amb una precisió del 99,91%. Tot i que aquest atac requereix accés físic al dispositiu i equips costosos, suposa un greu risc per a la propietat intel·lectual i podria facilitar el seguiment dels ciberatacs.

Què significa això per a la ciberseguretat

La ràpida evolució de la IA generativa és una arma de doble tall per a la ciberseguretat . Tot i que obre noves portes per a la innovació, també proporciona eines sense precedents per als ciberdelinqüents.

  • Les organitzacions han d'actuar de manera proactiva , invertint en sistemes de detecció avançats capaços d'adaptar-se a les tècniques d'ofuscament impulsades per IA.
  • Els responsables polítics haurien d'establir directrius clares per a l'ús ètic de la IA alhora que imposen controls més estrictes per evitar el mal ús.
  • Els investigadors de seguretat han d'aprofitar la IA per superar els adversaris , desenvolupant sistemes resistents que puguin contrarestar les amenaces en evolució.

El futur del programari maliciós d'IA

La capacitat dels LLM per crear 10.000 variants de programari maliciós i eludir la detecció en el 88% dels casos és un recordatori clar de la creixent sofisticació de les amenaces cibernètiques. A mesura que la tecnologia evoluciona, també ho han de fer les nostres defenses. Les empreses, els governs i els professionals de la ciberseguretat han d'adoptar estratègies innovadores per mantenir-se per davant dels actors maliciosos i protegir el món digital dels atacs impulsats per IA.

Carregant...