Ang AI-Powered Malware ay Nagbabanta na Mapuspos ang Mga Detection System sa Paglikha ng 10,000 Variant

Ang mga mananaliksik sa cybersecurity ay nagpapatunog ng alarma sa potensyal na maling paggamit ng mga malalaking modelo ng wika (mga modelo ng malalaking wika) upang madagdagan ang pagbuo ng malware. Ang isang bagong pagsusuri ng Unit 42 ng Palo Alto Networks ay nagpapakita na ang mga LLM, bagama't hindi sanay sa paglikha ng malware mula sa simula, ay maaaring muling isulat at i-obfuscate ang umiiral na malisyosong code sa napakalaking sukat, na lumilikha ng mga variant na umiiwas sa pagtuklas hanggang sa 88% ng mga kaso.
Nagpapataas ito ng mga kritikal na alalahanin tungkol sa kung paano maaaring pagsamantalahan ng mga aktor ng banta ang generative AI upang i-sidestep ang mga system ng pagtuklas, pababain ang mga modelo ng machine learning, at mag-deploy ng patuloy na lumalawak na arsenal ng malware .
Talaan ng mga Nilalaman
Ang Mechanics ng AI-Enhanced Malware Creation
'Ayon sa Unit 42, maaaring i-prompt ng mga kriminal ang mga LLM na magsagawa ng mga pagbabago sa malisyosong JavaScript code, na ginagawang mas mahirap para sa mga detection system na i-flag ang mga muling isinulat na script . Hindi tulad ng mga tradisyunal na tool sa obfuscation na bumubuo ng mga hindi gaanong nakakumbinsi na mga output, ang mga rewrite na hinimok ng LLM ay lumilitaw na mas natural at mas mahirap matukoy.
Ang mga pangunahing diskarte sa pagbabago ay kinabibilangan ng:
- Pagpapalit ng pangalan ng variable
- Paghati ng string
- Paglalagay ng junk code
- Pag-alis ng whitespace
- Kumpletuhin ang muling pagpapatupad ng code
Ang bawat pag-ulit ay bumubuo ng bagong variant ng malware na nagpapanatili sa orihinal na nakakahamak na functionality habang makabuluhang binabawasan ang mga pagkakataon nitong matukoy.
Ipinakita ng Unit 42 ang diskarteng ito sa pamamagitan ng paggamit ng mga LLM para gumawa ng 10,000 variant ng JavaScript mula sa mga kasalukuyang sample ng malware. Matagumpay na nalinlang ng mga variant na ito ang mga classifier ng malware, kabilang ang mga modelong malawakang ginagamit tulad ng PhishingJS at Innocent Until Proven Guilty (IUPG). Sa maraming kaso, kahit na ang VirusTotal platform ay nabigo na makita ang mga muling isinulat na script bilang nakakahamak.
Ang Mapanganib na Gilid ng AI Obfuscation
Hindi tulad ng mga mas lumang tool tulad ng obfuscator.io, na gumagawa ng mga pattern na mas madaling matukoy at ma-fingerprint, ang mga rewrite na nakabase sa LLM ay likas na mas sopistikado. Lumalabas ang mga ito na mas malapit sa lehitimong code, na nagpapahirap sa mga ito para sa mga modelo ng machine learning (ML) at mga antivirus tool na matukoy.
Ang epekto ng pamamaraang ito ay malalim:
- Nalinlang ang mga classifier ng malware sa pag-label ng mga nakakahamak na script bilang benign.
- Ang mga modelo ng ML ay dumaranas ng pagkasira ng pagganap, na nagsisikap na makasabay sa patuloy na ebolusyon ng mga variant ng malware.
- Ang mga sistema ng pag-detect ay nanganganib na maging lipas na habang ang mga kalaban ay patuloy na gumagawa ng bago at hindi matukoy na malware.
Pagsasamantala sa mga LLM para sa Mas Malawak na Cybercrime
Ang trend na ito ay hindi limitado sa pagbuo ng malware. Ang mga nakakahamak na aktor ay gumagamit ng mga rogue na tool tulad ng WormGPT, na gumagamit ng generative AI para i-automate ang mga phishing campaign at gumawa ng mga nakakakumbinsi na pag-atake sa social engineering na iniayon sa mga partikular na biktima.
Bagama't ang mga tagapagbigay ng LLM ay nagpatupad ng mga guardrail upang limitahan ang pang-aabuso, tulad ng kamakailang pagharang ng OpenAI sa 20 mapanlinlang na operasyon noong Oktubre 2024, ang mga banta ng aktor ay patuloy na naghahanap ng mga paraan sa paligid ng mga paghihigpit na ito.
The Silver Lining: Labanan ang Apoy gamit ang Apoy
Sa kabila ng mga panganib, ang parehong mga diskarteng hinimok ng LLM na ginamit upang i-obfuscate ang malware ay maaari ding makatulong sa mga tagapagtanggol. Iminumungkahi ng Unit 42 ang paggamit ng mga paraang ito ng AI upang makabuo ng data ng pagsasanay na nagpapahusay sa pagiging matatag ng mga modelo ng pagtuklas ng malware. Sa pamamagitan ng pagpapakain sa mga classifier ng higit pang mga halimbawa ng na-obfuscate na code, posibleng palakasin ng mga mananaliksik ang kanilang kakayahang makakita ng kahit na ang mga pinaka-advanced na variant.
Mga Umuusbong na Vulnerabilities ng AI: TPUXtract Attack
Ang pagtaas ng malware na pinapagana ng LLM ay hindi lamang ang banta na nauugnay sa AI na gumagawa ng mga headline. Ang mga mananaliksik mula sa North Carolina State University ay naglabas ng isang side-channel attack, na tinatawag na TPUXtract, na may kakayahang magnakaw ng mga arkitektura ng modelo ng AI mula sa Edge Tensor Processing Units (TPUs) ng Google.
Sa pamamagitan ng pagkuha ng mga electromagnetic signal na ibinubuga sa panahon ng mga inferences sa neural network, maaaring kunin ng mga attacker ang mga detalye tulad ng mga uri ng layer, numero ng node, laki ng filter, at mga function ng activation na may 99.91% na katumpakan. Bagama't ang pag-atakeng ito ay nangangailangan ng pisikal na pag-access sa device at mamahaling kagamitan, nagdudulot ito ng malubhang panganib sa intelektwal na ari-arian at maaaring mapadali ang mga follow-up na cyberattack.
Ano ang Ibig Sabihin nito para sa Cybersecurity
Ang mabilis na ebolusyon ng generative AI ay isang double-edged sword para sa cybersecurity . Habang nagbubukas ito ng mga bagong pinto para sa pagbabago, nagbibigay din ito ng mga hindi pa nagagawang tool para sa mga cybercriminal.
- Dapat kumilos nang maagap ang mga organisasyon , namumuhunan sa mga advanced na sistema ng pagtuklas na may kakayahang umangkop sa mga diskarte sa obfuscation na hinimok ng AI.
- Ang mga gumagawa ng patakaran ay dapat magtatag ng malinaw na mga alituntunin para sa etikal na paggamit ng AI habang nagpapatupad ng mas mahigpit na mga kontrol upang maiwasan ang maling paggamit.
- Dapat gamitin ng mga mananaliksik sa seguridad ang AI para malampasan ang mga kalaban , pagbuo ng mga nababanat na sistema na makakalaban sa mga umuusbong na banta.
Ang Kinabukasan ng AI Malware
Ang kakayahan ng mga LLM na lumikha ng 10,000 variant ng malware at maiwasan ang pagtuklas sa 88% ng mga kaso ay isang malinaw na paalala ng lumalaking pagiging sopistikado ng mga banta sa cyber. Habang umuunlad ang teknolohiya, dapat din ang ating mga depensa. Dapat tanggapin ng mga negosyo, pamahalaan, at mga propesyonal sa cybersecurity ang mga makabagong diskarte upang manatiling nangunguna sa mga malisyosong aktor at pangalagaan ang digital na mundo mula sa mga pag-atake na pinapagana ng AI.