มัลแวร์ที่ขับเคลื่อนด้วย AI คุกคามระบบตรวจจับด้วยการสร้างตัวแปรมากกว่า 10,000 ตัว

นักวิจัยด้านความปลอดภัยไซเบอร์กำลังส่งสัญญาณเตือนถึงการใช้โมเดลภาษาขนาดใหญ่ (LLM) อย่างผิดวิธีเพื่อเร่งการพัฒนาซอฟต์แวร์ที่เป็นอันตราย การวิเคราะห์ใหม่โดย Unit 42 ของ Palo Alto Networks เผยให้เห็นว่า LLM นั้นไม่เชี่ยวชาญในการสร้างมัลแวร์ตั้งแต่ต้น แต่สามารถเขียนโค้ดที่เป็นอันตรายที่มีอยู่แล้วใหม่และทำให้โค้ดดังกล่าวสับสนได้ในระดับมหาศาล โดยสร้างตัวแปรที่หลบเลี่ยงการตรวจจับได้มากถึง 88% ของกรณี
เรื่องนี้ทำให้เกิดความกังวลอย่างยิ่งว่าผู้ก่อให้เกิดภัยคุกคามอาจใช้ประโยชน์จาก AI เชิงสร้างสรรค์เพื่อหลีกเลี่ยงระบบการตรวจจับ ลดประสิทธิภาพโมเดลการเรียนรู้ของเครื่อง และ นำมัลแวร์ที่มีจำนวนเพิ่มขึ้นอย่างต่อเนื่องมาใช้ได้อย่างไร
สารบัญ
กลไกการสร้างมัลแวร์ที่ได้รับการปรับปรุงด้วย AI
'ตามหน่วยที่ 42 อาชญากรสามารถแจ้งให้ LLM ทำการแปลงโค้ด JavaScript ที่เป็นอันตราย ทำให้ ระบบตรวจจับทำได้ยากขึ้นในการทำเครื่องหมายสคริปต์ที่เขียนใหม่ ซึ่งแตกต่างจากเครื่องมือบดบังแบบเดิมที่สร้างผลลัพธ์ที่น่าเชื่อถือน้อยกว่า การเขียนใหม่ที่ขับเคลื่อนโดย LLM นั้นดูเป็นธรรมชาติมากกว่าและตรวจจับได้ยากกว่า
เทคนิคการแปลงคีย์ประกอบด้วย:
- การเปลี่ยนชื่อตัวแปร
- การแยกสาย
- การแทรกโค้ดขยะ
- การลบช่องว่าง
- การนำโค้ดมาใช้งานใหม่ทั้งหมด
การทำซ้ำแต่ละครั้งจะสร้างมัลแวร์รูปแบบใหม่ซึ่งยังคงฟังก์ชันการทำงานอันตรายเดิมเอาไว้ในขณะที่ลดโอกาสที่จะถูกตรวจพบลงอย่างมาก
หน่วยที่ 42 สาธิตแนวทางนี้โดยใช้ LLM เพื่อสร้างตัวแปร JavaScript จำนวน 10,000 ตัวจากตัวอย่างมัลแวร์ที่มีอยู่ ตัวแปรเหล่านี้หลอกตัวจำแนกมัลแวร์ได้สำเร็จ รวมถึงโมเดลที่ใช้กันอย่างแพร่หลาย เช่น PhishingJS และ Innocent Until Proven Guilty (IUPG) ในหลายกรณี แม้แต่แพลตฟอร์ม VirusTotal ก็ไม่สามารถตรวจจับสคริปต์ที่เขียนใหม่ว่าเป็นอันตรายได้
ขอบเขตอันตรายของการบดบังปัญญาประดิษฐ์
ต่างจากเครื่องมือรุ่นเก่า เช่น obfuscator.io ซึ่งสร้างรูปแบบที่สามารถตรวจจับและระบุลายนิ้วมือได้ง่ายกว่า การเขียนซ้ำตาม LLM มีความซับซ้อนมากกว่าโดยเนื้อแท้ การเขียนซ้ำตาม LLM ดูเหมือนจะใกล้เคียงกับรหัสที่ถูกต้องมากกว่า ทำให้โมเดลการเรียนรู้ของเครื่อง (ML) และเครื่องมือป้องกันไวรัสระบุได้ยากขึ้น
ผลกระทบของวิธีการนี้มีความลึกซึ้ง:
- โปรแกรมจำแนกมัลแวร์ถูกหลอกให้ติดฉลากสคริปต์ที่เป็นอันตรายว่าไม่เป็นอันตราย
- โมเดล ML ประสบกับภาวะประสิทธิภาพที่ลดลง โดยต้องดิ้นรนเพื่อตามให้ทันวิวัฒนาการอย่างต่อเนื่องของมัลแวร์รุ่นต่างๆ
- ระบบการตรวจจับมีความเสี่ยงที่จะล้าสมัยเนื่องจากผู้ไม่ประสงค์ดีสร้างมัลแวร์ใหม่ๆ ที่ตรวจจับไม่ได้อย่างต่อเนื่อง
การใช้ประโยชน์จาก LLM สำหรับอาชญากรรมทางไซเบอร์ในวงกว้าง
แนวโน้มนี้ไม่ได้จำกัดอยู่แค่การพัฒนาของมัลแวร์เท่านั้น ผู้ประสงค์ร้ายกำลังใช้ประโยชน์จากเครื่องมือปลอม เช่น WormGPT ซึ่งใช้ AI เชิงสร้างสรรค์เพื่อสร้างแคมเปญฟิชชิ่งอัตโนมัติและสร้างการโจมตีทางวิศวกรรมสังคมที่น่าเชื่อถือซึ่งปรับแต่งให้เหมาะกับเหยื่อเฉพาะ
แม้ว่าผู้ให้บริการ LLM จะได้นำมาตรการป้องกันมาใช้เพื่อจำกัดการละเมิด เช่น การที่ OpenAI ได้ทำการบล็อกการดำเนินการหลอกลวง 20 รายการเมื่อไม่นานนี้ในเดือนตุลาคม 2024 แต่ผู้ก่อภัยคุกคามก็ยังคงหาวิธีหลีกเลี่ยงข้อจำกัดเหล่านี้อยู่ตลอดเวลา
ข้อดีของการสู้ไฟ: การต่อสู้ไฟด้วยไฟ
แม้จะมีความเสี่ยง เทคนิคที่ขับเคลื่อนโดย LLM เดียวกันที่ใช้ในการบดบังมัลแวร์ยังสามารถช่วยเหลือผู้ป้องกันได้ หน่วยที่ 42 แนะนำให้ใช้วิธี AI เหล่านี้เพื่อสร้างข้อมูลการฝึกอบรมที่ปรับปรุงความทนทานของโมเดลการตรวจจับมัลแวร์ โดยการป้อนตัวอย่างโค้ดที่บดบังเพิ่มเติมให้กับตัวจัดหมวดหมู่ นักวิจัยอาจเสริมความสามารถในการตรวจจับแม้แต่ตัวแปรขั้นสูงที่สุดได้
ช่องโหว่ AI ที่เกิดขึ้นใหม่: การโจมตี TPUXtract
การเพิ่มขึ้นของมัลแวร์ที่ขับเคลื่อนโดย LLM ไม่ใช่ภัยคุกคามที่เกี่ยวข้องกับ AI เพียงอย่างเดียวที่เป็นข่าวพาดหัว นักวิจัยจากมหาวิทยาลัย North Carolina State ได้เปิดตัวการโจมตีช่องทางข้างเคียงที่เรียกว่า TPUXtract ซึ่งสามารถขโมยสถาปัตยกรรมโมเดล AI จาก Edge Tensor Processing Units (TPU) ของ Google
ด้วยการจับสัญญาณแม่เหล็กไฟฟ้าที่ปล่อยออกมาระหว่างการอนุมานเครือข่ายประสาท ผู้โจมตีสามารถดึงข้อมูลรายละเอียด เช่น ประเภทของเลเยอร์ หมายเลขโหนด ขนาดตัวกรอง และฟังก์ชันการเปิดใช้งานด้วยความแม่นยำ 99.91% แม้ว่าการโจมตีนี้จะต้องเข้าถึงอุปกรณ์และอุปกรณ์ราคาแพงโดยตรง แต่ก็ถือเป็นความเสี่ยงร้ายแรงต่อทรัพย์สินทางปัญญาและอาจทำให้เกิดการโจมตีทางไซเบอร์ตามมา
สิ่งนี้หมายถึงอะไรสำหรับความปลอดภัยทางไซเบอร์
วิวัฒนาการอย่างรวดเร็วของ AI เชิงสร้างสรรค์เป็นดาบสองคมสำหรับความปลอดภัยทางไซเบอร์ แม้ว่าจะเปิดประตูสู่การสร้างสรรค์สิ่งใหม่ๆ ก็ตาม แต่ยังมอบเครื่องมือที่ไม่เคยมีมาก่อนสำหรับอาชญากรทางไซเบอร์อีกด้วย
- องค์กรต่างๆ ต้องดำเนินการอย่างจริงจัง โดยลงทุนในระบบตรวจจับขั้นสูงที่สามารถปรับให้เข้ากับเทคนิคการบดบังที่ขับเคลื่อนด้วย AI
- ผู้กำหนดนโยบายควรกำหนดแนวปฏิบัติที่ชัดเจน สำหรับการใช้ AI อย่างมีจริยธรรม พร้อมทั้งบังคับใช้การควบคุมที่เข้มงวดยิ่งขึ้นเพื่อป้องกันการใช้ในทางที่ผิด
- นักวิจัยด้านความปลอดภัยจะต้องใช้ประโยชน์จาก AI เพื่อเอาชนะศัตรู และพัฒนาระบบที่มีความยืดหยุ่นซึ่งสามารถต่อต้านภัยคุกคามที่เปลี่ยนแปลงไปได้
อนาคตของมัลแวร์ AI
ความสามารถของ LLM ในการสร้างมัลแวร์กว่า 10,000 ชนิดและหลบเลี่ยงการตรวจจับได้ถึง 88% ของกรณี ถือเป็นเครื่องเตือนใจถึงความซับซ้อนที่เพิ่มมากขึ้นของภัยคุกคามทางไซเบอร์ เมื่อเทคโนโลยีพัฒนาไป การป้องกันของเราก็ต้องพัฒนาตามไปด้วย ธุรกิจ รัฐบาล และผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์จะต้องนำเอาแนวทางใหม่ๆ มาใช้เพื่อให้ก้าวล้ำหน้าผู้กระทำผิดและปกป้องโลกดิจิทัลจากการโจมตีที่ขับเคลื่อนด้วย AI