Phần mềm độc hại được hỗ trợ bởi AI đe dọa làm quá tải các hệ thống phát hiện với việc tạo ra 10.000 biến thể

Các nhà nghiên cứu an ninh mạng đang gióng lên hồi chuông cảnh báo về khả năng sử dụng sai các mô hình ngôn ngữ lớn (LLM) để thúc đẩy quá trình phát triển phần mềm độc hại. Một phân tích mới của Đơn vị 42 thuộc Palo Alto Networks cho thấy LLM, mặc dù không giỏi trong việc tạo phần mềm độc hại từ đầu, nhưng có thể viết lại và làm tối nghĩa mã độc hiện có trên quy mô lớn, tạo ra các biến thể có thể tránh bị phát hiện trong tới 88% các trường hợp.
Điều này làm dấy lên mối lo ngại nghiêm trọng về cách các tác nhân đe dọa có thể khai thác AI tạo sinh để vượt qua các hệ thống phát hiện, làm suy yếu các mô hình học máy và triển khai kho phần mềm độc hại ngày càng mở rộng .
Mục lục
Cơ chế tạo phần mềm độc hại được tăng cường bằng AI
'Theo Đơn vị 42, tội phạm có thể nhắc nhở LLM thực hiện chuyển đổi trên mã JavaScript độc hại, khiến các hệ thống phát hiện khó đánh dấu các tập lệnh đã viết lại hơn. Không giống như các công cụ che giấu thông thường tạo ra các đầu ra kém thuyết phục hơn, các bản viết lại do LLM điều khiển có vẻ tự nhiên hơn và khó phát hiện hơn.
Các kỹ thuật chuyển đổi chính bao gồm:
- Đổi tên biến
- Tách chuỗi
- Chèn mã rác
- Xóa khoảng trắng
- Hoàn thành việc triển khai lại mã
Mỗi lần lặp lại sẽ tạo ra một biến thể phần mềm độc hại mới vẫn duy trì chức năng độc hại ban đầu đồng thời giảm đáng kể khả năng bị phát hiện.
Unit 42 đã chứng minh cách tiếp cận này bằng cách sử dụng LLM để tạo ra 10.000 biến thể JavaScript từ các mẫu phần mềm độc hại hiện có. Các biến thể này đã đánh lừa thành công các trình phân loại phần mềm độc hại, bao gồm các mô hình được sử dụng rộng rãi như PhishingJS và Innocent Until Proven Guilty (IUPG). Trong nhiều trường hợp, ngay cả nền tảng VirusTotal cũng không phát hiện ra các tập lệnh được viết lại là độc hại.
Sự nguy hiểm của việc che giấu AI
Không giống như các công cụ cũ hơn như obfuscator.io, tạo ra các mẫu có thể dễ dàng phát hiện và lấy dấu vân tay hơn, các bản viết lại dựa trên LLM vốn phức tạp hơn. Chúng có vẻ gần giống với mã hợp lệ hơn, khiến các mô hình học máy (ML) và công cụ chống vi-rút khó xác định hơn.
Tác động của phương pháp này rất sâu sắc:
- Các công cụ phân loại phần mềm độc hại bị đánh lừa khi dán nhãn các tập lệnh độc hại là vô hại.
- Các mô hình ML bị suy giảm hiệu suất do phải vật lộn để theo kịp sự phát triển liên tục của các biến thể phần mềm độc hại.
- Hệ thống phát hiện có nguy cơ trở nên lỗi thời vì kẻ thù liên tục tạo ra phần mềm độc hại mới, không thể phát hiện.
Khai thác LLM cho tội phạm mạng rộng hơn
Xu hướng này không chỉ giới hạn ở việc phát triển phần mềm độc hại. Những kẻ xấu đang tận dụng các công cụ độc hại như WormGPT, sử dụng AI tạo ra để tự động hóa các chiến dịch lừa đảo và tạo ra các cuộc tấn công kỹ thuật xã hội thuyết phục nhắm vào các nạn nhân cụ thể.
Trong khi các nhà cung cấp LLM đã triển khai các biện pháp bảo vệ để hạn chế tình trạng lạm dụng, chẳng hạn như việc OpenAI gần đây đã chặn 20 hoạt động lừa đảo vào tháng 10 năm 2024, thì các tác nhân đe dọa vẫn liên tục tìm cách lách các hạn chế này.
Điểm sáng: Dùng lửa để chữa cháy
Bất chấp những rủi ro, các kỹ thuật do LLM điều khiển được sử dụng để che giấu phần mềm độc hại cũng có thể giúp những người bảo vệ. Đơn vị 42 đề xuất sử dụng các phương pháp AI này để tạo dữ liệu đào tạo giúp cải thiện độ mạnh mẽ của các mô hình phát hiện phần mềm độc hại. Bằng cách cung cấp cho các bộ phân loại nhiều ví dụ hơn về mã được che giấu, các nhà nghiên cứu có khả năng tăng cường khả năng phát hiện ngay cả những biến thể tiên tiến nhất.
Các lỗ hổng AI mới nổi: Tấn công TPUXtract
Sự gia tăng của phần mềm độc hại chạy bằng LLM không phải là mối đe dọa liên quan đến AI duy nhất gây xôn xao dư luận. Các nhà nghiên cứu từ Đại học bang North Carolina đã tiết lộ một cuộc tấn công kênh phụ, được gọi là TPUXtract, có khả năng đánh cắp kiến trúc mô hình AI từ Edge Tensor Processing Units (TPU) của Google.
Bằng cách thu thập các tín hiệu điện từ phát ra trong quá trình suy luận mạng nơ-ron, kẻ tấn công có thể trích xuất các chi tiết như loại lớp, số nút, kích thước bộ lọc và hàm kích hoạt với độ chính xác 99,91%. Mặc dù cuộc tấn công này đòi hỏi phải truy cập vật lý vào thiết bị và thiết bị đắt tiền, nhưng nó gây ra rủi ro nghiêm trọng đối với sở hữu trí tuệ và có thể tạo điều kiện cho các cuộc tấn công mạng tiếp theo.
Điều này có ý nghĩa gì đối với an ninh mạng
Sự phát triển nhanh chóng của AI tạo sinh là con dao hai lưỡi đối với an ninh mạng . Trong khi nó mở ra cánh cửa mới cho sự đổi mới, nó cũng cung cấp các công cụ chưa từng có cho tội phạm mạng.
- Các tổ chức phải hành động chủ động , đầu tư vào các hệ thống phát hiện tiên tiến có khả năng thích ứng với các kỹ thuật che giấu thông tin do AI điều khiển.
- Các nhà hoạch định chính sách nên thiết lập các hướng dẫn rõ ràng về việc sử dụng AI một cách có đạo đức đồng thời thực thi các biện pháp kiểm soát chặt chẽ hơn để ngăn ngừa việc sử dụng sai mục đích.
- Các nhà nghiên cứu bảo mật phải tận dụng AI để vượt qua đối thủ , phát triển các hệ thống kiên cường có thể chống lại các mối đe dọa đang phát triển.
Tương lai của phần mềm độc hại AI
Khả năng của LLM trong việc tạo ra 10.000 biến thể phần mềm độc hại và trốn tránh phát hiện trong 88% trường hợp là lời nhắc nhở rõ ràng về sự tinh vi ngày càng tăng của các mối đe dọa mạng. Khi công nghệ phát triển, khả năng phòng thủ của chúng ta cũng phải phát triển. Các doanh nghiệp, chính phủ và chuyên gia an ninh mạng phải áp dụng các chiến lược sáng tạo để đi trước các tác nhân độc hại và bảo vệ thế giới kỹ thuật số khỏi các cuộc tấn công do AI hỗ trợ.