Microsoft có hành động pháp lý chống lại tin tặc khai thác Azure AI cho mục đích xấu

Cuộc chiến chống tội phạm mạng đang diễn ra của Microsoft đã đạt đến tầm cao mới với vụ kiện mới nhất nhắm vào một nhóm tin tặc bị cáo buộc khai thác các dịch vụ AI tạo ra của Azure. Gã khổng lồ công nghệ tiết lộ rằng các tác nhân đe dọa có trụ sở ở nước ngoài đã tạo ra một nền tảng tin tặc như một dịch vụ để vượt qua các giao thức an toàn của Azure AI, cho phép tạo ra nội dung có hại và phần mềm độc hại .
Trường hợp này nhấn mạnh những rủi ro ngày càng gia tăng do tội phạm mạng lợi dụng nền tảng AI cho mục đích xấu, gây ra những thách thức đáng kể về an ninh mạng cho các tổ chức trên toàn thế giới.
Mục lục
Tin tặc đã khai thác AI Azure của Microsoft như thế nào
Đơn vị tội phạm kỹ thuật số (DCU) của Microsoft đã phát hiện ra hoạt động này vào tháng 7 năm 2024. Nhóm này đã sử dụng thông tin đăng nhập khách hàng bị đánh cắp, thu thập từ các nguồn công khai, để xâm phạm hệ thống Azure và can thiệp vào các mô hình AI như DALL-E của OpenAI.
Các chi tiết chính bao gồm:
- Trộm thông tin đăng nhập : Khóa API Azure bị đánh cắp và dữ liệu xác thực Entra ID đã được sử dụng để truy cập vào các dịch vụ Azure OpenAI.
- Tạo nội dung có hại : Nhóm này kiếm tiền từ quyền truy cập của mình bằng cách tạo ra các công cụ để tạo ra hình ảnh phản cảm và vượt qua bộ lọc nội dung AI.
- Dịch vụ hack : Nhóm này đã bán quyền truy cập vào các công cụ của mình thông qua các trang web như aitism[.]net và chia sẻ hướng dẫn sử dụng với những tên tội phạm mạng khác.
Những hoạt động này đã dẫn đến việc tạo ra hàng ngàn hình ảnh có hại một cách bất hợp pháp và tạo điều kiện cho việc lạm dụng AI bất hợp pháp tiếp tục diễn ra, trong khi thủ phạm vẫn cố gắng xóa dấu vết kỹ thuật số của mình.
Kết nối phần mềm độc hại
Việc lạm dụng các dịch vụ AI tạo ra có tác động rộng hơn đến sự phát triển của phần mềm độc hại . Các tác nhân đe dọa có khả năng:
- Tạo mồi nhử lừa đảo hoặc trang web giả mạo được thiết kế để bắt chước các nền tảng đáng tin cậy.
Khai thác này làm nổi bật cách các nhóm tin tặc đang phát triển chiến thuật của mình, kết hợp thông tin đăng nhập bị đánh cắp và khả năng AI tiên tiến để thực hiện các cuộc tấn công mạng trên quy mô lớn.
Khai thác Proxy ngược và LLMjacking
Một khía cạnh đáng chú ý của vụ việc là việc sử dụng proxy ngược, chẳng hạn như công cụ de3u. Các proxy này chuyển hướng thông tin liên lạc từ thiết bị của người dùng qua đường hầm Cloudflare đến các dịch vụ Azure OpenAI, mô phỏng các lệnh gọi API hợp pháp.
Kỹ thuật này phản ánh các chiến thuật được xác định trong các cuộc tấn công LLMjacking, trong đó thông tin đăng nhập đám mây bị đánh cắp được sử dụng để truy cập vào các dịch vụ mô hình ngôn ngữ lớn (LLM) như Anthropic, AWS Bedrock và Google Vertex AI. Các chương trình như vậy cho phép các tác nhân đe dọa chiếm đoạt các công cụ AI dựa trên đám mây, thường kiếm tiền từ quyền truy cập bằng cách bán cho những tên tội phạm khác.
Các biện pháp đối phó của Microsoft và những tác động rộng hơn
Để đáp lại hoạt động này, Microsoft:
- Thu hồi quyền truy cập : Vô hiệu hóa thông tin đăng nhập bị đánh cắp của nhóm và đóng cơ sở hạ tầng dịch vụ của họ.
- Tên miền bị tịch thu : Đã có lệnh của tòa án yêu cầu đóng cửa aitism[.]net .
- Tăng cường phòng thủ : Triển khai các biện pháp bảo vệ bổ sung để ngăn chặn các hành vi lạm dụng tương tự trong tương lai.
Tuy nhiên, Microsoft cũng phát hiện bằng chứng về việc nhóm này nhắm vào các nhà cung cấp dịch vụ AI khác, cho thấy xu hướng lạm dụng AI ngày càng lớn hơn trong bối cảnh an ninh mạng.
Công cụ AI: Con dao hai lưỡi
Trong khi các công cụ AI tạo sinh như ChatGPT và DALL-E mang lại lợi ích to lớn, việc tội phạm mạng sử dụng sai mục đích làm nổi bật nhu cầu cấp thiết về các giao thức bảo mật nâng cao:
- Bảo mật API : Các tổ chức phải đảm bảo bảo vệ mạnh mẽ cho khóa API để ngăn chặn truy cập trái phép.
- Giám sát mối đe dọa : Việc giám sát liên tục việc sử dụng dịch vụ AI có thể giúp phát hiện và ngăn chặn hành vi bất thường.
Vụ kiện của Microsoft làm sáng tỏ mối giao thoa nguy hiểm giữa AI và tội phạm mạng. Khi các tác nhân đe dọa ngày càng khai thác các dịch vụ AI để tạo ra nội dung có hại và phát triển phần mềm độc hại, các tổ chức phải ưu tiên bảo vệ cơ sở hạ tầng AI của mình.
Vụ việc này là lời nhắc nhở nghiêm khắc: trong khi AI đại diện cho tương lai của công nghệ, thì lỗ hổng của nó có thể bị lợi dụng, khiến các biện pháp an ninh mạng mạnh mẽ trở nên hoàn toàn cần thiết trong cuộc chiến chống lại các mối đe dọa kỹ thuật số.