Microsoft, 악의적 목적으로 Azure AI를 악용하는 해커에 대해 법적 조치 취함

Microsoft의 사이버 범죄와의 지속적인 싸움은 Azure의 생성적 AI 서비스를 악용한 혐의를 받는 해킹 그룹을 표적으로 한 최신 소송으로 새로운 차원에 도달했습니다. 이 기술 거대 기업은 해외에 있는 위협 행위자들이 Azure AI의 안전 프로토콜을 우회 하여 유해한 콘텐츠와 맬웨어를 생성 할 수 있는 해킹 서비스 플랫폼을 만들었다고 밝혔습니다.
이 사례는 사이버 범죄자들이 악의적인 목적으로 AI 플랫폼을 활용함으로써 발생하는 위험이 점차 커지고 있음을 잘 보여주며, 이로 인해 전 세계 기업들이 심각한 사이버 보안 문제를 겪고 있습니다.
목차
해커가 Microsoft의 Azure AI를 악용한 방법
Microsoft의 디지털 범죄 부서(DCU)는 2024년 7월에 이 작전을 밝혀냈습니다. 이 그룹은 공개 소스에서 수집한 도난된 고객 자격 증명을 사용하여 Azure 시스템을 침해하고 OpenAI의 DALL-E와 같은 AI 모델을 조작했습니다.
주요 세부 정보는 다음과 같습니다.
- 자격 증명 도용 : 도난된 Azure API 키와 Entra ID 인증 데이터가 Azure OpenAI 서비스에 액세스하는 데 사용되었습니다.
- 유해한 콘텐츠 생성 : 이 그룹은 공격적인 이미지를 생성하고 AI 콘텐츠 필터를 우회하는 도구를 만들어서 액세스를 수익화했습니다.
- 해킹 서비스 : 이 그룹은 aitism[.]net 과 같은 웹사이트를 통해 도구에 대한 액세스 권한을 판매하고 다른 사이버 범죄자들과 사용 지침을 공유했습니다.
이런 활동으로 인해 수천 개의 유해한 이미지가 불법적으로 생성되었고, AI에 대한 추가적인 불법적 남용이 촉진되었으며, 가해자는 자신의 디지털 발자국을 지우려고 시도했습니다.
맬웨어 연결
생성적 AI 서비스의 남용은 맬웨어 개발에 더 광범위한 영향을 미칩니다. 위협 행위자는 잠재적으로 다음을 할 수 있습니다.
- 신뢰할 수 있는 플랫폼을 모방하도록 설계된 피싱 미끼나 가짜 웹사이트를 생성합니다.
이번 공격은 해킹 그룹이 어떻게 전략을 진화시켜 훔친 자격 증명과 고급 AI 기능을 결합하여 대규모 사이버 공격을 수행하고 있는지를 보여줍니다.
역방향 프록시 악용 및 LLMjacking
이 사건의 주목할 만한 측면 중 하나는 de3u 도구와 같은 역방향 프록시의 사용입니다. 이러한 프록시는 사용자 기기에서 Cloudflare 터널을 통해 Azure OpenAI 서비스로 통신을 리디렉션하여 합법적인 API 호출을 모방했습니다.
이 기술은 LLMjacking 공격에서 확인된 전술을 반영하는데, 여기서 도난된 클라우드 자격 증명을 사용하여 Anthropic, AWS Bedrock, Google Vertex AI와 같은 대규모 언어 모델(LLM) 서비스에 액세스합니다. 이러한 계획을 통해 위협 행위자는 클라우드 기반 AI 도구를 하이재킹할 수 있으며, 종종 다른 범죄자에게 판매하여 액세스를 수익화합니다.
Microsoft의 대책 및 더 광범위한 의미
이 작업에 대한 응답으로 Microsoft는 다음을 수행했습니다.
- 액세스 취소 : 그룹의 도난된 자격 증명을 비활성화하고 서비스 인프라를 폐쇄했습니다.
- 압수된 도메인 : aitism[.]net을 폐쇄하라는 법원 명령을 받았습니다.
- 강화된 방어 : 향후 유사한 남용을 방지하기 위해 추가적인 보호 장치를 구현했습니다.
그러나 Microsoft는 해당 그룹이 다른 AI 서비스 제공업체를 표적으로 삼았다는 증거도 발견했는데, 이는 사이버보안 환경에서 AI 남용이 더 큰 추세임을 시사합니다.
AI 도구: 양날의 검
ChatGPT 및 DALL-E와 같은 생성 AI 도구는 엄청난 이점을 제공하지만 사이버 범죄자의 오용은 향상된 보안 프로토콜에 대한 시급한 필요성을 강조합니다.
- API 보안 : 조직에서는 API 키에 대한 강력한 보호를 보장하여 무단 액세스를 방지해야 합니다.
- 위협 모니터링 : AI 서비스 사용을 지속적으로 모니터링하면 비정상적인 동작을 탐지하고 차단하는 데 도움이 될 수 있습니다.
Microsoft의 소송은 AI와 사이버범죄의 위험한 교차점을 밝혀냈습니다. 위협 행위자들이 유해한 콘텐츠를 생성하고 맬웨어를 개발하기 위해 AI 서비스를 점점 더 악용함에 따라, 조직은 AI 인프라를 보호하는 것을 우선시해야 합니다.
이 사례는 AI가 기술의 미래를 나타내지만, 그 취약성이 무기화될 수 있기 때문에 디지털 위협에 맞서 싸우려면 견고한 사이버보안 대책이 절대적으로 필요하다는 점을 냉정하게 일깨워줍니다.