AI 기반 맬웨어, 10,000개 변종 생성으로 탐지 시스템 압도 위협

사이버 보안 연구자들은 맬웨어 개발을 가속화하기 위해 대규모 언어 모델(LLM)을 오용할 가능성에 대해 경고하고 있습니다. Palo Alto Networks의 Unit 42가 실시한 새로운 분석에 따르면 LLM은 처음부터 맬웨어를 만드는 데 능숙하지 않지만 기존 악성 코드를 대규모로 다시 작성하고 난독화하여 최대 88%의 경우 감지를 피하는 변종을 만들 수 있습니다.
이는 위협 행위자가 생성적 AI를 악용해 탐지 시스템을 우회하고, 머신 러닝 모델을 약화시키고, 끊임없이 확장되는 악성 코드 무기고를 배포할 수 있는 방법에 대한 심각한 우려를 제기합니다.
목차
AI 강화 맬웨어 생성의 메커니즘
'Unit 42에 따르면, 범죄자들은 LLM이 악성 JavaScript 코드에서 변환을 수행하도록 유도할 수 있으며, 이는 탐지 시스템이 다시 작성된 스크립트를 플래그 지정하는 것을 더 어렵게 만듭니다. 덜 설득력 있는 출력을 생성하는 기존의 난독화 도구와 달리, LLM 기반 다시 쓰기는 더 자연스럽고 탐지하기 어렵습니다.
주요 변환 기술은 다음과 같습니다.
- 변수 이름 변경
- 현 분할
- 정크 코드 삽입
- 공백 제거
- 완전한 코드 재구현
각각의 반복을 통해 원래의 악성 기능을 유지하면서도 탐지될 가능성을 크게 낮추는 새로운 맬웨어 변종이 생성됩니다.
Unit 42는 LLM을 사용하여 기존 맬웨어 샘플에서 10,000개의 JavaScript 변형을 생성하여 이 접근 방식을 시연했습니다. 이러한 변형은 PhishingJS 및 Innocent Until Proven Guilty(IUPG)와 같은 널리 사용되는 모델을 포함하여 맬웨어 분류기를 성공적으로 속였습니다. 많은 경우 VirusTotal 플랫폼조차도 다시 작성된 스크립트를 악성으로 감지하지 못했습니다.
AI 난독화의 위험한 측면
obfuscator.io와 같은 이전 도구와 달리, 더 쉽게 감지하고 지문을 찍을 수 있는 패턴을 생성하는 LLM 기반 재작성은 본질적으로 더 정교합니다. 합법적인 코드에 더 가깝게 나타나기 때문에 머신 러닝(ML) 모델과 바이러스 백신 도구가 식별하기 어렵습니다.
이 방법의 영향은 엄청납니다.
- 맬웨어 분류기는 악성 스크립트를 양성으로 분류하도록 속습니다.
- ML 모델은 악성 코드 변종의 끊임없는 진화에 대처하기 위해 노력하면서 성능 저하를 겪고 있습니다.
- 적대 세력이 끊임없이 새로운 탐지 불가능한 맬웨어를 생성함에 따라 탐지 시스템이 쓸모없게 될 위험이 있습니다.
더 광범위한 사이버범죄를 위한 LLM 활용
이러한 추세는 맬웨어 개발에만 국한되지 않습니다. 악의적인 행위자는 WormGPT와 같은 불량 도구를 활용하고 있습니다. WormGPT는 생성적 AI를 사용하여 피싱 캠페인을 자동화하고 특정 피해자에게 맞춤화된 설득력 있는 사회 공학 공격을 만들어냅니다.
LLM 제공업체는 남용을 제한하기 위한 보호 장치를 구현했지만(예: OpenAI가 2024년 10월에 20개의 사기성 작업을 차단한 것) 위협 행위자들은 이러한 제한을 우회할 방법을 끊임없이 찾고 있습니다.
실버 라이닝: 불을 불로 맞서다
위험에도 불구하고, 맬웨어를 난독화하는 데 사용되는 동일한 LLM 기반 기술은 방어자에게도 도움이 될 수 있습니다. Unit 42는 이러한 AI 방법을 사용하여 맬웨어 탐지 모델의 견고성을 개선하는 훈련 데이터를 생성할 것을 제안합니다. 분류기에 난독화된 코드의 예를 더 많이 제공함으로써 연구자들은 가장 진보된 변종도 탐지하는 능력을 잠재적으로 강화할 수 있습니다.
새로운 AI 취약점: TPUXtract 공격
LLM 기반 맬웨어의 증가는 헤드라인을 장식하는 유일한 AI 관련 위협이 아닙니다. 노스캐롤라이나 주립 대학의 연구원들은 TPUXtract라는 사이드 채널 공격을 공개했는데, 이는 Google의 Edge Tensor Processing Units(TPU)에서 AI 모델 아키텍처를 훔칠 수 있습니다.
신경망 추론 중에 방출되는 전자기 신호를 포착함으로써 공격자는 99.91% 정확도로 계층 유형, 노드 번호, 필터 크기 및 활성화 함수와 같은 세부 정보를 추출할 수 있습니다. 이 공격에는 장치에 대한 물리적 접근과 값비싼 장비가 필요하지만 지적 재산에 심각한 위험을 초래하고 후속 사이버 공격을 용이하게 할 수 있습니다.
이것이 사이버 보안에 미치는 영향
생성적 AI의 급속한 진화는 사이버 보안에 양날의 검입니다 . 혁신을 위한 새로운 문을 여는 반면, 사이버 범죄자에게는 전례 없는 도구를 제공하기도 합니다.
- 조직에서는 AI 기반 난독화 기술에 적응할 수 있는 고급 탐지 시스템에 투자하여 적극적으로 행동해야 합니다 .
- 정책 입안자는 AI의 윤리적 사용에 대한 명확한 지침을 수립하는 동시에 오용을 방지하기 위해 더 엄격한 통제를 시행해야 합니다 .
- 보안 연구원은 AI를 활용하여 적보다 앞서 나가야 하며 , 진화하는 위협에 대응할 수 있는 회복성 있는 시스템을 개발해야 합니다.
AI 맬웨어의 미래
LLM이 10,000개의 맬웨어 변형을 생성하고 88%의 사례에서 탐지를 회피할 수 있는 능력은 사이버 위협의 정교함이 점점 더 커지고 있다는 것을 극명하게 일깨워줍니다. 기술이 발전함에 따라 방어도 발전해야 합니다. 기업, 정부 및 사이버 보안 전문가는 악의적인 행위자보다 앞서 나가고 AI 기반 공격으로부터 디지털 세계를 보호하기 위해 혁신적인 전략을 채택해야 합니다.