Computer Security 조심하세요! 인공 지능은 사기를 합법적인 것처럼 보이게 만들고 랜섬웨어와 같은 악성 코드 위협을...

조심하세요! 인공 지능은 사기를 합법적인 것처럼 보이게 만들고 랜섬웨어와 같은 악성 코드 위협을 확산시킬 수 있습니다.

영국 GCHQ 정보기관 산하 국가사이버보안센터(NCSC)가 인공지능(AI)을 활용한 사이버 공격 위협이 증가하고 있다고 경고했다. NCSC의 평가에 따르면 간단한 프롬프트에서 설득력 있는 텍스트, 음성 및 이미지를 생성할 수 있는 생성 AI 도구로 인해 진짜 이메일과 사기꾼 및 악의적인 행위자가 보낸 이메일을 구별하는 것이 어려워지고 있습니다.

기관은 AI, 특히 생성 AI와 챗봇을 지원하는 대규모 언어 모델이 향후 2년 동안 사이버 위협의 증가에 크게 기여할 것으로 예측합니다. 가장 큰 우려 사항 중 하나는 피싱, 스푸핑, 사회 공학 등 다양한 유형의 공격을 식별하기 어렵다는 것입니다.

AI 기술의 정교함은 사이버 보안에 대한 이해 수준에 관계없이 개인이 이메일이나 비밀번호 재설정 요청의 적법성을 평가하는 것을 어렵게 만들 것으로 예상됩니다.

AI는 랜섬웨어 표적 증가에 도움이 될 수 있습니다

지난해 대영도서관(British Library), 로열 메일(Royal Mail) 등 기관을 표적으로 삼은 랜섬웨어 공격 도 증가할 것으로 예상된다. NCSC는 AI의 정교함으로 인해 아마추어 사이버 범죄자가 시스템에 접근하고, 대상에 대한 정보를 수집하고, 컴퓨터 시스템을 마비시키고, 민감한 데이터를 추출하고, 암호화폐 몸값을 요구할 수 있는 공격을 실행할 수 있는 장벽을 낮춘다고 경고합니다.

생성적 AI 도구는 피싱 공격에서 발견되는 일반적인 오류를 피함으로써 설득력 있게 보이는 가짜 "유인 문서"를 만드는 데 이미 사용되고 있습니다. 랜섬웨어 코드의 효율성은 생성 AI로 향상되지 않을 수 있지만 대상을 식별하고 선택하는 데 도움이 될 수 있습니다. NCSC는 국가 행위자가 고급 사이버 작전에서 AI를 활용하는 데 가장 능숙할 가능성이 높다고 제안합니다.

AI의 좋은 점과 나쁜 점

NCSC는 증가하는 위협에 대응하여 AI가 방어 도구 역할을 하여 공격을 탐지하고 보다 안전한 시스템을 설계할 수 있다고 강조합니다. 이 보고서는 기업이 랜섬웨어 공격으로부터 복구할 준비를 강화하도록 장려하는 영국 정부의 새로운 지침인 "사이버 거버넌스 실천 강령"을 도입한 것과 일치합니다. 그러나 전 NCSC 국장인 Ciaran Martin을 포함한 일부 사이버 보안 전문가들은 랜섬웨어 위협에 대한 접근 방식을 근본적으로 재평가할 것을 제안하면서 더 강력한 조치를 취해야 한다고 주장합니다. 마틴은 몸값 지불과 관련하여 더 엄격한 규칙의 필요성을 강조하고 적대적인 국가의 범죄자에 대한 보복과 같은 비현실적인 전략에 대해 주의해야 한다고 강조합니다.

로드 중...