ความปลอดภัยทางคอมพิวเตอร์ Microsoft ดำเนินการทางกฎหมายกับแฮกเกอร์ที่ใช้ประโยชน์จาก...

Microsoft ดำเนินการทางกฎหมายกับแฮกเกอร์ที่ใช้ประโยชน์จาก Azure AI เพื่อจุดประสงค์ที่เป็นอันตราย

การต่อสู้อย่างต่อเนื่องของ Microsoft ในการต่อต้านอาชญากรรมทางไซเบอร์ได้ก้าวไปสู่จุดสูงสุดใหม่ด้วยการฟ้องร้องครั้งล่าสุดที่มุ่งเป้าไปที่กลุ่มแฮกเกอร์ที่ถูกกล่าวหาว่าใช้ประโยชน์จากบริการ AI เชิงสร้างสรรค์ของ Azure บริษัทเทคโนโลยียักษ์ใหญ่รายนี้เปิดเผยว่าผู้ก่อภัยคุกคามจากต่างประเทศได้สร้างแพลตฟอร์มการแฮ็กในรูปแบบบริการเพื่อข้ามโปรโตคอลความปลอดภัยของ Azure AI ซึ่งทำให้สามารถสร้างเนื้อหาที่เป็นอันตรายและมัลแวร์ได้

กรณีนี้เน้นย้ำถึงความเสี่ยงที่เพิ่มขึ้นที่เกิดจากผู้ก่ออาชญากรรมทางไซเบอร์ที่ใช้แพลตฟอร์ม AI เพื่อจุดประสงค์ที่เป็นอันตราย ก่อให้เกิดความท้าทายด้านความปลอดภัยทางไซเบอร์ที่สำคัญสำหรับองค์กรต่างๆ ทั่วโลก

แฮกเกอร์ใช้ประโยชน์จาก Azure AI ของ Microsoft ได้อย่างไร

หน่วยงานอาชญากรรมดิจิทัล (DCU) ของ Microsoft ได้เปิดโปงปฏิบัติการดังกล่าวในเดือนกรกฎาคม 2024 กลุ่มดังกล่าวได้ใช้ข้อมูลประจำตัวลูกค้าที่ขโมยมา รวบรวมมาจากแหล่งสาธารณะ เพื่อเจาะระบบ Azure และแทรกแซงโมเดล AI เช่น DALL-E ของ OpenAI

รายละเอียดที่สำคัญ ได้แก่:

  • การขโมยข้อมูลรับรอง : คีย์ Azure API และข้อมูลการตรวจสอบสิทธิ์ Entra ID ที่ถูกขโมยจะถูกนำมาใช้เพื่อเข้าถึงบริการ Azure OpenAI
  • การสร้างเนื้อหาที่เป็นอันตราย : กลุ่มสร้างรายได้จากการเข้าถึงโดยการสร้างเครื่องมือเพื่อสร้างภาพที่ไม่เหมาะสมและหลีกเลี่ยงตัวกรองเนื้อหา AI
  • การแฮ็กในรูปแบบบริการ : กลุ่มดังกล่าวขายสิทธิ์การเข้าถึงเครื่องมือของตนผ่านทางเว็บไซต์เช่น aitism[.]net และแบ่งปันคำแนะนำการใช้งานกับอาชญากรไซเบอร์รายอื่นๆ

กิจกรรมเหล่านี้ส่งผลให้เกิดการสร้างภาพที่เป็นอันตรายนับพันภาพโดยผิดกฎหมายและทำให้เกิดการละเมิด AI ที่ผิดกฎหมายมากขึ้น ในขณะที่ผู้กระทำความผิดพยายามลบรอยเท้าดิจิทัลของพวกเขา

การเชื่อมต่อมัลแวร์

การละเมิดบริการ AI เชิงสร้างสรรค์มี ผลกระทบในวงกว้างต่อการพัฒนาของมัลแวร์ ผู้ก่อภัยคุกคามอาจสามารถ:

  • สร้างเหยื่อล่อฟิชชิ่งหรือเว็บไซต์ปลอมที่ออกแบบมาเพื่อเลียนแบบแพลตฟอร์มที่น่าเชื่อถือ
  • ใช้เครื่องมือ AI เพื่อสร้างรหัสมัลแวร์โดยอัตโนมัติ ทำให้ซับซ้อนมากขึ้นและตรวจจับได้ยากยิ่งขึ้น
  • หลีกเลี่ยงตัวกรองด้านความปลอดภัยโดยใช้ประโยชน์จากเครื่องมือที่ออกแบบมาเพื่อการใช้งานที่ถูกต้องตามกฎหมาย เช่น การแปลภาษาและการสังเคราะห์ข้อมูล
  • การแสวงประโยชน์ครั้งนี้เน้นให้เห็นว่ากลุ่มแฮกเกอร์มีวิวัฒนาการกลวิธีอย่างไร โดยผสมผสานข้อมูลรับรองที่ขโมยมากับความสามารถของ AI ขั้นสูงเพื่อดำเนินการโจมตีทางไซเบอร์ในระดับขนาดใหญ่

    การใช้ประโยชน์จากพร็อกซีแบบย้อนกลับและ LLMjacking

    ประเด็นที่น่าสังเกตประการหนึ่งของกรณีนี้คือการใช้พร็อกซีแบบย้อนกลับ เช่น เครื่องมือ de3u พร็อกซีเหล่านี้เปลี่ยนเส้นทางการสื่อสารจากอุปกรณ์ของผู้ใช้ผ่านอุโมงค์ Cloudflare ไปยังบริการ Azure OpenAI โดยเลียนแบบการเรียกใช้ API ที่ถูกต้องตามกฎหมาย

    เทคนิคนี้สะท้อนถึงกลวิธีที่ระบุไว้ในการโจมตีแบบ LLMjacking ซึ่งข้อมูลรับรองบนคลาวด์ที่ขโมยมาจะถูกใช้เพื่อเข้าถึงบริการโมเดลภาษาขนาดใหญ่ (LLM) เช่น Anthropic, AWS Bedrock และ Google Vertex AI แผนการดังกล่าวช่วยให้ผู้ก่อภัยคุกคามสามารถแฮ็กเครื่องมือ AI ที่ใช้บนคลาวด์ได้ โดยมักจะหารายได้จากการเข้าถึงโดยขายให้กับอาชญากรรายอื่น

    มาตรการตอบโต้และผลกระทบที่กว้างขึ้นของ Microsoft

    เพื่อตอบสนองต่อการดำเนินการนี้ Microsoft:

    • การเพิกถอนการเข้าถึง : ปิดการใช้งานข้อมูลประจำตัวของกลุ่มที่ถูกขโมยและปิดโครงสร้างพื้นฐานการบริการของพวกเขา
    • โดเมนที่ถูกยึด : ได้รับคำสั่งศาลให้ปิด aitism[.]net
    • การป้องกันที่แข็งแกร่งขึ้น : ดำเนินการมาตรการการป้องกันเพิ่มเติมเพื่อป้องกันการละเมิดที่คล้ายกันในอนาคต

    อย่างไรก็ตาม Microsoft ยังได้ค้นพบหลักฐานของกลุ่มที่ตั้งเป้าไปที่ผู้ให้บริการ AI รายอื่น ซึ่งบ่งชี้ถึงแนวโน้มที่มากขึ้นของการใช้ AI ในทางที่ผิดในภูมิทัศน์ด้านความปลอดภัยทางไซเบอร์

    เครื่องมือ AI: ดาบสองคม

    แม้ว่าเครื่องมือ AI เชิงสร้างสรรค์ เช่น ChatGPT และ DALL-E จะมีประโยชน์มหาศาล แต่การใช้งานโดยมิชอบโดยผู้ก่ออาชญากรรมทางไซเบอร์ก็เน้นย้ำถึงความจำเป็นอย่างเร่งด่วนในการเพิ่มโปรโตคอลความปลอดภัย:

    1. ความปลอดภัยของ API : องค์กรต่างๆ จะต้องแน่ใจว่ามีการป้องกันคีย์ API ที่แข็งแกร่งเพื่อป้องกันการเข้าถึงโดยไม่ได้รับอนุญาต
    2. การตรวจสอบภัยคุกคาม : การตรวจสอบการใช้บริการ AI อย่างต่อเนื่องสามารถช่วยตรวจจับและบล็อกพฤติกรรมที่ผิดปกติได้
  • ความร่วมมือ : ผู้ให้บริการระบบคลาวด์ บริษัทด้านความปลอดภัยทางไซเบอร์ และหน่วยงานบังคับใช้กฎหมายจะต้องทำงานร่วมกันเพื่อยุติการดำเนินการดังกล่าว
  • คดีความของ Microsoft เผยให้เห็นถึงความเชื่อมโยงอันอันตรายระหว่าง AI และอาชญากรรมทางไซเบอร์ เนื่องจากผู้ก่อภัยคุกคามใช้ประโยชน์จากบริการ AI มากขึ้นเพื่อสร้างเนื้อหาที่เป็นอันตรายและพัฒนาซอฟต์แวร์ที่เป็นอันตราย องค์กรต่างๆ จึงต้องให้ความสำคัญกับการปกป้องโครงสร้างพื้นฐาน AI ของตนเป็นอันดับแรก

    กรณีนี้ถือเป็นการเตือนใจที่ชัดเจนว่า แม้ว่า AI จะเป็นตัวแทนของอนาคตของเทคโนโลยี แต่จุดอ่อนของ AI ก็สามารถใช้เป็นอาวุธได้ ทำให้มาตรการรักษาความปลอดภัยทางไซเบอร์ที่แข็งแกร่งกลายมาเป็นสิ่งจำเป็นอย่างยิ่งในการต่อสู้กับภัยคุกคามดิจิทัล

    กำลังโหลด...