Gumagawa ang Microsoft ng Legal na Aksyon Laban sa Mga Hacker na Nagsasamantala sa Azure AI para sa Mga Masasamang Layunin

Ang patuloy na pakikipaglaban ng Microsoft laban sa cybercrime ay umabot na sa mga bagong taas sa pinakabagong kaso nito na nagta-target sa isang grupo ng pag-hack na inakusahan ng pagsasamantala sa mga serbisyo ng generative AI ng Azure. Ibinunyag ng tech giant na ang mga aktor ng pagbabanta na nakabase sa ibang bansa ay lumikha ng isang platform ng pag-hack-as-a-service upang laktawan ang mga protocol sa kaligtasan ng Azure AI, na nagbibigay-daan sa paglikha ng mapaminsalang nilalaman at malware .
Binibigyang-diin ng kasong ito ang dumaraming mga panganib na dulot ng mga cybercriminal na gumagamit ng mga platform ng AI para sa mga malisyosong layunin, na naglalagay ng mga makabuluhang hamon sa cybersecurity para sa mga organisasyon sa buong mundo.
Talaan ng mga Nilalaman
Paano Pinagsamantalahan ng mga Hacker ang Azure AI ng Microsoft
Natuklasan ng Digital Crimes Unit (DCU) ng Microsoft ang operasyon noong Hulyo 2024. Gumamit ang grupo ng mga ninakaw na kredensyal ng customer, na kinuha mula sa mga pampublikong mapagkukunan, upang labagin ang mga Azure system at pakialaman ang mga modelo ng AI tulad ng DALL-E ng OpenAI.
Kabilang sa mga pangunahing detalye ang:
- Pagnanakaw ng Kredensyal : Ginamit ang mga Stolen Azure API key at Entra ID authentication data para ma-access ang mga serbisyo ng Azure OpenAI.
- Mapanganib na Paglikha ng Nilalaman : Pinagkakakitaan ng grupo ang kanilang pag-access sa pamamagitan ng paggawa ng mga tool upang makabuo ng mga nakakasakit na larawan at i-bypass ang mga filter ng nilalaman ng AI.
- Hacking-as-a-Service : Nagbenta ang grupo ng access sa kanilang mga tool sa pamamagitan ng mga website tulad ng aitism[.]net at nakabahaging mga tagubilin sa paggamit sa ibang mga cybercriminal.
Ang mga aktibidad na ito ay humantong sa labag sa batas na pagbuo ng libu-libong mapaminsalang mga larawan at ang pagpapadali ng higit pang ipinagbabawal na pag-abuso sa AI, habang tinangka ng mga salarin na burahin ang kanilang mga digital footprint.
Ang Koneksyon sa Malware
Ang pang-aabuso sa mga serbisyo ng generative AI ay may mas malawak na implikasyon para sa pagbuo ng malware . Ang mga aktor ng pagbabanta ay maaaring:
- Bumuo ng mga phishing lure o pekeng website na idinisenyo upang gayahin ang mga pinagkakatiwalaang platform.
Binibigyang-diin ng pagsasamantalang ito kung paano binabago ng mga grupo ng hacking ang kanilang mga taktika, pinagsasama ang mga nakaw na kredensyal at mga advanced na kakayahan ng AI upang magsagawa ng mga cyberattack sa laki.
Reverse Proxy Exploitation at LLMjacking
Ang isang kapansin-pansing aspeto ng kaso ay ang paggamit ng mga reverse proxy, tulad ng de3u tool. Ini-redirect ng mga proxy na ito ang mga komunikasyon mula sa mga device ng user sa pamamagitan ng isang Cloudflare tunnel patungo sa mga serbisyo ng Azure OpenAI, na ginagaya ang mga lehitimong API call.
Sinasalamin ng diskarteng ito ang mga taktika na natukoy sa mga pag-atake ng LLMjacking, kung saan ginagamit ang mga nakaw na kredensyal sa cloud para ma-access ang mga serbisyo ng large language model (LLM) tulad ng Anthropic, AWS Bedrock, at Google Vertex AI. Ang ganitong mga scheme ay nagbibigay-daan sa mga banta ng aktor na i-hijack ang cloud-based na mga tool ng AI, kadalasang pinagkakakitaan ang pag-access sa pamamagitan ng pagbebenta nito sa iba pang mga kriminal.
Mga Countermeasure at Mas Malapad na Implikasyon ng Microsoft
Bilang tugon sa operasyong ito, ang Microsoft:
- Binawi ang Access : Hindi pinagana ang mga ninakaw na kredensyal ng grupo at isinara ang kanilang imprastraktura ng serbisyo.
- Mga Nasamsam na Domain : Nakakuha ng utos ng hukuman na isara ang aitism[.]net .
- Pinalakas na Mga Depensa : Nagpatupad ng mga karagdagang pananggalang upang maiwasan ang mga katulad na pang-aabuso sa hinaharap.
Gayunpaman, natuklasan din ng Microsoft ang katibayan ng grupo na nagta-target sa iba pang mga tagapagbigay ng serbisyo ng AI, na nagmumungkahi ng mas malaking trend ng pag-abuso sa AI sa landscape ng cybersecurity.
AI Tools: Isang Tabak na May Dalawang Talim
Habang ang mga generative AI tool tulad ng ChatGPT at DALL-E ay nag-aalok ng napakalaking benepisyo, ang kanilang maling paggamit ng mga cybercriminal ay nagpapakita ng agarang pangangailangan para sa pinahusay na mga protocol ng seguridad:
- Seguridad ng API : Dapat tiyakin ng mga organisasyon ang matatag na proteksyon para sa mga API key upang maiwasan ang hindi awtorisadong pag-access.
- Pagsubaybay sa Banta : Ang patuloy na pagsubaybay sa paggamit ng serbisyo ng AI ay maaaring makatulong sa pagtukoy at pagharang ng maanomalyang gawi.
Ang kaso ng Microsoft ay nagbibigay liwanag sa mapanganib na intersection ng AI at cybercrime. Habang patuloy na sinasamantala ng mga banta ng aktor ang mga serbisyo ng AI para makabuo ng mapaminsalang content at bumuo ng malware, dapat unahin ng mga organisasyon ang pagprotekta sa kanilang imprastraktura ng AI.
Ang kaso ay nagsisilbing isang matinding paalala: habang kinakatawan ng AI ang kinabukasan ng teknolohiya, ang mga kahinaan nito ay maaaring maging sandata, na ginagawang isang ganap na pangangailangan ang matatag na cybersecurity sa paglaban sa mga digital na banta.