Microsoft veic juridiskas darbības pret hakeriem, kas ļaunprātīgiem nolūkiem izmanto Azure AI

Microsoft pastāvīgā cīņa pret kibernoziegumiem ir sasniegusi jaunus augstumus ar savu jaunāko tiesas prāvu, kuras mērķis ir hakeru grupa, kas apsūdzēta Azure ģeneratīvo AI pakalpojumu izmantošanā. Tehnoloģiju gigants atklāja, ka ārvalstu draudu dalībnieki izveidoja uzlaušanas kā pakalpojuma platformu, lai apietu Azure AI drošības protokolus, ļaujot izveidot kaitīgu saturu un ļaunprātīgu programmatūru .
Šis gadījums uzsver pieaugošos riskus, ko rada kibernoziedznieki, kuri ļaunprātīgiem nolūkiem izmanto AI platformas, radot ievērojamas kiberdrošības problēmas organizācijām visā pasaulē.
Satura rādītājs
Kā hakeri izmantoja Microsoft Azure AI
Microsoft Digital Crimes Unit (DCU) atklāja operāciju 2024. gada jūlijā. Grupa izmantoja zagtus klientu akreditācijas datus, kas iegūti no publiskiem avotiem, lai uzlauztu Azure sistēmas un iejauktu AI modeļus, piemēram, OpenAI DALL-E.
Galvenā informācija ietver:
- Akreditācijas datu zādzība : nozagtas Azure API atslēgas un Entra ID autentifikācijas dati tika izmantoti, lai piekļūtu Azure OpenAI pakalpojumiem.
- Kaitīga satura izveide : grupa monetizēja savu piekļuvi, izveidojot rīkus aizskarošu attēlu ģenerēšanai un AI satura filtru apiešanai.
- Hacking-as-a-Service : grupa pārdeva piekļuvi saviem rīkiem, izmantojot tādas vietnes kā aitism[.]net , un kopīgoja lietošanas instrukcijas ar citiem kibernoziedzniekiem.
Šīs darbības izraisīja tūkstošiem kaitīgu attēlu nelikumīgu ģenerēšanu un turpmākas nelikumīgas mākslīgā intelekta ļaunprātīgas izmantošanas veicināšanu, kamēr vainīgie mēģināja izdzēst savas digitālās pēdas.
Ļaunprātīgas programmatūras savienojums
Ģeneratīvo AI pakalpojumu ļaunprātīgai izmantošanai ir plašāka ietekme uz ļaunprātīgas programmatūras izstrādi . Apdraudējuma dalībnieki potenciāli var:
- Izveidojiet pikšķerēšanas vilinājumus vai viltotas vietnes, kas paredzētas uzticamu platformu atdarināšanai.
Šī izmantošana parāda, kā hakeru grupas attīsta savu taktiku, apvienojot nozagtos akreditācijas datus un uzlabotas AI iespējas, lai veiktu vērienīgus kiberuzbrukumus.
Reversā starpniekservera izmantošana un LLM pieslēgšanās
Viens no ievērojamākajiem lietas aspektiem ir reverso starpniekserveru, piemēram, de3u rīka, izmantošana. Šie starpniekserveri novirzīja saziņu no lietotāju ierīcēm, izmantojot Cloudflare tuneli, uz Azure OpenAI pakalpojumiem, atdarinot likumīgus API zvanus.
Šis paņēmiens atspoguļo taktiku, kas identificēta LLMjacking uzbrukumos, kur zagti mākoņa akreditācijas dati tiek izmantoti, lai piekļūtu lieliem valodas modeļu (LLM) pakalpojumiem, piemēram, Anthropic, AWS Bedrock un Google Vertex AI. Šādas shēmas ļauj draudu dalībniekiem nolaupīt uz mākoņiem balstītus AI rīkus, bieži vien gūstot peļņu no piekļuves, pārdodot to citiem noziedzniekiem.
Microsoft pretpasākumi un plašākas sekas
Reaģējot uz šo darbību, Microsoft:
- Atsaukta piekļuve : atspējoti grupas nozagtie akreditācijas dati un slēgta pakalpojumu infrastruktūra.
- Konfiscēti domēni : iegūts tiesas izpildraksts, lai slēgtu aitism[.]net .
- Pastiprināta aizsardzība : ieviesti papildu aizsardzības pasākumi, lai novērstu līdzīgus pārkāpumus nākotnē.
Tomēr Microsoft atklāja arī pierādījumus, ka grupa ir vērsta pret citiem AI pakalpojumu sniedzējiem, kas liecina par lielāku AI ļaunprātīgas izmantošanas tendenci kiberdrošības vidē.
AI rīki: abpusēji griezīgs zobens
Lai gan tādi ģeneratīvie AI rīki kā ChatGPT un DALL-E piedāvā milzīgas priekšrocības, to ļaunprātīga izmantošana, ko veic kibernoziedznieki, izceļ steidzamu nepieciešamību pēc uzlabotiem drošības protokoliem.
- API drošība : organizācijām ir jānodrošina spēcīga API atslēgu aizsardzība, lai novērstu nesankcionētu piekļuvi.
- Draudu uzraudzība : nepārtraukta AI pakalpojuma lietojuma uzraudzība var palīdzēt atklāt un bloķēt anomālu uzvedību.
Microsoft tiesas prāva atklāj AI un kibernoziedzības bīstamo krustpunktu. Tā kā apdraudējuma dalībnieki arvien vairāk izmanto AI pakalpojumus, lai radītu kaitīgu saturu un izstrādātu ļaunprātīgu programmatūru, organizācijām par prioritāti ir jānosaka savas AI infrastruktūras aizsardzība.
Šis gadījums kalpo kā spilgts atgādinājums: lai gan AI ir tehnoloģiju nākotne, tās ievainojamības var tikt izmantotas ar ieročiem, padarot stingrus kiberdrošības pasākumus par absolūtu nepieciešamību cīņā pret digitālajiem draudiem.