Microsoft pravno ukrepa proti hekerjem, ki izkoriščajo umetno inteligenco Azure za zlonamerne namene

Microsoftov nenehni boj proti kibernetskemu kriminalu je z najnovejšo tožbo proti hekerski skupini, obtoženi izkoriščanja generativnih storitev umetne inteligence Azure, dosegel nove višine. Tehnološki velikan je razkril, da so akterji groženj s sedežem v tujini ustvarili platformo za vdiranje kot storitev, da bi zaobšli varnostne protokole Azure AI in omogočili ustvarjanje škodljive vsebine in zlonamerne programske opreme .
Ta primer poudarja naraščajoča tveganja, ki jih predstavljajo kibernetski kriminalci, ki uporabljajo platforme umetne inteligence za zlonamerne namene, kar predstavlja velike izzive kibernetske varnosti za organizacije po vsem svetu.
Kazalo
Kako so hekerji izkoristili Microsoftov AI Azure
Microsoftova enota za digitalne zločine (DCU) je operacijo odkrila julija 2024. Skupina je uporabila ukradene poverilnice strank, pridobljene iz javnih virov, za vdor v sisteme Azure in poseganje v modele umetne inteligence, kot je DALL-E OpenAI.
Ključne podrobnosti vključujejo:
- Kraja poverilnic : za dostop do storitev Azure OpenAI so bili uporabljeni ukradeni ključi API Azure in podatki za preverjanje pristnosti Entra ID.
- Ustvarjanje škodljive vsebine : Skupina je monetizirala svoj dostop z ustvarjanjem orodij za ustvarjanje žaljivih slik in obhod filtrov vsebine AI.
- Hekanje kot storitev : Skupina je prodajala dostop do svojih orodij prek spletnih mest, kot je aitism[.]net , in delila navodila za uporabo z drugimi kiberkriminalci.
Te dejavnosti so privedle do nezakonitega ustvarjanja na tisoče škodljivih slik in omogočanja nadaljnje nedovoljene zlorabe umetne inteligence, medtem ko so storilci poskušali izbrisati svoje digitalne sledi.
Povezava z zlonamerno programsko opremo
Zloraba generativnih storitev umetne inteligence ima širše posledice za razvoj zlonamerne programske opreme . Akterji groženj lahko potencialno:
- Ustvarite vabe za lažno predstavljanje ali lažna spletna mesta, zasnovana za posnemanje zaupanja vrednih platform.
To izkoriščanje poudarja, kako hekerske skupine razvijajo svoje taktike, združujejo ukradene poverilnice in napredne zmogljivosti AI za izvajanje kibernetskih napadov v velikem obsegu.
Izkoriščanje povratnega posrednika in LLMjacking
Eden pomembnih vidikov primera je uporaba obratnih posrednikov, kot je orodje de3u. Ti posredniki so preusmerjali komunikacijo iz uporabniških naprav prek tunela Cloudflare v storitve Azure OpenAI in posnemali legitimne klice API-ja.
Ta tehnika odraža taktiko, ugotovljeno pri napadih LLMjacking, kjer se ukradene poverilnice v oblaku uporabljajo za dostop do storitev velikega jezikovnega modela (LLM), kot so Anthropic, AWS Bedrock in Google Vertex AI. Takšne sheme akterjem groženj omogočajo, da ugrabijo orodja umetne inteligence v oblaku, pri čemer dostop pogosto monetizirajo s prodajo drugim kriminalcem.
Microsoftovi protiukrepi in širše posledice
Kot odgovor na to operacijo Microsoft:
- Preklican dostop : Onemogočene so bile ukradene poverilnice skupine in zaprta njihova storitvena infrastruktura.
- Zasežene domene : pridobili sodni nalog za zaprtje aitism[.]net .
- Okrepljena obramba : uvedeni dodatni zaščitni ukrepi za preprečevanje podobnih zlorab v prihodnosti.
Vendar pa je Microsoft odkril tudi dokaze, da je skupina ciljala na druge ponudnike storitev umetne inteligence, kar kaže na večji trend zlorabe umetne inteligence na področju kibernetske varnosti.
Orodja AI: Dvorezen meč
Medtem ko generativna orodja umetne inteligence, kot sta ChatGPT in DALL-E, ponujajo ogromne prednosti, njihova zloraba s strani kibernetskih kriminalcev poudarja nujno potrebo po izboljšanih varnostnih protokolih:
- Varnost API : Organizacije morajo zagotoviti zanesljivo zaščito za ključe API, da preprečijo nepooblaščen dostop.
- Spremljanje groženj : Nenehno spremljanje uporabe storitve AI lahko pomaga odkriti in blokirati nenormalno vedenje.
Microsoftova tožba osvetljuje nevarno stičišče AI in kibernetske kriminalitete. Ker akterji groženj vedno bolj izkoriščajo storitve umetne inteligence za ustvarjanje škodljive vsebine in razvoj zlonamerne programske opreme, morajo organizacije dati prednost zaščiti svoje infrastrukture umetne inteligence.
Primer je oster opomin: medtem ko umetna inteligenca predstavlja prihodnost tehnologije, je mogoče njene ranljivosti uporabiti kot orožje, zaradi česar so robustni ukrepi kibernetske varnosti absolutna nuja v boju proti digitalnim grožnjam.