Microsoft in OpenAI svarita pred hekerji iz nacionalnih držav, ki uporabljajo umetno inteligenco za uničujoče kibernetske napade

Microsoft in OpenAI sta skupaj izdala opozorilo o naraščajoči grožnji hekerjev iz nacionalnih držav, ki uporabljajo umetno inteligenco (AI) in velike jezikovne modele (LLM) za izboljšanje svojih zmogljivosti za kibernetske napade. Poročilo opredeljuje akterje nacionalnih držav, povezane z Rusijo, Severno Korejo, Iranom in Kitajsko, kot tiste, ki aktivno eksperimentirajo s tehnologijami umetne inteligence za zlonamerne kibernetske dejavnosti.
Sodelovanje med Microsoftom in OpenAI je razkrilo, da sta preprečila prizadevanja petih akterjev, povezanih z državo, in prekinila njihove poskuse, da bi storitve umetne inteligence izkoristili za destruktivne namene z ukinitvijo sredstev in računov. Po mnenju Microsofta je privlačnost velikih jezikovnih modelov v njihovi podpori naravnega jezika, zaradi česar so privlačni za akterje groženj, specializirane za socialni inženiring in goljufivo komunikacijo, prilagojeno specifičnim ciljem.
Čeprav doslej niso opazili nobenih pomembnih ali novih napadov z uporabo LLM, poročilo poudarja, da ti akterji, povezani z državo, raziskujejo tehnologije umetne inteligence na različnih stopnjah verige kibernetskih napadov. Dejavnosti segajo od izvidovanja in pomoči pri kodiranju do razvoja zlonamerne programske opreme.
Poroča se, da je ruska nacionalna skupina Forest Blizzard (APT28) uporabljala storitve OpenAI za odprtokodne raziskave satelitskih komunikacijskih protokolov in tehnologije radarskega slikanja ter za naloge skriptiranja. Podobno so drugi akterji grožnje, kot so severnokorejski Emerald Sleet (Kimusky), iranski Crimson Sandstorm (Imperial Kitten) in kitajski Charcoal Typhoon (Aquatic Panda) in Salmon Typhoon (Maverick Panda), uporabljali LLM za naloge, kot so prepoznavanje strokovnjakov, izvajanje raziskav , ustvarjanje izrezkov kode in ustvarjanje vsebine za lažno predstavljanje.
V odgovor na naraščajočo grožnjo Microsoft sprejema proaktivne ukrepe z oblikovanjem nabora načel za ublažitev tveganj, povezanih z zlonamerno uporabo orodij in API-jev umetne inteligence s strani državnih akterjev, naprednih trajnih groženj (APT), naprednih trajnih manipulatorjev (APM). , in združbe kibernetskega kriminala. Načela vključujejo prepoznavanje zlonamernih akterjev in ukrepanje proti njim, obveščanje drugih ponudnikov storitev umetne inteligence, sodelovanje z zainteresiranimi stranmi in zagotavljanje preglednosti pri obravnavanju teh groženj.
To sodelovanje med Microsoftom in OpenAI poudarja potrebo po skupnem prizadevanju za vzpostavitev zaščitnih ograj in varnostnih mehanizmov okoli modelov umetne inteligence , kar krepi zavezanost odgovorni uporabi in varnosti umetne inteligence v soočenju z razvijajočimi se kibernetskimi grožnjami.