Microsoft un OpenAI brīdina par nacionālo valstu hakeriem, kas izmanto AI destruktīviem kiberuzbrukumiem

Microsoft un OpenAI ir kopīgi izplatījuši brīdinājumu par pieaugošajiem draudiem, ko rada nacionālo valstu hakeri, kas izmanto mākslīgo intelektu (AI) un lielos valodu modeļus (LLM), lai uzlabotu savas kiberuzbrukumu iespējas. Ziņojumā norādīts, ka nacionālo valstu dalībnieki, kas ir saistīti ar Krieviju, Ziemeļkoreju, Irānu un Ķīnu, aktīvi eksperimentē ar mākslīgā intelekta tehnoloģijām ļaunprātīgām kiberdarbībām.
Sadarbība starp Microsoft un OpenAI atklāja, ka viņi ir kavējuši piecu ar valsti saistītu dalībnieku centienus, izjaucot viņu mēģinājumus izmantot AI pakalpojumus destruktīviem mērķiem, pārtraucot aktīvus un kontus. Pēc Microsoft domām, lielo valodu modeļu pievilcība slēpjas to dabiskās valodas atbalstā, padarot tos pievilcīgus apdraudējuma dalībniekiem, kas specializējas sociālajā inženierijā un maldinošā saziņā, kas pielāgota konkrētiem mērķiem.
Lai gan līdz šim nav novēroti nozīmīgi vai jauni uzbrukumi, kuros tiktu izmantoti LLM, ziņojumā uzsvērts, ka šie ar valsti saistītie dalībnieki pēta AI tehnoloģijas dažādos kiberuzbrukumu ķēdes posmos. Darbības ir dažādas, sākot no izlūkošanas un kodēšanas palīdzības līdz ļaunprātīgas programmatūras izstrādei.
Tiek ziņots, ka Krievijas nacionālā grupa Forest Blizzard (APT28) ir izmantojusi OpenAI pakalpojumus atklātā pirmkoda pētījumiem par satelītu sakaru protokoliem un radaru attēlveidošanas tehnoloģijām, kā arī skriptu uzdevumiem. Līdzīgi citi apdraudējuma dalībnieki, piemēram, Ziemeļkorejas Emerald Sleet (Kimusky), Irānas Crimson Sandstorm (Imperial Kitten) un Ķīnas Charcoal Typhoon (Aquatic Panda) un Salmon Typhoon (Maverick Panda) ir izmantojuši LLM tādiem uzdevumiem kā ekspertu identificēšana, pētījumu veikšana. , ģenerējot koda fragmentus un veidojot saturu pikšķerēšanas kampaņām.
Reaģējot uz pieaugošajiem draudiem, Microsoft veic proaktīvus pasākumus, formulējot principu kopumu, lai mazinātu riskus, kas saistīti ar AI rīku un API ļaunprātīgu izmantošanu, ko veic nacionālo valstu dalībnieki, uzlaboti pastāvīgie draudi (APT), uzlaboti pastāvīgie manipulatori (APM). , un kibernoziedznieku sindikāti. Principi ietver ļaunprātīgu dalībnieku identificēšanu un darbību pret tiem, paziņošanu citiem AI pakalpojumu sniedzējiem, sadarbību ar ieinteresētajām personām un pārredzamības nodrošināšanu šo draudu risināšanā.
Šī sadarbība starp Microsoft un OpenAI uzsver nepieciešamību kopīgiem spēkiem izveidot aizsargmargas un drošības mehānismus ap AI modeļiem , pastiprinot apņemšanos atbildīgi izmantot mākslīgo intelektu un nodrošināt drošību, ņemot vērā kiberdraudu attīstību.