Microsoft a OpenAI varujú pred hackermi z národných štátov, ktorí využívajú AI na ničivé kybernetické útoky

Microsoft a OpenAI spoločne vydali varovanie pred rastúcou hrozbou hackerov z národných štátov, ktorí využívajú umelú inteligenciu (AI) a veľké jazykové modely (LLM) na zlepšenie svojich schopností kybernetických útokov. Správa identifikuje aktérov z národných štátov spojených s Ruskom, Severnou Kóreou, Iránom a Čínou, ktorí aktívne experimentujú s technológiami AI pre škodlivé kybernetické aktivity.
Spolupráca medzi Microsoftom a OpenAI odhalila, že zmarili úsilie piatich aktérov pridružených k štátu a prerušili ich pokusy využiť služby AI na deštruktívne účely zrušením aktív a účtov. Podľa Microsoftu spočíva príťažlivosť veľkých jazykových modelov v ich prirodzenej jazykovej podpore, vďaka čomu sú atraktívne pre aktérov hrozieb špecializujúcich sa na sociálne inžinierstvo a klamlivú komunikáciu prispôsobenú konkrétnym cieľom.
Zatiaľ čo doteraz neboli pozorované žiadne významné alebo nové útoky využívajúce LLM, správa zdôrazňuje, že títo štátni aktéri skúmajú technológie AI v rôznych fázach reťazca kybernetických útokov. Činnosti siahajú od prieskumu a pomoci pri kódovaní až po vývoj škodlivého softvéru.
Ruská národná štátna skupina Forest Blizzard (APT28) údajne využívala služby OpenAI na open source výskum protokolov satelitnej komunikácie a technológie radarového snímania, ako aj na úlohy skriptovania. Podobne aj iní aktéri hrozieb, ako napríklad Severokórejská smaragdová plieska (Kimusky), iránska karmínová piesočná búrka (imperiálne mačiatko) a čínsky uhoľný tajfún (vodná panda) a lososový tajfún (Maverick Panda), využili LLM na úlohy, ako je identifikácia odborníkov, vykonávanie výskumu. , generovanie útržkov kódu a vytváranie obsahu pre phishingové kampane.
V reakcii na rastúcu hrozbu spoločnosť Microsoft prijíma proaktívne opatrenia formulovaním súboru zásad na zmiernenie rizík spojených so zlomyseľným používaním nástrojov AI a rozhraní API zo strany národných štátnych aktérov, pokročilých perzistentných hrozieb (APT), pokročilých perzistentných manipulátorov (APM). a kyberzločinecké syndikáty. Zásady zahŕňajú identifikáciu a prijímanie opatrení proti zlomyseľným aktérom, informovanie iných poskytovateľov služieb AI, spoluprácu so zainteresovanými stranami a zabezpečenie transparentnosti pri riešení týchto hrozieb.
Táto spolupráca medzi Microsoftom a OpenAI podčiarkuje potrebu spoločného úsilia na vytvorenie ochranných zábradlí a bezpečnostných mechanizmov okolo modelov AI , čím sa posilní záväzok k zodpovednému používaniu AI a bezpečnosti vzhľadom na vyvíjajúce sa kybernetické hrozby.