Computer Security Microsoft a OpenAI varují před hackery z národních států...

Microsoft a OpenAI varují před hackery z národních států využívajících umělou inteligenci k destruktivním kybernetickým útokům

Microsoft a OpenAI společně vydaly varování před rostoucí hrozbou hackerů z národních států, kteří využívají umělou inteligenci (AI) a velké jazykové modely (LLM) ke zlepšení svých schopností kybernetických útoků. Zpráva identifikuje aktéry národního státu spojené s Ruskem, Severní Koreou, Íránem a Čínou, které aktivně experimentují s technologiemi AI pro škodlivé kybernetické aktivity.

Spolupráce mezi Microsoftem a OpenAI odhalila, že zmařili úsilí pěti státních subjektů a narušili jejich pokusy využít služby AI pro destruktivní účely ukončením aktiv a účtů. Podle Microsoftu spočívá přitažlivost velkých jazykových modelů v jejich přirozené jazykové podpoře, díky čemuž jsou atraktivní pro aktéry hrozeb specializující se na sociální inženýrství a klamavou komunikaci šitou na míru konkrétním cílům.

Přestože dosud nebyly pozorovány žádné významné nebo nové útoky využívající LLM, zpráva zdůrazňuje, že tito státní aktéři zkoumají technologie umělé inteligence v různých fázích řetězce kybernetických útoků. Činnosti sahají od průzkumu a pomoci s kódováním až po vývoj malwaru.

Ruská národní státní skupina Forest Blizzard (APT28) údajně používala služby OpenAI pro open source výzkum protokolů satelitní komunikace a radarové zobrazovací technologie, stejně jako pro skriptovací úlohy. Podobně další aktéři hrozeb, jako je severokorejská smaragdová plískanice (Kimusky), íránská karmínová písečná bouře (imperiální kotě) a čínský uhelný tajfun (vodní panda) a lososový tajfun (Maverick Panda), využívají LLM pro úkoly, jako je identifikace odborníků, provádění výzkumu. , generování úryvků kódu a vytváření obsahu pro phishingové kampaně.

V reakci na rostoucí hrozbu společnost Microsoft přijímá proaktivní opatření formulováním souboru principů ke zmírnění rizik spojených se zlým používáním nástrojů a rozhraní API ze strany státních aktérů, pokročilými perzistentními hrozbami (APT), pokročilými perzistentními manipulátory (APM). a kyberzločinecké syndikáty. Principy zahrnují identifikaci a přijímání opatření proti zlovolným aktérům, informování ostatních poskytovatelů služeb AI, spolupráci se zúčastněnými stranami a zajištění transparentnosti při řešení těchto hrozeb.

Tato spolupráce mezi Microsoftem a OpenAI podtrhuje potřebu společného úsilí o vytvoření ochranných zábradlí a bezpečnostních mechanismů kolem modelů umělé inteligence , čímž se posílí závazek odpovědného používání a zabezpečení umělé inteligence tváří v tvář vyvíjejícím se kybernetickým hrozbám.

Načítání...