Computer Security Microsoft i OpenAI ostrzegają przed hakerami z państw...

Microsoft i OpenAI ostrzegają przed hakerami z państw narodowych wykorzystującymi sztuczną inteligencję do destrukcyjnych ataków cybernetycznych

Microsoft i OpenAI wspólnie wydały ostrzeżenie o rosnącym zagrożeniu ze strony hakerów na poziomie państw narodowych, którzy wykorzystują sztuczną inteligencję (AI) i duże modele językowe (LLM) w celu zwiększenia swoich możliwości w zakresie cyberataków. W raporcie wskazano, że podmioty z państw narodowych powiązane z Rosją, Koreą Północną, Iranem i Chinami aktywnie eksperymentują z technologiami sztucznej inteligencji do szkodliwych działań cybernetycznych.

Współpraca między Microsoftem a OpenAI ujawniła, że udaremniły one wysiłki pięciu podmiotów powiązanych z państwem, zakłócając ich próby wykorzystania usług sztucznej inteligencji do destrukcyjnych celów poprzez likwidację aktywów i kont. Według Microsoftu atrakcyjność dużych modeli językowych polega na obsłudze języka naturalnego, co czyni je atrakcyjnymi dla podmiotów zagrażających specjalizujących się w inżynierii społecznej i zwodniczej komunikacji dostosowanej do konkretnych celów.

Chociaż dotychczas nie zaobserwowano żadnych znaczących ani nowych ataków z wykorzystaniem LLM, w raporcie podkreślono, że podmioty powiązane z państwem badają technologie sztucznej inteligencji na różnych etapach łańcucha cyberataków. Działania obejmują rozpoznanie i pomoc w kodowaniu, a także tworzenie złośliwego oprogramowania.

Według doniesień rosyjska grupa państw narodowych Forest Blizzard (APT28) korzystała z usług OpenAI do badań open source nad protokołami komunikacji satelitarnej i technologią obrazowania radarowego, a także do zadań związanych z tworzeniem skryptów. Podobnie inne podmioty zagrażające, takie jak północnokoreański szmaragdowy deszcz ze śniegiem (Kimusky), irańska karmazynowa burza piaskowa (Imperial Kitten) oraz chiński tajfun Charcoal (Panda wodna) i łososiowy tajfun (Maverick Panda) wykorzystywały LLM do zadań takich jak identyfikacja ekspertów, prowadzenie badań , generowanie fragmentów kodu i tworzenie treści do kampanii phishingowych.

W odpowiedzi na rosnące zagrożenie Microsoft podejmuje proaktywne działania, formułując zestaw zasad mających na celu ograniczenie ryzyka związanego ze złośliwym wykorzystaniem narzędzi sztucznej inteligencji i interfejsów API przez podmioty z państw narodowych, zaawansowanymi trwałymi zagrożeniami (APT) i zaawansowanymi trwałymi manipulatorami (APM). i syndykaty cyberprzestępcze. Zasady obejmują identyfikację i podejmowanie działań przeciwko złośliwym podmiotom, powiadamianie innych dostawców usług AI, współpracę z zainteresowanymi stronami oraz zapewnianie przejrzystości w radzeniu sobie z tymi zagrożeniami.

Ta współpraca między Microsoft i OpenAI podkreśla potrzebę wspólnych wysiłków w celu ustanowienia barier i mechanizmów bezpieczeństwa wokół modeli sztucznej inteligencji , wzmacniając zaangażowanie w odpowiedzialne wykorzystanie sztucznej inteligencji i bezpieczeństwo w obliczu ewoluujących zagrożeń cybernetycznych.

Ładowanie...