Computer Security „Microsoft“ ir „OpenAI“ įspėja, kad nacionalinės...

„Microsoft“ ir „OpenAI“ įspėja, kad nacionalinės valstybės įsilaužėliai naudoja dirbtinį intelektą destruktyviems kibernetiniams išpuoliams

„Microsoft“ ir „OpenAI“ kartu paskelbė įspėjimą dėl didėjančios grėsmės, kad nacionalinių valstybių įsilaužėliai naudoja dirbtinį intelektą (AI) ir didelių kalbų modelius (LLM), kad pagerintų savo kibernetinių atakų galimybes. Ataskaitoje nurodoma, kad su Rusija, Šiaurės Korėja, Iranu ir Kinija susiję nacionalinių valstybių veikėjai aktyviai eksperimentuoja su dirbtinio intelekto technologijomis siekdami kenkėjiškos kibernetinės veiklos.

„Microsoft“ ir „OpenAI“ bendradarbiavimas atskleidė, kad jie sužlugdė penkių su valstybe susijusių veikėjų pastangas ir sutrukdė jų bandymus panaudoti AI paslaugas žalingiems tikslams nutraukiant turtą ir paskyras. „Microsoft“ teigimu, didelių kalbų modelių patrauklumas slypi natūralios kalbos palaikymu, todėl jie patrauklūs grėsmės veikėjams, besispecializuojantiems socialinės inžinerijos ir apgaulingo bendravimo, pritaikyto konkretiems tikslams, srityje.

Nors iki šiol nebuvo pastebėta jokių reikšmingų ar naujų atakų, kuriose būtų naudojami LLM, ataskaitoje pabrėžiama, kad šie su valstybe susiję veikėjai tiria dirbtinio intelekto technologijas įvairiuose kibernetinių atakų grandinės etapuose. Veikla – nuo žvalgybos ir kodavimo pagalbos iki kenkėjiškų programų kūrimo.

Pranešama, kad Rusijos nacionalinė grupė „Forest Blizzard“ (APT28) naudojo „OpenAI“ paslaugas atvirojo kodo tyrimams, susijusiems su palydovinio ryšio protokolais ir radaro vaizdo technologija, taip pat scenarijų kūrimo užduotims atlikti. Panašiai ir kiti grėsmės subjektai, tokie kaip Šiaurės Korėjos smaragdinė šlapdriba (Kimusky), Irano Crimson Sandstorm (Imperial Kitten) ir Kinijos anglių taifūnas (vandens panda) ir lašišų taifūnas (Maverick Panda), naudojo LLM tokioms užduotims kaip ekspertų identifikavimas, tyrimų atlikimas. , generuoti kodo fragmentus ir kurti turinį sukčiavimo kampanijoms.

Reaguodama į didėjančią grėsmę, „Microsoft“ imasi iniciatyvių priemonių, suformuluodama principų rinkinį, skirtą sumažinti riziką, susijusią su piktybiniu AI įrankių ir API naudojimu nacionalinių valstybių veikėjais, pažangiosiomis nuolatinėmis grėsmėmis (APT), pažangiais nuolatiniais manipuliatoriais (APM). , ir kibernetinių nusikaltėlių sindikatai. Principai apima kenkėjiškų veikėjų nustatymą ir veiksmų prieš juos veiksmus, kitų AI paslaugų teikėjų informavimą, bendradarbiavimą su suinteresuotosiomis šalimis ir skaidrumo užtikrinimą kovojant su šiomis grėsmėmis.

Šis „Microsoft“ ir „OpenAI“ bendradarbiavimas pabrėžia būtinybę dėti visas pastangas, kad būtų sukurti apsauginiai turėklai ir saugos mechanizmai aplink AI modelius , sustiprinant įsipareigojimą atsakingai naudoti dirbtinį intelektą ir saugą besivystančių kibernetinių grėsmių akivaizdoje.

Įkeliama...