Microsoft ja OpenAI varoittavat kansallisvaltion hakkereista, jotka käyttävät tekoälyä tuhoaviin kyberhyökkäuksiin

Microsoft ja OpenAI ovat yhdessä varoittaneet kasvavasta uhasta, että kansallisvaltion hakkerit käyttävät tekoälyä (AI) ja suuria kielimalleja (LLM) parantaakseen kyberhyökkäyskykyään. Raportin mukaan Venäjään, Pohjois-Koreaan, Iraniin ja Kiinaan liittyvät kansallisvaltioiden toimijat kokeilevat aktiivisesti tekoälytekniikoita haitallisten kybertoimintojen käyttöön.
Microsoftin ja OpenAI:n yhteistyö paljasti, että he olivat estäneet viiden valtion toimijan ponnistelut ja häirinneet heidän yrityksensä hyödyntää tekoälypalveluita tuhoaviin tarkoituksiin lopettamalla omaisuutta ja tilejä. Microsoftin mukaan suurten kielimallien vetovoima piilee niiden luonnollisessa kielen tuessa, mikä tekee niistä houkuttelevia sosiaaliseen suunnitteluun ja harhaanjohtavaan kommunikaatioon erikoistuneille uhkatoimijoille, jotka on räätälöity tiettyihin kohteisiin.
Vaikka toistaiseksi ei ole havaittu merkittäviä tai uusia LLM-hyökkäyksiä, raportti korostaa, että nämä valtioon liittyvät toimijat tutkivat tekoälytekniikoita kyberhyökkäysketjun eri vaiheissa. Toiminta vaihtelee tiedustelu- ja koodausavusta haittaohjelmien kehittämiseen.
Venäläisen kansallisvaltioryhmän Forest Blizzardin (APT28) kerrotaan käyttäneen OpenAI-palveluita satelliittiviestintäprotokollien ja tutkakuvaustekniikan avoimen lähdekoodin tutkimukseen sekä komentosarjatehtäviin. Vastaavasti muut uhkatoimijat, kuten Pohjois-Korean Emerald Sleet (Kimusky), Iranin Crimson Sandstorm (Imperial Kitten) ja Kiinan Charcoal Typhoon (Aquatic Panda) ja Salmon Typhoon (Maverick Panda) ovat käyttäneet LLM:itä esimerkiksi asiantuntijoiden tunnistamiseen ja tutkimuksen tekemiseen. , koodinpätkien luominen ja sisällön luominen tietojenkalastelukampanjoita varten.
Vastauksena kasvavaan uhkaan Microsoft ryhtyy ennakoiviin toimiin muotoilemalla periaatteita, jotka vähentävät riskejä, jotka liittyvät kansallisvaltioiden toimijoiden tekoälytyökalujen ja API-liittymien haitalliseen käyttöön, kehittyneisiin pysyviin uhkiin (APT) ja kehittyneisiin pysyviin manipulaattoreihin (APM). ja kyberrikollissyndikaatit. Periaatteisiin kuuluu haitallisten toimijoiden tunnistaminen ja niihin ryhtyminen, muille tekoälypalveluntarjoajille ilmoittaminen, yhteistyö sidosryhmien kanssa sekä avoimuuden varmistaminen näiden uhkien käsittelyssä.
Tämä Microsoftin ja OpenAI:n välinen yhteistyö korostaa tarvetta yhteisiin ponnisteluihin suojakaiteiden ja turvamekanismien luomiseksi tekoälymallien ympärille , mikä vahvistaa sitoutumista tekoälyn vastuulliseen käyttöön ja turvallisuuteen kehittyvien kyberuhkien edessä.