Microsoft og OpenAI advarer mod nationalstatshackere, der udnytter AI til destruktive cyberangreb

Microsoft og OpenAI har i fællesskab udsendt en advarsel om den voksende trussel fra nationalstatshackere, der anvender kunstig intelligens (AI) og store sprogmodeller (LLM'er) til at forbedre deres cyberangrebskapaciteter. Rapporten identificerer nationalstatsaktører knyttet til Rusland, Nordkorea, Iran og Kina, som aktivt eksperimenterer med AI-teknologier til ondsindede cyberaktiviteter.
Samarbejdet mellem Microsoft og OpenAI afslørede, at de havde forpurret indsats fra fem statstilknyttede aktører og forstyrret deres forsøg på at udnytte AI-tjenester til destruktive formål ved at opsige aktiver og konti. Ifølge Microsoft ligger store sprogmodellers tiltrækningskraft i deres naturlige sprogunderstøttelse, hvilket gør dem attraktive for trusselsaktører med speciale i social engineering og vildledende kommunikation skræddersyet til specifikke mål.
Selvom der hidtil ikke er observeret nogen væsentlige eller nye angreb, der bruger LLM'er, fremhæver rapporten, at disse statstilknyttede aktører udforsker AI-teknologier på tværs af forskellige stadier af cyberangrebskæden. Aktiviteterne spænder fra rekognoscering og kodningsassistance til malwareudvikling.
Den russiske nationalstatsgruppe Forest Blizzard (APT28) rapporteres at have brugt OpenAI-tjenester til open source-forskning i satellitkommunikationsprotokoller og radarbilledteknologi samt til scriptingopgaver. Tilsvarende har andre trusselsaktører såsom Nordkoreas Emerald Sleet (Kimusky), Irans Crimson Sandstorm (Imperial Kitten) og Kinas Charcoal Typhoon (Aquatic Panda) og Salmon Typhoon (Maverick Panda) brugt LLM'er til opgaver såsom at identificere eksperter, udføre forskning , generering af kodestykker og oprettelse af indhold til phishing-kampagner.
Som reaktion på den voksende trussel tager Microsoft proaktive foranstaltninger ved at formulere et sæt principper for at mindske risici forbundet med nationalstatsaktørers ondsindede brug af AI-værktøjer og API'er, avancerede vedvarende trusler (APT'er), avancerede vedvarende manipulatorer (APM'er) , og cyberkriminelle syndikater. Principperne omfatter identifikation og handling mod ondsindede aktører, underretning af andre AI-tjenesteudbydere, samarbejde med interessenter og sikring af gennemsigtighed i håndteringen af disse trusler.
Dette samarbejde mellem Microsoft og OpenAI understreger behovet for en kollektiv indsats for at etablere autoværn og sikkerhedsmekanismer omkring AI-modeller , hvilket forstærker forpligtelsen til ansvarlig AI-brug og -sikkerhed i lyset af cybertrusler under udvikling.