Computer Security Microsoft i OpenAI upozoravaju na hakere iz nacionalnih...

Microsoft i OpenAI upozoravaju na hakere iz nacionalnih država koji koriste AI za destruktivne cyber napade

Microsoft i OpenAI zajedno su objavili upozorenje o rastućoj prijetnji hakera iz nacionalnih država koji koriste umjetnu inteligenciju (AI) i velike jezične modele (LLM) kako bi poboljšali svoje sposobnosti cyber napada. Izvješće identificira nacionalne državne aktere povezane s Rusijom, Sjevernom Korejom, Iranom i Kinom kao one koji aktivno eksperimentiraju s AI tehnologijama za zlonamjerne cyber aktivnosti.

Suradnja između Microsofta i OpenAI-ja otkrila je da su osujetili napore pet aktera povezanih s državom, prekinuvši njihove pokušaje da iskoriste usluge umjetne inteligencije u destruktivne svrhe gašenjem imovine i računa. Prema Microsoftu, privlačnost velikih jezičnih modela leži u njihovoj podršci za prirodni jezik, što ih čini privlačnim akterima prijetnji specijaliziranim za društveni inženjering i varljivu komunikaciju skrojenu prema određenim ciljevima.

Iako do sada nisu primijećeni nikakvi značajni ili novi napadi koji koriste LLM-ove, izvješće naglašava da ovi akteri povezani s državom istražuju AI tehnologije u različitim fazama lanca cyber napada. Aktivnosti se kreću od izviđanja i pomoći kodiranja do razvoja zlonamjernog softvera.

Ruska nacionalna državna grupa Forest Blizzard (APT28) navodno je koristila usluge OpenAI za istraživanje otvorenog koda o satelitskim komunikacijskim protokolima i tehnologiji radarskog snimanja, kao i za zadatke skriptiranja. Slično tome, drugi akteri prijetnje kao što su sjevernokorejski Emerald Sleet (Kimusky), iranski Crimson Sand Storm (Imperial Kitten) i kineski Charcoal Typhoon (Aquatic Panda) i Salmon Typhoon (Maverick Panda) koristili su LLM-ove za zadatke kao što su identificiranje stručnjaka, provođenje istraživanja , generiranje isječaka koda i stvaranje sadržaja za phishing kampanje.

Kao odgovor na rastuću prijetnju, Microsoft poduzima proaktivne mjere formuliranjem niza načela za ublažavanje rizika povezanih sa zlonamjernom upotrebom AI alata i API-ja od strane državnih aktera, naprednih trajnih prijetnji (APT-ova), naprednih trajnih manipulatora (APM-ova) , i sindikati kibernetičkog kriminala. Načela uključuju prepoznavanje i poduzimanje radnji protiv zlonamjernih aktera, obavještavanje drugih pružatelja usluga umjetne inteligencije, suradnju s dionicima i osiguravanje transparentnosti u suočavanju s tim prijetnjama.

Ova suradnja između Microsofta i OpenAI-ja naglašava potrebu za zajedničkim naporom za uspostavu zaštitnih ograda i sigurnosnih mehanizama oko modela umjetne inteligencije , jačajući predanost odgovornoj upotrebi umjetne inteligencije i sigurnosti u suočavanju s evoluirajućim cyber prijetnjama.

Učitavam...