Computer Security Saugotis! Dėl dirbtinio intelekto sukčiai gali atrodyti...

Saugotis! Dėl dirbtinio intelekto sukčiai gali atrodyti teisėti ir paskleisti kenkėjiškų programų grėsmes, kaip ir išpirkos programas

Nacionalinis kibernetinio saugumo centras (NCSC), priklausantis JK šnipinėjimo agentūrai GCHQ, paskelbė įspėjimą dėl didėjančios kibernetinių atakų, kurias skatina dirbtinis intelektas (AI), grėsmės. Remiantis NCSC vertinimu, generatyvūs AI įrankiai, galintys sukurti įtikinamą tekstą, balsą ir vaizdus iš paprastų raginimų, apsunkina atskirti tikrus el. laiškus nuo tų, kuriuos siunčia sukčiai ir kenkėjiški veikėjai.

Agentūra prognozuoja, kad dirbtinis intelektas, ypač generuojantis AI ir dideli kalbiniai modeliai, valdantys pokalbių robotus, per ateinančius dvejus metus reikšmingai prisidės prie kibernetinių grėsmių augimo. Vienas iš pagrindinių rūpesčių yra sunkumas identifikuojant įvairių tipų atakas, pvz., sukčiavimą, sukčiavimą ir socialinę inžineriją.

Tikimasi, kad dėl AI technologijos sudėtingumo asmenims, nepaisant jų kibernetinio saugumo supratimo lygio, bus sudėtinga įvertinti el. laiškų ar slaptažodžio nustatymo iš naujo užklausų teisėtumą.

AI gali padėti padidinti išpirkos reikalaujančių programų taikinius

Tikimasi, kad išpirkos reikalaujančių programų atakų , kurios praėjusiais metais buvo nukreiptos į tokias institucijas kaip British Library ir Royal Mail, taip pat daugės. NCSC perspėja, kad dirbtinio intelekto sudėtingumas sumažina kliūtis kibernetiniams nusikaltėliams mėgėjams pasiekti sistemas, rinkti informaciją apie taikinius ir vykdyti atakas, kurios gali paralyžiuoti kompiuterines sistemas, išgauti jautrius duomenis ir reikalauti kriptovaliutų išpirkų.

Generatyvieji dirbtinio intelekto įrankiai jau naudojami kuriant netikrus „viliojimo dokumentus“, kurie atrodo įtikinami, nes išvengiama įprastų sukčiavimo atakų klaidų. Nors generatyvus AI gali nepadidinti išpirkos reikalaujančio kodo veiksmingumo, jis gali padėti identifikuoti ir pasirinkti taikinius. NCSC teigia, kad valstybės veikėjai greičiausiai yra labiausiai įgudę panaudoti AI pažangiose kibernetinėse operacijose.

Geras ir blogas AI

Reaguodama į didėjančią grėsmę, NCSC pabrėžia, kad dirbtinis intelektas taip pat gali būti gynybinė priemonė, leidžianti aptikti atakas ir kurti saugesnes sistemas. Ataskaita sutampa su JK vyriausybės pateiktomis naujomis gairėmis – „Kibernetinio valdymo praktikos kodeksu“, skatinančiomis įmones stiprinti pasirengimą atsigauti po išpirkos reikalaujančių atakų. Tačiau kai kurie kibernetinio saugumo ekspertai, įskaitant Ciaraną Martiną, buvusį NCSC vadovą, pasisako už ryžtingesnius veiksmus, siūlydami iš esmės iš naujo įvertinti požiūrį į išpirkos programinės įrangos grėsmes. Martinas pabrėžia, kad reikia griežtesnių taisyklių, susijusių su išpirkos mokėjimais, ir įspėja, kad nėra nerealių strategijų, tokių kaip kerštas prieš nusikaltėlius priešiškose šalyse.

Įkeliama...