Kompiuterių apsauga Buvo aptikta dirbtinio intelekto sukurta kenkėjiška...

Buvo aptikta dirbtinio intelekto sukurta kenkėjiška programa ir ji gali pakeisti kibernetinį saugumą, kaip mes jį žinome

Besivystančiame kibernetinio saugumo pasaulyje jau kurį laiką žinojome, kad dirbtinis intelektas gali būti panaudotas kuriant kenkėjišką programinę įrangą. Tačiau naujausi įvykiai parodė, kad dirbtinio intelekto sukurtų kenkėjiškų programų ateitis gali būti arčiau nei mes manome. Neseniai HP sulaikė el. pašto kampaniją, kurios metu per AI sukurtą lašintuvą buvo pateikta standartinė kenkėjiškų programų apkrova, o tai žymi reikšmingą kibernetinių nusikaltimų taktikos pokytį.

Kuriant AI kenkėjiškas programas aptikta naujos rūšies grėsmės

Atradimas įvyko 2024 m. birželio mėn., kai HP saugos komanda aptiko sukčiavimo el. laišką, kuriame buvo tipiškas sąskaitų faktūrų tema. Priedas buvo užšifruotas HTML failas – technika, žinoma kaip HTML kontrabanda, skirta išvengti aptikimo. Nors HTML kontrabanda nėra jokia naujiena, ši byla turėjo įdomių posūkių. Paprastai kibernetiniai nusikaltėliai siųsdavo iš anksto užšifruotą failą, tačiau šį kartą užpuolikai įtraukė AES iššifravimo raktą tiesiai į priedo JavaScript kodą. Ši keistenybė paskatino toliau tirti.

Iššifravę priedą, HP tyrėjai išsiaiškino, kad tai buvo įprasta svetainė, tačiau joje slepiasi VBScript ir liūdnai pagarsėjęs AsyncRAT infostealer. VBScript veikė kaip lašintuvas, dislokuodamas infostealer naudingą apkrovą, modifikuodamas sistemos registrus ir vykdydamas „JavaScript“ kaip suplanuotą užduotį. Tada buvo vykdomas PowerShell scenarijus, užbaigiant AsyncRAT diegimą.

Nors didžioji šio proceso dalis yra žinoma, išsiskyrė viena pagrindinė detalė: VBScript buvo neįprastai gerai struktūrizuotas ir jame buvo komentarų – tai neįprasta kenkėjiškų programų kūrimo praktika. Dar labiau stebina tai, kad scenarijus buvo parašytas prancūzų kalba. Šie veiksniai paskatino HP mokslininkus manyti, kad lašintuvą sukūrė ne žmogus, o sukūrė dirbtinis intelektas.

AI vaidmuo mažinant barjerą kibernetiniams nusikaltėliams

Norėdami patikrinti savo teoriją, HP komanda naudojo savo AI įrankius, kad atkartotų VBScript. Gautas scenarijus buvo labai panašus į tą, kuris buvo naudojamas puolime. Nors tai nėra galutinis įrodymas, mokslininkai yra įsitikinę, kad AI dalyvavo kuriant kenkėjišką programą. Tačiau paslaptis gilėja: kodėl kenkėjiška programa nebuvo užgožta? Kodėl kode buvo palikti komentarai?

Vienas iš galimų paaiškinimų – užpuolikas buvo naujokas kibernetinių nusikaltimų pasaulyje. Dirbtinio intelekto sukurta kenkėjiška programa gali sumažinti būsimų įsilaužėlių patekimo kliūtis, nes tokie įrankiai kaip VBScript generavimas yra prieinami asmenims, turintiems minimalių techninių įgūdžių. Šiuo atveju AsyncRAT, pagrindinė naudingoji apkrova, yra laisvai prieinama, o tokie metodai kaip HTML kontrabanda nereikalauja didelių kodavimo žinių.

Alexas Hollandas, pagrindinis HP grėsmių tyrinėtojas, pažymėjo, kad šiai atakai reikėjo labai nedaug išteklių. Nebuvo jokios sudėtingos infrastruktūros, išskyrus vieną komandų ir valdymo (C&C) serverį, skirtą pavogtiems duomenims valdyti. Pati kenkėjiška programa buvo pagrindinė ir trūko įprasto užmaskavimo, matomo sudėtingesnėse atakose. Trumpai tariant, tai galėjo būti nepatyrusio įsilaužėlio darbas, pasitelkęs dirbtinį intelektą sunkiems darbams atlikti.

AI sukurtos kenkėjiškos programos ateitis

Šis atradimas iškelia dar vieną nerimą keliančią galimybę. Jei nepatyręs užpuolikas galėtų palikti įkalčių, rodančių AI sukurtus scenarijus, ką patyrę priešininkai galėtų pasiekti naudodami panašius įrankius? Patyrę kibernetiniai nusikaltėliai greičiausiai pašalins visus AI dalyvavimo pėdsakus, todėl aptikti bus daug sunkiau, o gal net neįmanoma.

„Mes jau seniai tikėjomės, kad dirbtinis intelektas gali būti naudojamas kenkėjiškoms programoms generuoti“, – sakė Hollandas. „Tačiau tai vienas iš pirmųjų realaus pasaulio pavyzdžių, kurį matėme. Tai dar vienas žingsnis į ateitį, kai dirbtinio intelekto sukurta kenkėjiška programa taps pažangesnė ir plačiai paplitusi.

Kadangi dirbtinio intelekto technologija ir toliau sparčiai tobulėja, visiškai autonominių AI generuojamų kenkėjiškų programų laikas mažėja. Nors sunku nuspėti tikslų laiką, tokie ekspertai kaip Olandija mano, kad tai gali įvykti per ateinančius porą metų. AI grėsmė horizonte nekyla – ji jau čia.

Pasiruošimas kitai kibernetinių grėsmių bangai

Kadangi ribos tarp žmonių ir dirbtinio intelekto sukurtų kenkėjiškų programų susilieja, kibernetinio saugumo aplinka taps dar sudėtingesnė. Nors šis incidentas yra įspėjimas, tai taip pat žvilgsnis į ateitį, kur AI vaidins didesnį vaidmenį kibernetinėse atakose. Saugumo specialistai turi išlikti budrūs, nuolat pritaikydami savo gynybą, kad atremtų šias kylančias grėsmes.

Pirmą kartą laukinėje gamtoje pasirodžius dirbtinio intelekto sugeneruotai kenkėjiškajai programai, sunku įsivaizduoti laiką, kai sudėtingesnės dirbtinio intelekto atakos taps norma. Kaip grėsmingai siūlo Olandas, mes jau galime pasakyti: „Jie jau čia! Tu kitas! Tu kitas!"

Įkeliama...