Datoru drošība Ir atklāta mākslīgā intelekta radīta ļaunprogrammatūra,...

Ir atklāta mākslīgā intelekta radīta ļaunprogrammatūra, un tā varētu mainīt mūsu zināmo kiberdrošību

Attīstošajā kiberdrošības pasaulē mēs jau kādu laiku zinām, ka AI var izmantot, lai izveidotu ļaunprātīgu programmatūru. Taču nesenie notikumi liecina, ka mākslīgā intelekta radītās ļaunprogrammatūras nākotne var būt tuvāka, nekā mēs domājam. HP nesen pārtvēra e-pasta kampaņu, kurā tika nodrošināta standarta ļaunprātīgas programmatūras slodze, izmantojot mākslīgā intelekta radītu pilinātāju, kas iezīmē ievērojamas izmaiņas kibernoziedzības taktikā.

AI ļaunprātīgas programmatūras izstrādē atrasts jauns draudu veids

Atklājums notika 2024. gada jūnijā, kad HP drošības komanda saskārās ar pikšķerēšanas e-pastu, kurā bija attēlots tipisks rēķinu tematisks vilinājums. Pielikums bija šifrēts HTML fails — paņēmiens, kas pazīstams kā HTML kontrabanda, kas paredzēts, lai izvairītos no atklāšanas. Lai gan HTML kontrabanda nav nekas jauns, šai lietai bija interesants pavērsiens. Parasti kibernoziedznieki nosūtīja iepriekš šifrētu failu, taču šoreiz uzbrucēji iekļāva AES atšifrēšanas atslēgu tieši pielikuma JavaScript kodā. Šī dīvainība lika turpināt izmeklēšanu.

Pēc pielikuma atšifrēšanas HP pētnieki atklāja, ka tā šķiet parasta vietne, taču tajā bija paslēpts VBScript un bēdīgi slavenais AsyncRAT informācijas zaglis. VBScript darbojās kā pilinātājs, izvietojot infostealer lietderīgo slodzi, mainot sistēmas reģistrus un palaižot JavaScript kā ieplānotu uzdevumu. Pēc tam tika izpildīts PowerShell skripts, pabeidzot AsyncRAT izvietošanu.

Lai gan liela daļa šī procesa ir pazīstama, viena no galvenajām detaļām izcēlās: VBScript bija neparasti labi strukturēts un saturēja komentārus — tā ir neparasta prakse ļaunprātīgas programmatūras izstrādē. Vēl pārsteidzošāk ir tas, ka scenārijs tika uzrakstīts franču valodā. Šie faktori lika HP pētniekiem domāt, ka pilinātāju nav izstrādājis cilvēks, bet gan AI.

AI loma kibernoziedznieku barjeru samazināšanā

Lai pārbaudītu savu teoriju, HP komanda izmantoja savus AI rīkus, lai replicētu VBScript. Iegūtajam scenārijam bija pārsteidzoša līdzība ar uzbrukumā izmantoto. Lai gan tas nav galīgs pierādījums, pētnieki ir pārliecināti, ka AI bija iesaistīts ļaunprātīgas programmatūras izveidē. Taču noslēpums padziļinās: kāpēc ļaunprogrammatūra netika apslēpta? Kāpēc kodā tika atstāti komentāri?

Viens no iespējamiem skaidrojumiem ir tāds, ka uzbrucējs bija jaunpienācējs kibernoziedzības pasaulē. AI ģenerēta ļaunprogrammatūra var mazināt šķēršļus potenciālo hakeru ienākšanai, padarot tādus rīkus kā VBScript ģenerēšana pieejamus personām ar minimālām tehniskām prasmēm. Šajā gadījumā AsyncRAT, galvenā lietderīgā slodze, ir brīvi pieejama, un tādām metodēm kā HTML kontrabanda nav nepieciešamas plašas kodēšanas zināšanas.

Alekss Holands, HP galvenais draudu pētnieks, norādīja, ka šim uzbrukumam bija vajadzīgs ļoti maz resursu. Nozagto datu pārvaldībai nebija sarežģītas infrastruktūras, izņemot vienu komandu un kontroles (C&C) serveri. Ļaunprātīga programmatūra pati par sevi bija vienkārša, un tai trūka parastās neskaidrības, kas redzamas sarežģītākos uzbrukumos. Īsāk sakot, tas, iespējams, bija nepieredzējuša hakera darbs, kas izmantoja AI, lai veiktu smago celšanu.

AI radītās ļaunprogrammatūras nākotne

Šis atklājums rada vēl vienu satraucošu iespēju. Ja nepieredzējis uzbrucējs varētu atstāt norādes, kas norāda uz AI ģenerētiem skriptiem, ko pieredzējušāki pretinieki varētu sasniegt ar līdzīgiem rīkiem? Pieredzējuši kibernoziedznieki, visticamāk, likvidētu visas AI iesaistīšanās pēdas, padarot atklāšanu daudz grūtāku, ja ne neiespējamu.

"Mēs jau sen paredzējām, ka AI varētu izmantot ļaunprātīgas programmatūras ģenerēšanai," sacīja Holands. "Bet šis ir viens no pirmajiem reālajiem piemēriem, ko esam redzējuši. Tas ir vēl viens solis ceļā uz nākotni, kur mākslīgā intelekta radītā ļaunprogrammatūra kļūs progresīvāka un plašāk izplatīta.

Tā kā AI tehnoloģija turpina strauji attīstīties, pilnībā autonomas mākslīgā intelekta radītas ļaunprogrammatūras laika grafiks samazinās. Lai gan ir grūti paredzēt precīzu laika grafiku, tādi eksperti kā Holande uzskata, ka tas varētu notikt tuvāko pāris gadu laikā. AI draudi pie apvāršņa neparādās — tie jau ir šeit.

Gatavošanās nākamajam kiberdraudu vilnim

Tā kā robežas starp cilvēku un mākslīgā intelekta radīto ļaunprogrammatūru izplūst, kiberdrošības ainava kļūs vēl sarežģītāka. Lai gan šis incidents kalpo kā brīdinājums, tas ir arī ieskats nākotnē, kur AI spēlēs lielāku lomu kiberuzbrukumos. Drošības speciālistiem ir jāsaglabā modrība, nepārtraukti pielāgojot savu aizsardzību, lai cīnītos pret šiem jaunajiem draudiem.

Tā kā mākslīgā intelekta radītā ļaunprogrammatūra pirmo reizi parādās savvaļā, nav grūti iedomāties laiku, kad sarežģītāki, ar AI darbināmi uzbrukumi kļūst par normu. Kā draudīgi iesaka Holande, mēs, iespējams, jau sakām: “Viņi jau ir šeit! Tu esi nākamais! Tu esi nākamais!”

Notiek ielāde...