Keselamatan Komputer Perisian Hasad Dikuasakan AI Mengancam Mengatasi Sistem...

Perisian Hasad Dikuasakan AI Mengancam Mengatasi Sistem Pengesanan dengan Penciptaan 10,000 Varian

Penyelidik keselamatan siber membunyikan penggera mengenai kemungkinan penyalahgunaan model bahasa besar (LLM) untuk meningkatkan pembangunan perisian hasad. Analisis baharu oleh Unit 42 Palo Alto Networks mendedahkan bahawa LLM, walaupun tidak mahir mencipta perisian hasad dari awal, boleh menulis semula dan mengelirukan kod hasad sedia ada secara besar-besaran, mewujudkan varian yang mengelak pengesanan sehingga 88% kes.

Ini menimbulkan kebimbangan kritikal tentang cara pelaku ancaman boleh mengeksploitasi AI generatif untuk mengetepikan sistem pengesanan, merendahkan model pembelajaran mesin dan menggunakan senjata perisian hasad yang sentiasa berkembang .

Mekanik Penciptaan Perisian Hasad Dipertingkatkan AI

'Menurut Unit 42, penjenayah boleh menggesa LLM untuk melakukan transformasi pada kod JavaScript yang berniat jahat, menjadikannya lebih sukar untuk sistem pengesanan membenderakan skrip yang ditulis semula . Tidak seperti alat pengeliruan tradisional yang menghasilkan output yang kurang meyakinkan, penulisan semula dipacu LLM kelihatan lebih semula jadi dan lebih sukar untuk dikesan.

Teknik transformasi utama termasuk:

  • Penamaan semula pembolehubah
  • Pemisahan rentetan
  • Sisipan kod sampah
  • Pembuangan ruang kosong
  • Pelaksanaan semula kod lengkap

Setiap lelaran menjana varian perisian hasad baharu yang mengekalkan fungsi hasad asal sambil mengurangkan peluangnya untuk dikesan dengan ketara.

Unit 42 menunjukkan pendekatan ini dengan menggunakan LLM untuk mencipta 10,000 varian JavaScript daripada sampel perisian hasad sedia ada. Varian ini berjaya memperdaya pengelas perisian hasad, termasuk model yang digunakan secara meluas seperti PhishingJS dan Innocent Until Proven Guilty (IUPG). Dalam kebanyakan kes, malah platform VirusTotal gagal mengesan skrip yang ditulis semula sebagai berniat jahat.

Tepi Berbahaya AI Obfuscation

Tidak seperti alat lama seperti obfuscator.io, yang menghasilkan corak yang lebih mudah dikesan dan dicap jari, penulisan semula berasaskan LLM sememangnya lebih canggih. Ia kelihatan lebih dekat dengan kod yang sah, menjadikannya lebih sukar untuk model pembelajaran mesin (ML) dan alat antivirus untuk dikenal pasti.

Kesan kaedah ini adalah mendalam:

  • Pengelas perisian hasad ditipu untuk melabelkan skrip berniat jahat sebagai jinak.
  • Model ML mengalami kemerosotan prestasi, bergelut untuk bersaing dengan evolusi berterusan varian perisian hasad.
  • Sistem pengesanan berisiko menjadi usang apabila musuh terus menjana perisian hasad yang segar dan tidak dapat dikesan.

Mengeksploitasi LLM untuk Jenayah Siber yang Lebih Luas

Trend ini tidak terhad kepada pembangunan perisian hasad. Pelakon berniat jahat memanfaatkan alat penyangak seperti WormGPT, yang menggunakan AI generatif untuk mengautomasikan kempen pancingan data dan mencipta serangan kejuruteraan sosial yang meyakinkan yang disesuaikan dengan mangsa tertentu.

Walaupun penyedia LLM telah melaksanakan pagar untuk mengehadkan penyalahgunaan, seperti OpenAI menyekat 20 operasi menipu baru-baru ini pada Oktober 2024, pelaku ancaman sentiasa mencari jalan mengatasi sekatan ini.

Lapisan Perak: Melawan Api dengan Api

Walaupun terdapat risiko, teknik yang dipacu LLM yang sama digunakan untuk mengelirukan perisian hasad juga boleh membantu pembela. Unit 42 mencadangkan menggunakan kaedah AI ini untuk menjana data latihan yang meningkatkan keteguhan model pengesanan perisian hasad. Dengan memberi pengelas lebih banyak contoh kod yang dikelirukan, penyelidik berpotensi meningkatkan keupayaan mereka untuk mengesan walaupun varian yang paling maju.

Kerentanan AI yang Muncul: Serangan TPUXtract

Peningkatan perisian hasad berkuasa LLM bukanlah satu-satunya ancaman berkaitan AI yang menjadi tajuk berita. Penyelidik dari North Carolina State University telah melancarkan serangan saluran sisi, digelar TPUXtract, yang mampu mencuri seni bina model AI daripada Unit Pemprosesan Tensor Edge (TPU) Google.

Dengan menangkap isyarat elektromagnet yang dipancarkan semasa inferens rangkaian saraf, penyerang boleh mengekstrak butiran seperti jenis lapisan, nombor nod, saiz penapis dan fungsi pengaktifan dengan ketepatan 99.91%. Walaupun serangan ini memerlukan akses fizikal kepada peranti dan peralatan yang mahal, ia menimbulkan risiko serius kepada harta intelek dan boleh memudahkan serangan siber susulan.

Maksud Ini untuk Keselamatan Siber

Evolusi pesat AI generatif ialah pedang bermata dua untuk keselamatan siber . Walaupun ia membuka pintu baharu untuk inovasi, ia juga menyediakan alat yang belum pernah berlaku sebelum ini untuk penjenayah siber.

  • Organisasi mesti bertindak secara proaktif , melabur dalam sistem pengesanan lanjutan yang mampu menyesuaikan diri dengan teknik pengeliruan dipacu AI.
  • Pembuat dasar harus menetapkan garis panduan yang jelas untuk penggunaan beretika AI sambil menguatkuasakan kawalan yang lebih ketat untuk mencegah penyalahgunaan.
  • Penyelidik keselamatan mesti memanfaatkan AI untuk mengatasi musuh , membangunkan sistem berdaya tahan yang boleh menentang ancaman yang berkembang.

Masa Depan Perisian Hasad AI

Keupayaan LLM untuk mencipta 10,000 varian perisian hasad dan mengelak pengesanan dalam 88% kes adalah peringatan yang nyata tentang kecanggihan ancaman siber yang semakin meningkat. Apabila teknologi berkembang, pertahanan kita juga perlu. Perniagaan, kerajaan dan profesional keselamatan siber mesti menerima strategi inovatif untuk terus mendahului aktor berniat jahat dan melindungi dunia digital daripada serangan dikuasakan AI.

Memuatkan...