Yapay Zeka Destekli Kötü Amaçlı Yazılım, 10.000 Varyant Oluşturarak Algılama Sistemlerini Boğma Tehdidi Altında

Siber güvenlik araştırmacıları, kötü amaçlı yazılım geliştirmeyi hızlandırmak için büyük dil modellerinin (LLM) potansiyel olarak kötüye kullanılması konusunda alarm veriyor. Palo Alto Networks' Unit 42 tarafından yapılan yeni bir analiz, LLM'lerin sıfırdan kötü amaçlı yazılım oluşturmada yetenekli olmasalar da, mevcut kötü amaçlı kodları büyük ölçekte yeniden yazabileceğini ve gizleyebileceğini ve vakaların %88'ine kadarında tespit edilemeyen varyantlar yaratabileceğini ortaya koyuyor.
Bu durum, tehdit aktörlerinin, tespit sistemlerini atlatmak, makine öğrenimi modellerini bozmak ve sürekli genişleyen bir kötü amaçlı yazılım cephaneliği dağıtmak için üretken yapay zekayı nasıl kullanabilecekleri konusunda kritik endişeleri gündeme getiriyor.
İçindekiler
Yapay Zeka Destekli Kötü Amaçlı Yazılım Oluşturma Mekaniği
'Birim 42'ye göre, suçlular LLM'leri kötü amaçlı JavaScript kodunda dönüşümler yapmaya yönlendirebilir ve bu da tespit sistemlerinin yeniden yazılmış betikleri işaretlemesini zorlaştırır . Daha az ikna edici çıktılar üreten geleneksel karartma araçlarının aksine, LLM odaklı yeniden yazmalar daha doğal ve tespit edilmesi daha zor görünür.
Temel dönüşüm teknikleri şunlardır:
- Değişken yeniden adlandırma
- Dize bölme
- Çöp kodun eklenmesi
- Boşluk kaldırma
- Kodun tamamının yeniden uygulanması
Her yineleme, orijinal kötü amaçlı işlevselliği korurken tespit edilme şansını önemli ölçüde azaltan yeni bir kötü amaçlı yazılım çeşidi oluşturur.
Unit 42, mevcut kötü amaçlı yazılım örneklerinden 10.000 JavaScript varyantı oluşturmak için LLM'leri kullanarak bu yaklaşımı gösterdi. Bu varyantlar, PhishingJS ve Suçlu Bulunana Kadar Masum (IUPG) gibi yaygın olarak kullanılan modeller de dahil olmak üzere kötü amaçlı yazılım sınıflandırıcılarını başarıyla kandırdı. Çoğu durumda, VirusTotal platformu bile yeniden yazılan betikleri kötü amaçlı olarak tespit edemedi.
Yapay Zeka Karartmasının Tehlikeli Sınırları
Obfuscator.io gibi daha kolay tespit edilebilen ve parmak izi çıkarılabilen desenler üreten eski araçların aksine, LLM tabanlı yeniden yazmalar doğası gereği daha karmaşıktır. Meşru koda daha yakın görünürler ve bu da makine öğrenimi (ML) modelleri ve antivirüs araçlarının bunları tanımlamasını zorlaştırır.
Bu yöntemin etkisi çok derindir:
- Kötü amaçlı yazılım sınıflandırıcıları, kötü amaçlı komut dosyalarını zararsız olarak etiketlemek üzere kandırılır.
- ML modelleri, kötü amaçlı yazılım türlerinin sürekli evrimine ayak uydurmakta zorlanarak performans düşüşü yaşıyor.
- Saldırganların sürekli olarak yeni, tespit edilemeyen kötü amaçlı yazılımlar üretmesi nedeniyle tespit sistemleri modası geçmiş hale gelme riskiyle karşı karşıyadır.
Daha Geniş Siber Suçlar İçin LLM'leri Kullanma
Bu eğilim yalnızca kötü amaçlı yazılım geliştirmeyle sınırlı değil. Kötü niyetli aktörler, kimlik avı kampanyalarını otomatikleştirmek ve belirli kurbanlara yönelik ikna edici sosyal mühendislik saldırıları hazırlamak için üretken yapay zeka kullanan WormGPT gibi sahte araçlardan yararlanıyor.
LLM sağlayıcıları, OpenAI'nin Ekim 2024'te 20 aldatıcı işlemi engellemesi gibi kötüye kullanımı sınırlamak için bariyerler uygularken, tehdit aktörleri sürekli olarak bu kısıtlamaları aşmanın yollarını buluyor.
Gümüş Astar: Ateşe Ateşle Karşı Koymak
Risklere rağmen, kötü amaçlı yazılımları gizlemek için kullanılan aynı LLM odaklı teknikler, savunmacılara da yardımcı olabilir. Unit 42, kötü amaçlı yazılım tespit modellerinin sağlamlığını artıran eğitim verileri üretmek için bu AI yöntemlerinin kullanılmasını öneriyor. Sınıflandırıcılara daha fazla gizlenmiş kod örneği vererek, araştırmacılar potansiyel olarak en gelişmiş varyantları bile tespit etme yeteneklerini güçlendirebilirler.
Ortaya Çıkan Yapay Zeka Güvenlik Açıkları: TPUXtract Saldırısı
LLM destekli kötü amaçlı yazılımların yükselişi, manşetlere çıkan tek AI ile ilgili tehdit değil. North Carolina State Üniversitesi'nden araştırmacılar, Google'ın Edge Tensor Processing Units'inden (TPU'lar) AI model mimarilerini çalabilen TPUXtract adlı bir yan kanal saldırısını açıkladılar.
Sinir ağı çıkarımları sırasında yayılan elektromanyetik sinyalleri yakalayarak saldırganlar, katman türleri, düğüm numaraları, filtre boyutları ve etkinleştirme işlevleri gibi ayrıntıları %99,91 doğrulukla çıkarabilir. Bu saldırı, cihaza fiziksel erişim ve pahalı ekipman gerektirse de, fikri mülkiyet için ciddi bir risk oluşturur ve takip eden siber saldırıları kolaylaştırabilir.
Bunun Siber Güvenlik Açısından Anlamı Nedir?
Üretken AI'nın hızlı evrimi siber güvenlik için iki ucu keskin bir kılıçtır . Yenilik için yeni kapılar açarken, siber suçlular için de benzeri görülmemiş araçlar sağlar.
- Kuruluşlar, yapay zeka destekli karartma tekniklerine uyum sağlayabilen gelişmiş tespit sistemlerine yatırım yaparak proaktif davranmalıdır .
- Politika yapıcılar, yapay zekanın etik kullanımına ilişkin net kurallar koymalı ve kötüye kullanımı önlemek için daha sıkı kontroller uygulamalıdır.
- Güvenlik araştırmacıları, gelişen tehditlere karşı koyabilecek dayanıklı sistemler geliştirerek rakiplerini geride bırakmak için yapay zekadan yararlanmalıdır .
Yapay Zeka Kötü Amaçlı Yazılımların Geleceği
LLM'lerin 10.000 kötü amaçlı yazılım çeşidi oluşturabilme ve vakaların %88'inde tespitten kaçabilme becerisi, siber tehditlerin giderek karmaşıklaştığının çarpıcı bir hatırlatıcısıdır. Teknoloji geliştikçe savunmalarımız da gelişmelidir. İşletmeler, hükümetler ve siber güvenlik uzmanları, kötü niyetli aktörlerin önünde kalmak ve dijital dünyayı yapay zeka destekli saldırılardan korumak için yenilikçi stratejileri benimsemelidir.