Bilgisayar Güvenliği Yapay Zeka Halüsinasyonları Yazılım Tedarik Zinciri İçin...

Yapay Zeka Halüsinasyonları Yazılım Tedarik Zinciri İçin Yeni Bir Tehdit Oluşturuyor

Kodlama için yapay zekaya güvenen geliştiriciler ve kuruluşlar için ürpertici yeni bir gelişmede, araştırmacılar kod üreten modellerde AI halüsinasyonları tarafından oluşturulan yeni bir tedarik zinciri tehdidini ortaya çıkardılar. Slopsquatting olarak adlandırılan bu yeni saldırı vektörü, kötü niyetli aktörlerin Büyük Dil Modelleri (LLM'ler) tarafından halüsinasyona uğrayan hayali paketlerden yararlanarak yazılım ekosistemlerine sızmasına izin verebilir.

Tehlike, LLM'lerin genellikle paketleri "halüsinasyona uğratması" gerçeğinde yatmaktadır; basitçe var olmayan yazılım bağımlılıklarına referanslar önermekte veya eklemektedir. San Antonio'daki Teksas Üniversitesi, Oklahoma Üniversitesi ve Virginia Tech tarafından ortaklaşa yürütülen araştırmada, test edilen 16 popüler LLM'nin hiçbirinin bu olguya karşı bağışık olmadığı keşfedildi.

Slopsquatting Nedir ve Nasıl Çalışır?

Slopsquatting bu halüsinasyon kusurunu alır ve onu bir silaha dönüştürür. Bir LLM, kod üretimi sırasında var olmayan bir paket önerdiğinde, siber suçlular bu ad altında hızlı bir şekilde kötü amaçlı bir paket kaydedebilir. Yayımlandıktan sonra, AI tarafından üretilen kodu olduğu gibi kabul eden herhangi bir geliştirici, bilmeden kötü amaçlı paketi içe aktarabilir ve çalıştırabilir. Bu, yalnızca bireysel projeyi tehlikeye atmakla kalmaz, aynı zamanda enfekte kod yeniden kullanılırsa veya paylaşılırsa tüm yazılım tedarik zincirlerine yayılabilir.

Çalışma, Python ve JavaScript test senaryoları genelinde üretilen 2,23 milyon paketten yaklaşık 440.000'inin (yaklaşık %19,7) halüsinasyon gördüğünü buldu. Bunlardan şaşırtıcı bir şekilde 205.474'ü benzersiz hayali paket adlarıydı. Halüsinasyon gören paketlerin çoğu (yüzde 81) onları üreten belirli modele özgüydü ve bu da farklı LLM'ler arasında tutarsız davranışlara işaret ediyordu.

Ticari AI modelleri vakaların en az %5,2'sinde paketleri halüsinasyona uğratırken, açık kaynaklı modeller halüsinasyon oranlarının %21,7'ye ulaşmasıyla önemli ölçüde daha kötü performans gösterdi. Endişe verici bir şekilde, bu hatalar yalnızca tek seferlik tesadüfler değildi. Halüsinasyona uğrayan paketlerin yarısından fazlası (%58) sadece 10 yineleme içinde tekrar tekrar ortaya çıktı ve bu da kalıcılık için açık bir eğilim gösterdi.

Yazılım Geliştirmede Yapay Zeka Tarafından Üretilen Kodun Artan Riski

Önceki çalışmalar, saldırganların yanlış yazılmış veya yanıltıcı paket adlarını kullandığı typosquatting tehdidini kabul etmiş olsa da, bu yeni slopsquatting saldırısı gözden kaçmış ve potansiyel olarak çok daha tehlikeli bir varyantı temsil ediyor. İnsan hatasından yararlanan typosquatting'in aksine, slopsquatting, AI tarafından üretilen kodun algılanan otoritesini ve güvenilirliğini kullanır.

Belki de en büyüleyici ve aynı derecede endişe verici olan, araştırmacıların LLM'lerin kendi halüsinasyonlarının çoğunu tanıyabildiğini bulmalarıydı. Bu, gelecekteki güvenlik mekanizmalarında kullanılabilecek, henüz keşfedilmemiş bir öz-düzenleme potansiyeli olduğunu gösteriyor. Ayrıca, hatalı veya tehlikeli kodun dağıtımını önlemek için model içi tespit araçlarının konuşlandırılması olasılığına da işaret ediyor.

Geliştiriciler AI Paket Halüsinasyonlarına Karşı Nasıl Korunabilir?

Tehdide karşı koymak için araştırmacılar bir dizi hafifletme öneriyor. Bunlar arasında Retrieval Augmented Generation (RAG), anında ayarlama ve kendi kendini iyileştirme gibi gelişmiş anında mühendislik teknikleri yer alıyor. Model geliştirme tarafında, denetlenen ince ayar ve iyileştirilmiş kod çözme algoritmaları gibi stratejiler halüsinasyon oranlarını azaltmaya yardımcı olabilir.

Üretken AI yazılım geliştirmeyi dönüştürmeye devam ederken, bu çalışma kolaylığın bir bedeli olabileceğinin çarpıcı bir hatırlatıcısıdır. Geliştiriciler, özellikle bağımlılık yönetimi söz konusu olduğunda, AI tarafından üretilen koda karşı dikkatli ve eleştirel olmalıdır. Herhangi bir önerilen paketi yüklemeden önce statik analiz araçlarını ve manuel incelemeleri entegre etmek artık her zamankinden daha önemlidir.

Tehdit manzarası hızla değişiyor ve bu araştırmanın gösterdiği gibi savunmalarımız da değişmeli. Bir zamanlar bilim kurgu gibi görünen şey (yapay zekanın var olmayan yazılımları hayal etmesi) geniş kapsamlı etkileri olan çok gerçek bir siber güvenlik endişesi haline geldi.

Yükleniyor...