Computer Security Microsoft ve OpenAI, Yıkıcı Siber Saldırılar için Yapay...

Microsoft ve OpenAI, Yıkıcı Siber Saldırılar için Yapay Zekadan Yararlanan Ulus-Devlet Bilgisayar Korsanlarına Karşı Uyardı

Microsoft ve OpenAI, siber saldırı yeteneklerini geliştirmek için yapay zeka (AI) ve büyük dil modelleri (LLM'ler) kullanan ulus devlet korsanlarının artan tehdidi hakkında ortak bir uyarı yayınladı. Rapor, Rusya, Kuzey Kore, İran ve Çin ile bağlantılı ulus devlet aktörlerinin, kötü niyetli siber faaliyetler için yapay zeka teknolojilerini aktif olarak denediğini belirtiyor.

Microsoft ve OpenAI arasındaki işbirliği, devlete bağlı beş aktörün çabalarını engellediklerini, varlıkları ve hesapları sonlandırarak AI hizmetlerinden yıkıcı amaçlarla yararlanma girişimlerini sekteye uğrattıklarını ortaya çıkardı. Microsoft'a göre büyük dil modellerinin çekiciliği, doğal dil desteğinden kaynaklanıyor; bu da onları sosyal mühendislik ve belirli hedeflere göre tasarlanmış aldatıcı iletişim konusunda uzmanlaşmış tehdit aktörleri için çekici kılıyor.

Şu ana kadar LLM'leri kullanan önemli veya yeni bir saldırı gözlemlenmemiş olsa da rapor, devlete bağlı bu aktörlerin siber saldırı zincirinin çeşitli aşamalarında yapay zeka teknolojilerini araştırdığını vurguluyor. Faaliyetler keşif ve kodlama yardımından kötü amaçlı yazılım geliştirmeye kadar uzanır.

Rus ulus devlet grubu Forest Blizzard'ın (APT28), uydu iletişim protokolleri ve radar görüntüleme teknolojisine ilişkin açık kaynaklı araştırmaların yanı sıra komut dosyası yazma görevleri için OpenAI hizmetlerini kullandığı bildiriliyor. Benzer şekilde Kuzey Kore'nin Emerald Sleet (Kimusky), İran'ın Crimson Sandstorm (Imperial Kitten), Çin'in Charcoal Typhoon (Aquatic Panda) ve Salmon Typhoon (Maverick Panda) gibi diğer tehdit aktörleri de uzmanların belirlenmesi, araştırma yapılması gibi görevler için LLM'lerden yararlandı. , kod parçacıkları oluşturmak ve kimlik avı kampanyaları için içerik oluşturmak.

Büyüyen tehdide yanıt olarak Microsoft, yapay zeka araçlarının ve API'lerin ulus devlet aktörleri, gelişmiş kalıcı tehditler (APT'ler) ve gelişmiş kalıcı manipülatörler (APM'ler) tarafından kötü niyetli kullanımıyla ilişkili riskleri azaltmak için bir dizi ilke formüle ederek proaktif önlemler alıyor. ve siber suç örgütleri. İlkeler arasında kötü niyetli aktörlerin tespit edilmesi ve bunlara karşı harekete geçilmesi, diğer AI hizmet sağlayıcılarının bilgilendirilmesi, paydaşlarla işbirliği yapılması ve bu tehditlerle mücadelede şeffaflığın sağlanması yer alıyor.

Microsoft ve OpenAI arasındaki bu işbirliği, gelişen siber tehditler karşısında sorumlu yapay zeka kullanımı ve güvenliğe olan bağlılığı güçlendirerek, yapay zeka modelleri etrafında korkuluklar ve güvenlik mekanizmaları oluşturmak için ortak bir çabaya duyulan ihtiyacın altını çiziyor.

Yükleniyor...