Computer Security Strzec się! Sztuczna inteligencja może sprawiać, że...

Strzec się! Sztuczna inteligencja może sprawiać, że oszustwa będą wyglądać na uzasadnione i rozprzestrzeniać zagrożenia złośliwym oprogramowaniem, takie jak oprogramowanie ransomware

Narodowe Centrum Cyberbezpieczeństwa (NCSC), część brytyjskiej agencji szpiegowskiej GCHQ, wydało ostrzeżenie o rosnącym zagrożeniu cyberatakami wspomaganymi przez sztuczną inteligencję (AI). Według oceny NCSC narzędzia generatywnej sztucznej inteligencji, które mogą generować przekonujący tekst, głos i obrazy na podstawie prostych podpowiedzi, utrudniają odróżnienie prawdziwych e-maili od tych wysyłanych przez oszustów i złośliwych aktorów.

Agencja przewiduje, że sztuczna inteligencja, w szczególności generatywna sztuczna inteligencja i duże modele językowe napędzające chatboty, znacząco przyczynią się do wzrostu zagrożeń cybernetycznych w ciągu najbliższych dwóch lat. Jednym z głównych problemów są trudności w identyfikowaniu różnych typów ataków, takich jak phishing, spoofing i socjotechnika.

Oczekuje się, że zaawansowanie technologii sztucznej inteligencji sprawi, że poszczególnym osobom, niezależnie od poziomu wiedzy o cyberbezpieczeństwie, będzie trudno ocenić zasadność wiadomości e-mail lub próśb o zresetowanie hasła.

Sztuczna inteligencja może pomóc w zwiększeniu liczby celów oprogramowania ransomware

Oczekuje się również, że nasilą się ataki ransomware , których celem były instytucje takie jak Biblioteka Brytyjska i Royal Mail w zeszłym roku. NCSC ostrzega, że zaawansowanie sztucznej inteligencji obniża barierę dla cyberprzestępców-amatorów w dostępie do systemów, gromadzeniu informacji o celach i przeprowadzaniu ataków, które mogą paraliżować systemy komputerowe, wydobywać wrażliwe dane i żądać okupu w kryptowalutach.

Narzędzia generatywnej sztucznej inteligencji są już wykorzystywane do tworzenia fałszywych „dokumentów-wabików”, które wydają się przekonujące, ponieważ pozwalają uniknąć typowych błędów spotykanych w atakach phishingowych. Choć generatywna sztuczna inteligencja może nie zwiększyć skuteczności kodu ransomware, może ona pomóc w identyfikacji i wyborze celów. NCSC sugeruje, że podmioty państwowe będą prawdopodobnie najlepiej wykorzystywać sztuczną inteligencję w zaawansowanych operacjach cybernetycznych.

Dobre i złe AI

W odpowiedzi na rosnące zagrożenie NCSC podkreśla, że sztuczna inteligencja może pełnić także funkcję narzędzia obronnego, umożliwiającego wykrywanie ataków i projektowanie bezpieczniejszych systemów. Raport zbiega się z wprowadzeniem przez rząd Wielkiej Brytanii nowych wytycznych, „Kodeksu postępowania w zakresie zarządzania cybernetycznego”, zachęcających firmy do zwiększania swojej gotowości do odzyskiwania sprawności po atakach oprogramowania ransomware. Jednak niektórzy eksperci ds. cyberbezpieczeństwa, w tym Ciaran Martin, były szef NCSC, opowiadają się za bardziej zdecydowanymi działaniami, sugerując zasadniczą ponowną ocenę podejścia do zagrożeń oprogramowaniem ransomware. Martin podkreśla potrzebę bardziej rygorystycznych przepisów dotyczących płacenia okupu i przestrzega przed nierealistycznymi strategiami, takimi jak odwet na przestępcach we wrogich krajach.

Ładowanie...