Computer Security Pozor! Umělá inteligence by mohla způsobit, že podvody...

Pozor! Umělá inteligence by mohla způsobit, že podvody budou vypadat legitimně a rozšířit hrozby malwaru jako ransomware

Národní centrum kybernetické bezpečnosti (NCSC), které je součástí špionážní agentury GCHQ ve Spojeném království, vydalo varování před rostoucí hrozbou kybernetických útoků podporovaných umělou inteligencí (AI). Podle hodnocení NCSC generativní nástroje umělé inteligence, které dokážou vytvořit přesvědčivý text, hlas a obrázky z jednoduchých výzev, ztěžují rozlišení mezi skutečnými e-maily a těmi, které posílají podvodníci a zlomyslní herci.

Agentura předpovídá, že AI, zejména generativní AI a velké jazykové modely pohánějící chatboty, významně přispějí k nárůstu kybernetických hrozeb v příštích dvou letech. Jedním z hlavních problémů je obtížnost identifikace různých typů útoků, jako je phishing, spoofing a sociální inženýrství.

Očekává se, že sofistikovanost technologie umělé inteligence ztíží jednotlivcům, bez ohledu na jejich úroveň porozumění kybernetické bezpečnosti, posouzení oprávněnosti e-mailů nebo žádostí o resetování hesla.

Umělá inteligence by mohla pomoci při růstu cílů ransomwaru

Očekává se také nárůst ransomwarových útoků , které se v minulém roce zaměřovaly na instituce jako British Library a Royal Mail. NCSC varuje, že sofistikovanost AI snižuje bariéru pro amatérské kyberzločince v přístupu k systémům, shromažďování informací o cílech a provádění útoků, které mohou paralyzovat počítačové systémy, extrahovat citlivá data a požadovat výkupné za kryptoměny.

Generativní nástroje umělé inteligence se již používají k vytváření falešných „návnadových dokumentů“, které vypadají přesvědčivě tím, že se vyhýbají běžným chybám nalezeným při phishingových útocích. I když účinnost ransomwarového kódu nemusí být zvýšena generativní AI, může pomoci při identifikaci a výběru cílů. NCSC naznačuje, že státní aktéři budou pravděpodobně nejšikovnější ve využívání umělé inteligence v pokročilých kybernetických operacích.

Dobré a špatné AI

V reakci na rostoucí hrozbu NCSC zdůrazňuje, že umělá inteligence může sloužit i jako obranný nástroj umožňující detekci útoků a navrhování bezpečnějších systémů. Zpráva se shoduje se zavedením nových pokynů britskou vládou, „Kodexu praxe v oblasti kybernetické správy“, které povzbuzují podniky, aby zvýšily svou připravenost zotavit se z útoků ransomwaru. Někteří odborníci na kybernetickou bezpečnost, včetně Ciarana Martina, bývalého šéfa NCSC, však argumentují pro důraznější opatření a navrhují zásadní přehodnocení přístupů k hrozbám ransomwaru. Martin zdůrazňuje potřebu přísnějších pravidel ohledně plateb výkupného a varuje před nerealistickými strategiemi, jako je odveta proti zločincům v nepřátelských zemích.

Načítání...