Computer Security Akta sig! Artificiell intelligens kan få bedrägerier att...

Akta sig! Artificiell intelligens kan få bedrägerier att se legitima ut och sprida hot om skadlig programvara som ransomware

National Cyber Security Center (NCSC), en del av spionbyrån GCHQ i Storbritannien, har utfärdat en varning om det ökande hotet om cyberattacker som underlättas av artificiell intelligens (AI). Enligt NCSC:s bedömning gör generativa AI-verktyg, som kan producera övertygande text, röst och bilder från enkla uppmaningar, det utmanande att skilja mellan äkta e-postmeddelanden och de som skickas av bedragare och illvilliga aktörer.

Byrån förutspår att AI, särskilt generativ AI och stora språkmodeller som driver chatbots, kommer att avsevärt bidra till ökningen av cyberhot under de kommande två åren. En av de främsta problemen är svårigheten att identifiera olika typer av attacker, såsom nätfiske, spoofing och social ingenjörskonst.

Den sofistikerade AI-tekniken förväntas göra det utmanande för individer, oavsett nivå av cybersäkerhetsförståelse, att bedöma legitimiteten hos e-postmeddelanden eller förfrågningar om lösenordsåterställning.

AI kan hjälpa till att växa Ransomware-mål

Ransomware-attacker , som har riktats mot institutioner som British Library och Royal Mail under det senaste året, förväntas också öka. NCSC varnar för att AI:s sofistikering sänker barriären för cyberbrottslingar för amatörer att komma åt system, samla information om mål och utföra attacker som kan förlama datorsystem, extrahera känslig data och kräva lösensummor för kryptovaluta.

Generativa AI-verktyg används redan för att skapa falska "lure-dokument" som verkar övertygande genom att undvika vanliga fel som hittas i nätfiskeattacker. Även om effektiviteten av ransomware-kod kanske inte förbättras av generativ AI, kan den hjälpa till att identifiera och välja mål. NCSC föreslår att statliga aktörer sannolikt är de mest skickliga på att utnyttja AI i avancerade cyberoperationer.

Bra och dåligt av AI

Som svar på det växande hotet betonar NCSC att AI också kan fungera som ett defensivt verktyg, vilket möjliggör upptäckt av attacker och design av säkrare system. Rapporten sammanfaller med den brittiska regeringens införande av nya riktlinjer, "Cyber Governance Code of Practice", som uppmuntrar företag att öka sin beredskap att återhämta sig från ransomware-attacker. Vissa cybersäkerhetsexperter, inklusive Ciaran Martin, den tidigare chefen för NCSC, argumenterar dock för starkare åtgärder, vilket föreslår en grundläggande omvärdering av tillvägagångssätt för ransomware-hot. Martin betonar behovet av striktare regler kring lösensummor och varnar för orealistiska strategier, som att hämnas mot kriminella i fientliga länder.

Läser in...