Computer Security Pas på! Kunstig intelligens kan få svindel til at se...

Pas på! Kunstig intelligens kan få svindel til at se legitim ud og sprede malware-trusler som ransomware

National Cyber Security Center (NCSC), en del af GCHQ spionagentur i Storbritannien, har udsendt en advarsel om den stigende trussel om cyberangreb lettet af kunstig intelligens (AI). Ifølge NCSC's vurdering gør generative AI-værktøjer, som kan producere overbevisende tekst, stemme og billeder ud fra simple prompter, det udfordrende at skelne mellem ægte e-mails og dem, der sendes af svindlere og ondsindede aktører.

Agenturet forudser, at AI, især generativ AI og store sprogmodeller, der driver chatbots, vil bidrage væsentligt til stigningen i cybertrusler i løbet af de næste to år. En af de primære bekymringer er vanskeligheden ved at identificere forskellige typer angreb, såsom phishing, spoofing og social engineering.

Sofistikeringen af AI-teknologi forventes at gøre det udfordrende for enkeltpersoner, uanset deres niveau af cybersikkerhedsforståelse, at vurdere legitimiteten af e-mails eller anmodninger om nulstilling af adgangskode.

AI kunne hjælpe med at vokse Ransomware-mål

Ransomware-angreb , som har været rettet mod institutioner som British Library og Royal Mail i det seneste år, forventes også at stige. NCSC advarer om, at AI's sofistikering sænker barrieren for amatør-cyberkriminelle til at få adgang til systemer, indsamle information om mål og udføre angreb, der kan lamme computersystemer, udtrække følsomme data og kræve løsesum for kryptovaluta.

Generative AI-værktøjer bliver allerede brugt til at skabe falske "lokkedokumenter", der virker overbevisende ved at undgå almindelige fejl fundet i phishing-angreb. Selvom effektiviteten af ransomware-kode muligvis ikke forbedres af generativ AI, kan den hjælpe med at identificere og udvælge mål. NCSC antyder, at statslige aktører sandsynligvis vil være de mest dygtige til at udnytte kunstig intelligens i avancerede cyberoperationer.

Godt og dårligt af AI

Som svar på den voksende trussel understreger NCSC, at kunstig intelligens også kan tjene som et defensivt værktøj, der muliggør detektering af angreb og design af mere sikre systemer. Rapporten falder sammen med den britiske regerings introduktion af nye retningslinjer, "Cyber Governance Code of Practice", der opfordrer virksomheder til at øge deres beredskab til at komme sig efter ransomware-angreb. Nogle cybersikkerhedseksperter, herunder Ciaran Martin, den tidligere leder af NCSC, argumenterer dog for stærkere handling, hvilket foreslår en grundlæggende reevaluering af tilgange til ransomware-trusler. Martin understreger behovet for strengere regler omkring løsepengebetalinger og advarer mod urealistiske strategier, såsom gengældelse mod kriminelle i fjendtlige nationer.

Indlæser...