Computer Security Pas op! Kunstmatige intelligentie kan ervoor zorgen dat...

Pas op! Kunstmatige intelligentie kan ervoor zorgen dat oplichting legitiem lijkt en malwarebedreigingen zoals ransomware verspreidt

Het National Cyber Security Centre (NCSC), onderdeel van het spionagebureau GCHQ in Groot-Brittannië, heeft gewaarschuwd voor de toenemende dreiging van cyberaanvallen die worden gefaciliteerd door kunstmatige intelligentie (AI). Volgens de beoordeling van het NCSC maken generatieve AI-tools, die vanuit eenvoudige aanwijzingen overtuigende tekst, stem en afbeeldingen kunnen produceren, het een uitdaging om onderscheid te maken tussen echte e-mails en e-mails verzonden door oplichters en kwaadwillende actoren.

Het bureau voorspelt dat AI, met name generatieve AI en grote taalmodellen die chatbots aandrijven, de komende twee jaar aanzienlijk zullen bijdragen aan de toename van cyberdreigingen. Een van de voornaamste zorgen is de moeilijkheid bij het identificeren van verschillende soorten aanvallen, zoals phishing, spoofing en social engineering.

De verfijning van de AI-technologie zal het naar verwachting voor individuen een uitdaging maken, ongeacht hun kennis van cyberbeveiliging, om de legitimiteit van e-mails of verzoeken om wachtwoordherstel te beoordelen.

AI kan helpen bij het vergroten van de doelwitten voor ransomware

Er wordt verwacht dat ook het aantal ransomware-aanvallen , die zich het afgelopen jaar hebben gericht op instellingen als de British Library en Royal Mail, zal toenemen. Het NCSC waarschuwt dat de verfijning van AI de barrière voor amateur-cybercriminelen verlaagt om toegang te krijgen tot systemen, informatie over doelen te verzamelen en aanvallen uit te voeren die computersystemen kunnen lamleggen, gevoelige gegevens kunnen extraheren en losgeld voor cryptocurrency kunnen eisen.

Er worden al generatieve AI-tools gebruikt om valse ‘lokdocumenten’ te maken die overtuigend lijken door veelvoorkomende fouten bij phishing-aanvallen te vermijden. Hoewel de effectiviteit van ransomware-code mogelijk niet wordt vergroot door generatieve AI, kan deze wel helpen bij het identificeren en selecteren van doelen. Het NCSC suggereert dat statelijke actoren waarschijnlijk het meest bedreven zijn in het inzetten van AI bij geavanceerde cyberoperaties.

Goed en slecht van AI

Als reactie op de groeiende dreiging benadrukt het NCSC dat AI ook als defensief instrument kan dienen, waardoor aanvallen kunnen worden gedetecteerd en veiliger systemen kunnen worden ontworpen. Het rapport valt samen met de introductie door de Britse overheid van nieuwe richtlijnen, de ‘Cyber Governance Code of Practice’, die bedrijven aanmoedigt hun paraatheid te vergroten om te herstellen van ransomware-aanvallen. Sommige cyberbeveiligingsexperts, waaronder Ciaran Martin, het voormalige hoofd van het NCSC, pleiten echter voor krachtigere actie en suggereren een fundamentele herevaluatie van de aanpak van ransomware-bedreigingen. Martin benadrukt de noodzaak van strengere regels rond losgeldbetalingen en waarschuwt voor onrealistische strategieën, zoals vergeldingsmaatregelen tegen criminelen in vijandige landen.

Bezig met laden...