Computer Security Pozor! Umetna inteligenca bi lahko naredila, da so...

Pozor! Umetna inteligenca bi lahko naredila, da so prevare videti legitimne in razširila grožnje zlonamerne programske opreme, kot je izsiljevalska programska oprema

Nacionalni center za kibernetsko varnost (NCSC), del vohunske agencije GCHQ v Združenem kraljestvu, je izdal opozorilo o naraščajoči nevarnosti kibernetskih napadov, ki jih omogoča umetna inteligenca (AI). Po oceni NCSC je zaradi generativnih orodij umetne inteligence, ki lahko ustvarijo prepričljivo besedilo, glas in slike iz preprostih pozivov, težko razlikovati med pristnimi e-poštnimi sporočili in tistimi, ki jih pošljejo prevaranti in zlonamerni akterji.

Agencija napoveduje, da bo umetna inteligenca, zlasti generativna umetna inteligenca in veliki jezikovni modeli, ki poganjajo klepetalne robote, v naslednjih dveh letih znatno prispevala k porastu kibernetskih groženj. Ena glavnih skrbi je težava pri prepoznavanju različnih vrst napadov, kot so lažno predstavljanje, lažno predstavljanje in socialni inženiring.

Pričakuje se, da bo zaradi izpopolnjenosti tehnologije umetne inteligence posameznikom, ne glede na njihovo raven razumevanja kibernetske varnosti, težko oceniti legitimnost e-poštnih sporočil ali zahtev za ponastavitev gesla.

AI bi lahko pomagal povečati tarče izsiljevalske programske opreme

Napadi z izsiljevalsko programsko opremo , ki so bili v zadnjem letu usmerjeni na ustanove, kot sta British Library in Royal Mail, naj bi se prav tako povečali. NCSC opozarja, da sofisticiranost umetne inteligence zmanjšuje ovire za amaterske kibernetske kriminalce pri dostopu do sistemov, zbiranju informacij o tarčah in izvajanju napadov, ki lahko paralizirajo računalniške sisteme, izvlečejo občutljive podatke in zahtevajo odkupnine v kriptovalutah.

Generativna orodja umetne inteligence se že uporabljajo za ustvarjanje ponarejenih "vabljivih dokumentov", ki so videti prepričljivi z izogibanjem pogostim napakam, ki jih najdemo pri napadih lažnega predstavljanja. Medtem ko učinkovitosti kode izsiljevalske programske opreme morda ne bo izboljšala generativna umetna inteligenca, lahko pomaga pri prepoznavanju in izbiri tarč. NCSC predlaga, da bodo državni akterji verjetno najbolj spretni pri uporabi umetne inteligence v naprednih kibernetskih operacijah.

Dobro in slabo umetne inteligence

V odgovor na naraščajočo grožnjo NCSC poudarja, da lahko AI služi tudi kot obrambno orodje, ki omogoča odkrivanje napadov in oblikovanje varnejših sistemov. Poročilo sovpada z uvedbo novih smernic vlade Združenega kraljestva, »Cyber Governance Code of Practice«, ki spodbuja podjetja, da izboljšajo svojo pripravljenost za okrevanje po napadih izsiljevalske programske opreme. Vendar pa nekateri strokovnjaki za kibernetsko varnost, vključno s Ciaranom Martinom, nekdanjim vodjo NCSC, zagovarjajo odločnejše ukrepe in predlagajo temeljno ponovno oceno pristopov k grožnjam z izsiljevalsko programsko opremo. Martin poudarja potrebo po strožjih pravilih glede plačil odkupnine in svari pred nerealnimi strategijami, kot je maščevanje proti kriminalcem v sovražnih državah.

Nalaganje...