Computer Security Óvakodik! A mesterséges intelligencia jogosnak tűnhet a...

Óvakodik! A mesterséges intelligencia jogosnak tűnhet a csalásokon, és olyan rosszindulatú programokat terjeszthet, mint a Ransomware

A brit GCHQ kémügynökséghez tartozó National Cyber Security Center (NCSC) figyelmeztetést adott ki a mesterséges intelligencia (AI) által előidézett kibertámadások növekvő veszélyére vonatkozóan. Az NCSC értékelése szerint a generatív mesterséges intelligencia eszközök, amelyek egyszerű felszólításokból képesek meggyőző szöveget, hangot és képeket előállítani, megnehezítik a valódi e-mailek megkülönböztetését a csalók és rosszindulatú szereplők által küldött e-mailek között.

Az ügynökség előrejelzése szerint a mesterséges intelligencia, különösen a generatív AI és a chatbotokat működtető nagy nyelvi modellek jelentősen hozzájárulnak majd a kiberfenyegetések növekedéséhez a következő két évben. Az egyik elsődleges probléma a különféle típusú támadások azonosításának nehézsége, mint például az adathalászat, a hamisítás és a közösségi manipuláció.

A mesterséges intelligencia technológia kifinomultsága várhatóan kihívást jelent az egyének számára, függetlenül a kiberbiztonsági ismereteik szintjétől, hogy felmérjék az e-mailek vagy a jelszó-visszaállítási kérelmek legitimitását.

A mesterséges intelligencia elősegítheti a zsarolóvírus-célok növekedését

A zsarolóvírus-támadások , amelyek az elmúlt évben olyan intézményeket céloztak meg, mint a British Library és a Royal Mail, szintén növekedni fognak. Az NCSC arra figyelmeztet, hogy a mesterséges intelligencia kifinomultsága csökkenti az amatőr kiberbűnözők előtt a rendszerekhez való hozzáférést, a célpontokról való információgyűjtést és a számítógépes rendszereket megbénító támadások végrehajtását, érzékeny adatok kinyerését és kriptovaluta váltságdíjak követelését.

A generatív mesterséges intelligencia eszközöket már használják hamis „csalogató dokumentumok” létrehozására, amelyek meggyőzőnek tűnnek azáltal, hogy elkerülik az adathalász támadásokban előforduló gyakori hibákat. Bár a ransomware kód hatékonyságát nem feltétlenül növeli a generatív mesterséges intelligencia, segíthet a célpontok azonosításában és kiválasztásában. Az NCSC azt sugallja, hogy az állami szereplők valószínűleg a legügyesebbek az AI fejlett kiberműveletekben történő kihasználásában.

Az AI jó és rossz

A növekvő fenyegetésre reagálva az NCSC hangsúlyozza, hogy az AI védekező eszközként is szolgálhat, lehetővé téve a támadások észlelését és biztonságosabb rendszerek tervezését. A jelentés egybeesik azzal, hogy az Egyesült Királyság kormánya új iránymutatásokat, a „Kiberirányítási gyakorlati kódexet” vezette be, amely arra ösztönzi a vállalkozásokat, hogy fokozzák a ransomware-támadások utáni felépülési készséget. Egyes kiberbiztonsági szakértők, köztük Ciaran Martin, az NCSC korábbi vezetője azonban határozottabb fellépés mellett érvelnek, ami a ransomware-fenyegetések megközelítésének alapvető újraértékelését javasolja. Martin hangsúlyozza, hogy szigorúbb szabályokra van szükség a váltságdíj fizetésére vonatkozóan, és óva int az irreális stratégiáktól, például az ellenséges országokban élő bűnözők elleni megtorlástól.

Betöltés...