Computer Security Ai grijă! Inteligența artificială ar putea face ca...

Ai grijă! Inteligența artificială ar putea face ca înșelătoriile să pară legitime și să răspândească amenințări malware ca ransomware

Centrul Național de Securitate Cibernetică (NCSC), parte a agenției de spionaj GCHQ din Marea Britanie, a emis un avertisment cu privire la amenințarea tot mai mare a atacurilor cibernetice facilitate de inteligența artificială (AI). Potrivit evaluării NCSC, instrumentele AI generative, care pot produce text, voce și imagini convingătoare din mesaje simple, fac dificilă diferența dintre e-mailurile autentice și cele trimise de escroci și actori rău intenționați.

Agenția prezice că AI, în special AI generativă și modelele de limbaj mari care alimentează chatbot-urile, vor contribui în mod semnificativ la creșterea amenințărilor cibernetice în următorii doi ani. Una dintre preocupările principale este dificultatea de a identifica diferite tipuri de atacuri, cum ar fi phishing, spoofing și inginerie socială.

Se așteaptă ca sofisticarea tehnologiei AI să facă dificil pentru indivizi, indiferent de nivelul lor de înțelegere a securității cibernetice, evaluarea legitimității e-mailurilor sau a solicitărilor de resetare a parolei.

AI ar putea ajuta la creșterea țintelor ransomware

Se anticipează, de asemenea, să crească atacurile ransomware , care au vizat instituții precum British Library și Royal Mail în ultimul an. NCSC avertizează că sofisticarea AI reduce bariera pentru infractorii cibernetici amatori de a accesa sisteme, de a culege informații despre ținte și de a executa atacuri care pot paraliza sistemele computerizate, pot extrage date sensibile și pot solicita răscumpărări criptomonede.

Instrumentele AI generative sunt deja folosite pentru a crea „documente de ademenire” false care par convingătoare prin evitarea erorilor comune găsite în atacurile de phishing. Deși eficiența codului ransomware nu poate fi îmbunătățită de AI generativă, acesta poate ajuta la identificarea și selectarea țintelor. NCSC sugerează că actorii statali sunt probabil cei mai pricepuți să folosească AI în operațiunile cibernetice avansate.

Bun și rău de AI

Ca răspuns la amenințarea tot mai mare, NCSC subliniază că AI poate servi și ca instrument defensiv, permițând detectarea atacurilor și proiectarea unor sisteme mai sigure. Raportul coincide cu introducerea de către guvernul Regatului Unit a noilor linii directoare, „Codul de practică pentru guvernare cibernetică”, care încurajează companiile să-și îmbunătățească gradul de pregătire pentru a se recupera după atacurile ransomware. Cu toate acestea, unii experți în securitate cibernetică, inclusiv Ciaran Martin, fostul șef al NCSC, pledează pentru acțiuni mai puternice, sugerând o reevaluare fundamentală a abordărilor amenințărilor ransomware. Martin subliniază necesitatea unor reguli mai stricte în ceea ce privește plățile de răscumpărare și avertizează împotriva strategiilor nerealiste, cum ar fi represaliile împotriva criminalilor din națiunile ostile.

Se încarcă...