Computer Security A Microsoft e a OpenAI Alertam sobre Hackers Estatais que...

A Microsoft e a OpenAI Alertam sobre Hackers Estatais que Utilizam IA para Ataques Cibernéticos Destrutivos

A Microsoft e a OpenAI emitiram conjuntamente um alerta sobre a crescente ameaça de hackers de estados-nação que empregam inteligência artificial (IA) e grandes modelos de linguagem (LLMs) para melhorar as suas capacidades de ataque cibernético. O relatório identifica intervenientes estatais ligados à Rússia, à Coreia do Norte, ao Irão e à China que estão a experimentar ativamente tecnologias de IA para atividades cibernéticas maliciosas.

A colaboração entre a Microsoft e a OpenAI revelou que frustraram os esforços de cinco atores afiliados ao Estado, interrompendo as suas tentativas de aproveitar os serviços de IA para fins destrutivos, encerrando ativos e contas. De acordo com a Microsoft, o apelo dos grandes modelos de linguagem reside no seu suporte à linguagem natural, tornando-os atraentes para agentes de ameaças especializados em engenharia social e comunicação enganosa adaptada a alvos específicos.

Embora até agora não tenham sido observados ataques significativos ou novos utilizando LLMs, o relatório destaca que estes intervenientes afiliados ao Estado estão a explorar tecnologias de IA em vários estágios da cadeia de ataques cibernéticos. As atividades vão desde reconhecimento e assistência de codificação até desenvolvimento de malware.

O grupo estatal russo Forest Blizzard (APT28) teria usado serviços OpenAI para pesquisas de código aberto sobre protocolos de comunicação por satélite e tecnologia de imagem de radar, bem como para tarefas de script. Da mesma forma, outros atores de ameaças, como Emerald Sleet (Kimusky) da Coreia do Norte, Crimson Sandstorm do Irã (Imperial Kitten) e Charcoal Typhoon da China (Aquatic Panda) e Salmon Typhoon (Maverick Panda) utilizaram LLMs para tarefas como identificar especialistas, conduzir pesquisas , gerando trechos de código e criando conteúdo para campanhas de phishing.

Em resposta à ameaça crescente, a Microsoft está a tomar medidas proativas, formulando um conjunto de princípios para mitigar os riscos associados ao uso malicioso de ferramentas de IA e APIs por atores estatais, ameaças persistentes avançadas (APTs), manipuladores persistentes avançados (APMs) e sindicatos de criminosos cibernéticos. Os princípios incluem identificar e tomar medidas contra intervenientes maliciosos, notificar outros prestadores de serviços de IA, colaborar com as partes interessadas e garantir a transparência no tratamento destas ameaças.

Esta colaboração entre a Microsoft e a OpenAI sublinha a necessidade de um esforço colectivo para estabelecer barreiras de protecção e mecanismos de segurança em torno dos modelos de IA, reforçando o compromisso com a utilização responsável e a segurança da IA face à evolução das ameaças cibernéticas.

Carregando...