Exploração de autenticação de dois fatores desenvolvida por IA
Pesquisadores de cibersegurança descobriram um agente de ameaça até então desconhecido que explorava uma vulnerabilidade zero-day, supostamente desenvolvida com o auxílio de inteligência artificial. Este é o primeiro caso documentado de uso ativo de IA em operações maliciosas reais para descoberta de vulnerabilidades e geração de exploits.
Os investigadores atribuem a campanha a grupos cibercriminosos coordenados que parecem ter colaborado numa iniciativa de exploração de vulnerabilidades em larga escala. A análise da cadeia de ataque associada revelou uma vulnerabilidade zero-day incorporada num script Python capaz de contornar as proteções de autenticação de dois fatores (2FA) numa plataforma de administração de sistemas de código aberto e baseada na web, amplamente utilizada.
Embora não haja evidências diretas que liguem a ferramenta Gemini AI do Google à operação, os pesquisadores concluíram com alto grau de certeza que um modelo de IA desempenhou um papel significativo na descoberta e exploração da falha. O código Python exibia diversas características comumente associadas à saída gerada por grandes modelos de linguagem (LLM), incluindo formatação altamente estruturada, extensas docstrings educacionais, menus de ajuda detalhados e uma implementação limpa de cores ANSI. O script também continha uma pontuação CVSS falsificada, um exemplo comum de alucinação por IA.
Índice
Como funcionava a exploração da falha de autenticação de dois fatores (2FA)
A vulnerabilidade identificada exigia credenciais de usuário legítimas para funcionar corretamente. Os pesquisadores determinaram que a falha se originava de uma fragilidade na lógica semântica causada por uma suposição de confiança embutida no processo de autenticação do aplicativo. Falhas de lógica de alto nível como essa estão cada vez mais ao alcance das capacidades analíticas dos modernos sistemas de gestão de aprendizagem por aprendizagem (LLM).
Especialistas em segurança alertam que a IA está acelerando drasticamente todas as etapas do ciclo de vida de um ataque cibernético, desde a descoberta de vulnerabilidades até a validação de exploits e a implantação operacional. O uso crescente de IA por agentes maliciosos está reduzindo o tempo e o esforço necessários para identificar fragilidades e lançar ataques, colocando os defensores sob pressão cada vez maior.
A IA expande o cenário de malware e exploração.
A inteligência artificial não se limita mais a auxiliar na pesquisa de vulnerabilidades. Os agentes de ameaças agora usam IA para criar malware polimórfico, automatizar operações maliciosas e ocultar funcionalidades de ataque. Um exemplo notável é o PromptSpy, uma variante de malware para Android que abusa do Gemini para analisar a atividade na tela e emitir instruções que ajudam o malware a permanecer fixado na lista de aplicativos recentes.
Os pesquisadores também documentaram diversos casos de grande repercussão envolvendo atividades maliciosas auxiliadas pelo Gemini:
O grupo de ciberespionagem UNC2814, suspeito de ter ligações com a China, teria usado técnicas de jailbreak baseadas em identidade para forçar o Gemini a assumir o papel de especialista em segurança de redes. O objetivo era apoiar pesquisas de vulnerabilidades em dispositivos embarcados, incluindo firmware da TP-Link e implementações do protocolo de transferência de arquivos Odette (OFTP).
O grupo de ameaças norte-coreano APT45 supostamente emitiu milhares de solicitações recursivas projetadas para analisar CVEs e validar exploits de prova de conceito.
O grupo de hackers chinês APT27 teria usado o Gemini para acelerar o desenvolvimento de um aplicativo de gerenciamento de frotas, provavelmente destinado a gerenciar uma infraestrutura de caixas de retransmissão operacionais (ORB).
Operações de intrusão ligadas à Rússia, visando organizações ucranianas, implantaram famílias de malware assistidas por IA conhecidas como CANFAIL e LONGSTREAM, ambas incorporando código de isca gerado por LLM para disfarçar o comportamento malicioso.
Dados de treinamento armados e operações autônomas de IA
Além disso, observou-se que agentes maliciosos estavam experimentando um repositório especializado do GitHub chamado 'wooyun-legacy', projetado como um plugin para a ferramenta de programação Claude. O repositório contém mais de 5.000 casos de vulnerabilidades reais, originalmente coletados pela plataforma chinesa de divulgação de vulnerabilidades WooYun entre 2010 e 2016.
Ao alimentar sistemas de IA com esse conjunto de dados, os atacantes podem ativar o aprendizado contextual, treinando modelos para abordar a análise de código-fonte com a precisão de pesquisadores de segurança experientes. Isso melhora significativamente a capacidade da IA de identificar falhas lógicas sutis que modelos padrão podem ignorar.
Os pesquisadores também revelaram que um suposto agente de ameaças alinhado à China utilizou ferramentas de IA, como Hexstrike AI e Strix, durante ataques contra uma empresa de tecnologia japonesa e uma importante plataforma de cibersegurança do Leste Asiático. Essas ferramentas supostamente possibilitaram operações automatizadas de reconhecimento e descoberta com mínima intervenção humana.
As crescentes implicações de segurança da IA ofensiva
As conclusões destacam uma grande mudança no cenário das ameaças cibernéticas. A IA está evoluindo rapidamente de uma ferramenta de produtividade para um multiplicador de forças em operações cibernéticas ofensivas. Da descoberta de vulnerabilidades de dia zero à automatização da implantação de malware e ao aprimoramento da furtividade operacional, a inteligência artificial está mudando fundamentalmente a forma como os ataques cibernéticos são planejados e executados.
À medida que as capacidades cibernéticas impulsionadas pela IA continuam a amadurecer, as organizações enfrentam um futuro em que os ataques se tornam mais rápidos, mais adaptáveis e cada vez mais difíceis de detectar antes que ocorram danos.