Os Hackers Iranianos Usaram Indevidamente o ChatGPT em aAaques Cibernéticos Visando Infraestrutura Crítica

Em um relatório inovador, a OpenAI revelou como os hackers iranianos exploraram o ChatGPT para aprimorar ataques cibernéticos em sistemas de controle industrial (ICS). O relatório lança luz sobre atividades cibernéticas realizadas por grupos como o CyberAv3ngers, vinculado ao Corpo da Guarda Revolucionária Islâmica do Irã (IRGC), e outros patrocinados pela China.
Esses atores de ameaças usaram o ChatGPT para reconhecimento, exploração de vulnerabilidades e ações pós-comprometimento. Embora a OpenAI enfatize que a IA não ofereceu novos recursos, ela ajudou esses hackers a conduzir ataques de forma mais eficiente usando técnicas disponíveis publicamente.
Índice
O Grupo Iraniano CyberAv3ngers e Ataques a Provedores de Agua
Os CyberAv3ngers ganharam notoriedade este ano por atacar empresas de água na Irlanda e na Pensilvânia, causando interrupções significativas. O grupo explorou sistemas ICS mal protegidos que foram expostos à internet e usaram senhas padrão. Seu foco estava em controladores lógicos programáveis (PLCs), dispositivos críticos que controlam processos industriais.
O uso do ChatGPT envolveu solicitar ao chatbot informações sobre roteadores industriais, PLCs e senhas padrão para dispositivos de infraestrutura crítica, como roteadores Tridium Niagara e Hirschmann RS.
O Uso Indevido da IA para Ataques Cibernéticos
Além de alvos específicos do ICS, os CyberAv3ngers buscaram assistência do ChatGPT para ofuscar códigos maliciosos e escanear redes em busca de vulnerabilidades exploráveis. O grupo também tentou encontrar maneiras de acessar senhas do macOS.
No entanto, a OpenAI esclareceu que essas atividades não forneceram aos hackers nenhuma capacidade nova ou avançada além do que está disponível por meio de ferramentas não-IA. Isso destaca os perigos do uso indevido da IA, mesmo que as informações obtidas não sejam revolucionárias.
Outros Autores de Ameaças Envolvidos
Além do CyberAv3ngers, outro grupo iraniano conhecido como Storm-0817 usou mal o ChatGPT. Eles tentaram desenvolver malware para Android e coletar dados do Instagram, aproveitando a IA para traduzir perfis do LinkedIn para o persa. Embora não sejam tão diretamente prejudiciais quanto os ataques ICS, essas atividades refletem esforços mais amplos para transformar a IA em armas em operações cibernéticas.
O SweetSpectre, ligado à China, também foi mencionado no relatório. Este grupo usou o ChatGPT para desenvolvimento de malware e pesquisa de vulnerabilidade. Notavelmente, o SweetSpectre tentou enviar e-mails carregados de malware para funcionários da OpenAI, mas o ataque foi frustrado antes de atingir seus alvos.
O Quadro Geral
O relatório ressalta o risco crescente de uso indevido de IA na guerra cibernética. Embora a IA, incluindo o ChatGPT, possa simplificar tarefas para usuários legítimos, ela também pode servir como uma ferramenta para atores mal-intencionados. A abordagem proativa da OpenAI para detectar e neutralizar essas ameaças é vital para conter seu impacto.
Isso levanta questões para a indústria de segurança cibernética: Como a IA pode ser protegida contra uso indevido? Quais medidas são necessárias para evitar que agentes de ameaças usem tais ferramentas para aprimorar suas capacidades?
Essas revelações devem levar as indústrias e os governos a repensar as estratégias de segurança, especialmente para infraestrutura crítica, e priorizar o fechamento das lacunas que permitem que hackers explorem sistemas vulneráveis.
A IA tem um tremendo potencial para avançar indústrias e melhorar a eficiência. Mas, como mostra o relatório, ela também é uma faca de dois gumes. Quando mal utilizada, ela pode amplificar as capacidades de criminosos cibernéticos e atores de estados-nação. Ficar à frente dessas ameaças requer vigilância constante, defesas mais fortes e desenvolvimento responsável de tecnologias de IA.
O papel do ChatGPT nesses incidentes pode ser limitado, mas serve como um alerta para as implicações mais amplas da IA no cenário da segurança cibernética.