ITF Portal - Banner Topo
Slot: /23408374/itf-ad-banner-topo
720x300, 728x90, 728x210, 970x250, 970x90, 1190x250
Anthropic
Ciberataques
espionagem
governo chinês
IA
inteligência artificial

Anthropic afirma ter identificado espiões chineses usando IA para automatizar ataques

A Anthropic, desenvolvedora do chatbot Claude, afirmou ter descoberto uma operação de ciberespionagem conduzida por hackers ligados ao governo chinês usando sua tecnologia para automatizar ataques. Segundo reportagem da BBC, a empresa identificou atividades suspeitas em setembro, quando operadores se passaram por pesquisadores de segurança para induzir o modelo a realizar pequenas tarefas que, combinadas, […]

Publicado: 11/03/2026 às 14:20
Leitura
3 minutos
A foto mostra um close-up da tela de um dispositivo móvel exibindo parte do site anthropic.com. No canto superior esquerdo aparece o horário 20:16, e no centro da tela está o texto “AI” em letras pretas sobre fundo branco. A imagem sugere um contexto relacionado à tecnologia e inteligência artificial.
Construção civil — Foto: Reprodução

A Anthropic, desenvolvedora do chatbot Claude, afirmou ter descoberto uma operação de ciberespionagem conduzida por hackers ligados ao governo chinês usando sua tecnologia para automatizar ataques. Segundo reportagem da BBC, a empresa identificou atividades suspeitas em setembro, quando operadores se passaram por pesquisadores de segurança para induzir o modelo a realizar pequenas tarefas que, combinadas, formariam um ataque mais complexo.

De acordo com a Anthropic, os invasores criaram, com auxílio do chatbot, um programa capaz de comprometer sistemas-alvo com mínima intervenção humana. A empresa diz ter “alta confiança” de que o grupo é patrocinado pelo Estado chinês, e relatou que grandes empresas de tecnologia, instituições financeiras, fabricantes químicos e agências governamentais estavam entre os alvos. A companhia afirma ainda que o chatbot teria conseguido extrair dados e classificá-los automaticamente.

O grupo foi banido do serviço, e organizações potencialmente afetadas foram notificadas. Autoridades também foram acionadas, mas a Anthropic não detalhou o método que permitiu associar a atividade ao governo chinês.

Leia mais: “Este será o último ano com gestores dedicados apenas a pessoas”, revela CEO da Cielo sobre avanço dos agentes de IA

A divulgação gerou controvérsia no setor. Profissionais de segurança cibernética afirmam que o relatório da Anthropic contém poucas evidências verificáveis e pode exagerar as capacidades reais da operação. Martin Zugec, da Bitdefender, observou que o cenário descrito é especulativo e que seria necessário mais transparência para avaliar o risco e compreender como a automação ocorreu de fato.

Críticos também argumentam que o uso de IA em ataques desse tipo ainda enfrenta limitações práticas. A própria Anthropic reconhece que Claude cometeu erros durante o processo, como inventar senhas e afirmar ter acessado dados sigilosos que, na verdade, eram públicos, um indicativo de que a autonomia operacional dos modelos continua restrita.

Debate crescente sobre IA ofensiva e defensiva

O anúncio reacende discussões sobre o papel da IA em ciberataques. Empresas do setor já relataram tentativas de uso de modelos generativos por grupos ligados a Estados. Em 2024, a OpenAI, em cooperação com a Microsoft, afirmou ter bloqueado operações de cinco atores estatais, incluindo grupos chineses, que utilizavam seus serviços para consultas, traduções e tarefas simples de programação.

Pesquisas recentes também mostram preocupação com o uso da IA para criar novos tipos de malware, embora estudos indiquem que esses experimentos ainda estejam em estágio inicial.

Especialistas apontam que, ao mesmo tempo em que a IA amplia o potencial ofensivo, a indústria de cibersegurança também tem interesse em ressaltar esses riscos para justificar novos investimentos e produtos.

A Anthropic sustenta que, se modelos avançados podem ser explorados por atacantes, também são essenciais para defender ambientes digitais. A empresa afirma trabalhar em funcionalidades de monitoramento e mitigação baseadas em IA, mas reconhece que obstáculos técnicos, como erros factuais e limites na execução autônoma, ainda impedem a realização de ataques totalmente automatizados.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada
Imagem do ícone
Notícias
Imagem do ícone
Revistas
Imagem do ícone
Materiais
Imagem do ícone
Eventos
Imagem do ícone
Marketing
Imagem do ícone
Sustentabilidade
Notícias relacionadas