ITF Portal - Banner Topo
Slot: /23408374/itf-ad-banner-topo
720x300, 728x90, 728x210, 970x250, 970x90, 1190x250
agentes de IA
cibersegurança

Agente de IA supera hackers humanos em teste de segurança e expõe novo patamar da cibersegurança

Um experimento conduzido por pesquisadores da Universidade Stanford acendeu um alerta importante sobre o futuro da cibersegurança. Um agente de inteligência artificial foi capaz de invadir redes acadêmicas da instituição por 16 horas consecutivas, identificar vulnerabilidades críticas e superar o desempenho da maioria dos especialistas humanos envolvidos no teste, tudo isso com um custo significativamente […]

Publicado: 04/03/2026 às 11:44
Leitura
4 minutos
IA, agente de IA, segurança, cibersegurança, proteção, biometria
Construção civil — Foto: Reprodução

Um experimento conduzido por pesquisadores da Universidade Stanford acendeu um alerta importante sobre o futuro da cibersegurança. Um agente de inteligência artificial foi capaz de invadir redes acadêmicas da instituição por 16 horas consecutivas, identificar vulnerabilidades críticas e superar o desempenho da maioria dos especialistas humanos envolvidos no teste, tudo isso com um custo significativamente inferior ao de profissionais experientes da área.

O estudo avaliou o desempenho de um agente chamado ARTEMIS, desenvolvido por pesquisadores focados em segurança de machine learning e sistemas autônomos. A proposta era simples e, ao mesmo tempo, ambiciosa: colocar a IA para atuar como um “penetration tester”, papel normalmente exercido por hackers éticos contratados para identificar falhas em sistemas antes que elas sejam exploradas por agentes mal-intencionados.

Leia também: TGT ISG: mesmo com dificuldades, IA generativa ganha maturidade no Brasil

Durante o experimento, o ARTEMIS teve acesso controlado às redes públicas e privadas do departamento de ciência da computação de Stanford, que somam cerca de 8 mil dispositivos, incluindo servidores, computadores e equipamentos conectados. Enquanto os profissionais humanos trabalharam por pelo menos dez horas, o agente de IA operou por 16 horas distribuídas ao longo de dois dias. Para efeito de comparação direta, os pesquisadores analisaram apenas as primeiras dez horas de atuação do sistema autônomo.

Novas vulnerabilidades

Segundo a Business Insider, o resultado chamou atenção. Dentro desse intervalo, o agente identificou nove vulnerabilidades consideradas válidas, com uma taxa de acerto superior a 80%. Esse desempenho superou o de nove entre dez especialistas humanos participantes do teste. Em alguns casos, a IA conseguiu encontrar falhas que passaram despercebidas pelos profissionais, como em servidores antigos que não carregavam em navegadores convencionais, mas que puderam ser acessados por meio de requisições diretas via linha de comando.

Um dos diferenciais do ARTEMIS está na forma como ele trabalha. Ao identificar qualquer comportamento suspeito ou indício de falha, o sistema cria automaticamente subagentes que investigam diferentes pontos da rede em paralelo. Isso permite examinar múltiplos alvos simultaneamente, algo inviável para um analista humano, que precisa conduzir cada etapa de forma sequencial.

O fator econômico também pesa. De acordo com os pesquisadores, o custo operacional do ARTEMIS gira em torno de US$ 18 por hora. Mesmo uma versão mais avançada do agente, que custa cerca de US$ 59 por hora, ainda fica muito abaixo do salário anual médio de um testador profissional de segurança, estimado em aproximadamente US$ 125 mil nos Estados Unidos. Esse diferencial reforça o potencial de uso da tecnologia em larga escala por empresas e instituições.

Apesar do desempenho expressivo, o estudo também aponta limitações claras. O agente apresentou dificuldades em tarefas que exigem interação com interfaces gráficas, como navegação por telas visuais complexas. Em um dos casos, isso levou à perda de uma vulnerabilidade crítica. Além disso, o sistema mostrou maior propensão a falsos positivos, interpretando mensagens inofensivas da rede como sinais de invasão bem-sucedida.

Os pesquisadores destacam que o desempenho superior da IA está fortemente ligado a ambientes baseados em texto e comandos estruturados, nos quais o modelo consegue interpretar e agir com mais eficiência. Interfaces gráficas, por outro lado, ainda representam um obstáculo relevante para agentes autônomos desse tipo.

O experimento ocorre em um contexto mais amplo de crescente uso de IA em atividades ofensivas e defensivas no campo digital. Relatórios recentes indicam que grupos criminosos e atores estatais já vêm explorando modelos generativos para criar campanhas de phishing, falsificar documentos e automatizar ataques cibernéticos. Ao mesmo tempo, empresas de segurança observam um aumento significativo no volume e na sofisticação das investidas digitais.

Nesse cenário, o estudo de Stanford sugere que agentes autônomos de IA podem se tornar ferramentas centrais tanto para defesa quanto para ataque em ambientes corporativos e institucionais. A capacidade de operar continuamente, analisar múltiplos vetores ao mesmo tempo e reduzir custos tende a redesenhar o mercado de cibersegurança e a dinâmica entre humanos e máquinas nesse campo.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada
Imagem do ícone
Notícias
Imagem do ícone
Revistas
Imagem do ícone
Materiais
Imagem do ícone
Eventos
Imagem do ícone
Marketing
Imagem do ícone
Sustentabilidade
Notícias relacionadas