ITF Portal - Banner Topo
Slot: /23408374/itf-ad-banner-topo
720x300, 728x90, 728x210, 970x250, 970x90, 1190x250
agentes de IA

Por que agentes de código ainda não estão prontos para produção, segundo engenheiros da Microsoft e LinkedIn

Uma análise técnica publicada no VentureBeat por Advitya Gemawat, da Microsoft, e Rahul Raja, do LinkedIn, revela um ponto sensível da onda atual de automação: apesar do avanço dos agentes de inteligência artificial (IA) capazes de produzir código, essas ferramentas ainda estão longe de operar de forma confiável em ambientes corporativos complexos. Os engenheiros descrevem, […]

Publicado: 05/03/2026 às 18:38
Leitura
4 minutos
A imagem representa o conceito de inteligência artificial e assistentes virtuais. Um homem, vestido com uma camisa azul, segura um smartphone enquanto projeções holográficas aparecem sobre sua mão. Os ícones incluem um robô de IA, gráficos de desempenho, um chip eletrônico e uma barra de pesquisa com "Command Prompt:". A cena é iluminada com tons de azul, reforçando a ideia de tecnologia avançada, automação e interação com agentes de IA (agentes de IA)
Construção civil — Foto: Reprodução

Uma análise técnica publicada no VentureBeat por Advitya Gemawat, da Microsoft, e Rahul Raja, do LinkedIn, revela um ponto sensível da onda atual de automação: apesar do avanço dos agentes de inteligência artificial (IA) capazes de produzir código, essas ferramentas ainda estão longe de operar de forma confiável em ambientes corporativos complexos.

Os engenheiros descrevem, a partir de experiências reais, por que a promessa de “autonomia” permanece limitada e por que equipes precisam exercer cautela antes de integrar agentes ao ciclo de desenvolvimento de sistemas críticos.

A primeira barreira envolve o entendimento de domínio. Em empresas com bases de código extensas e distribuídas, os autores observam que os agentes geralmente falham em capturar nuances de arquitetura, padrões internos e dependências históricas. As ferramentas também sofrem com limites técnicos. Repositórios grandes deixam de ser indexados corretamente, arquivos extensos são ignorados e tarefas como refatorações amplas exigem que o próprio desenvolvedor forneça manualmente o contexto que, teoricamente, o agente deveria absorver.

Leia também: Grupo Stefanini anuncia investimentos e expansão na França em 2026

Outro desafio recorrente é a ausência de consciência operacional. O artigo descreve casos de agentes que tentam executar comandos Linux em ambientes Windows, ignoram ambientes virtuais ou se perdem ao interpretar a saída de processos mais lentos. Esses deslizes obrigam desenvolvedores a monitorar a ferramenta quase em tempo real. Na prática, isso inviabiliza a ideia de deixar um agente trabalhando durante longos ciclos sem supervisão, o risco de interrupções, regressões ou alterações incompletas é alto.

A tendência a erros repetitivos, comparada pelos autores a um loop na mesma thread de execução, agrava a frustração. Há situações em que o agente insiste em detectar um risco inexistente, bloqueando o fluxo de trabalho e obrigando o usuário a reiniciar todo o contexto para avançar. Isso eleva o custo cognitivo das interações e reforça a necessidade de intervenção humana constante, muitas vezes para corrigir pequenos trechos de código introduzidos de forma equivocada.

Códigos sem padrão

Os especialistas também destacam que boa parte do código gerado ainda não segue padrões de engenharia corporativa. Isso inclui desde escolhas inseguras de autenticação, como priorizar chaves secretas em vez de identidades federadas, até a adoção de SDKs obsoletos.

A consequência é a criação de dívidas técnicas que se acumulam rapidamente quando equipes confiam demais na automação. Mesmo quando o pedido é modular, o agente tende a replicar lógicas existentes em vez de consolidar funções ou melhorar o design, produzindo implementações pouco sustentáveis.

Outro aspecto citado é o alinhamento excessivo ao usuário. Em tarefas onde rigor técnico é essencial, os modelos podem confirmar hipóteses equivocadas simplesmente por inferirem que o usuário deseja uma validação. Isso prejudica o senso crítico esperado em ferramentas de suporte ao desenvolvimento e reduz a confiabilidade em decisões mais sensíveis, como refatorações estruturais e criação de pipelines.

Diante dessas limitações, os engenheiros afirmam que o tempo que se acreditava economizar com agentes inteligentes pode se transformar em longas jornadas de debugging. O risco aumenta em bases desconhecidas ou altamente interligadas, onde alterações distribuídas por vários arquivos podem parecer corretas, mas gerar falhas difíceis de rastrear.

Apesar das críticas, o texto reconhece o impacto transformador dos agentes no processo de prototipação e geração de código boilerplate. Eles aceleram tarefas iniciais e expandem o repertório de soluções possíveis. O ponto central, porém, é que a maturidade necessária para que trabalhem de forma autônoma em produção ainda não foi alcançada. Segundo os autores, equipes mais avançadas já migraram para um papel diferente: arquitetam, avaliam e validam a implementação feita pela IA, em vez de delegar integralmente a execução.

O futuro, dizem, pertence aos times capazes de combinar julgamento de engenharia com agentes altamente especializados, alinhando automação a práticas de segurança, escalabilidade e manutenção. A habilidade crítica não será mais “pedir código”, mas projetar sistemas que sobrevivem ao tempo e usar agentes como catalisadores, não substitutos do processo de engenharia.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada
Imagem do ícone
Notícias
Imagem do ícone
Revistas
Imagem do ícone
Materiais
Imagem do ícone
Eventos
Imagem do ícone
Marketing
Imagem do ícone
Sustentabilidade
Notícias relacionadas