ITF Portal - Banner Topo
Slot: /23408374/itf-ad-banner-topo
720x300, 728x90, 728x210, 970x250, 970x90, 1190x250
Anthropic

Cientista-chefe da Anthropic alerta que humanidade terá de decidir sobre autonomia da IA até 2030

A corrida pela inteligência artificial (IA) deu mais um passo rumo ao debate existencial nesta semana, após um alerta contundente de Jared Kaplan, cientista-chefe da Anthropic. Em entrevista ao The Guardian, repercutida pelo Times of India, o pesquisador afirmou que a humanidade tem menos de uma década para definir, de forma coordenada, se permitirá que […]

Publicado: 05/03/2026 às 05:02
Leitura
4 minutos
A cena mostra um ambiente escuro com silhuetas de pessoas em primeiro plano, sugerindo um espaço de evento ou conferência. Ao fundo, há um grande painel branco com a palavra “ANTHROP\C” escrita em letras maiúsculas pretas, ocupando a maior parte da tela. A iluminação destaca fortemente o painel, criando contraste com as figuras sombreadas à frente. A composição transmite uma atmosfera moderna e tecnológica, associada à marca Anthropic, conhecida por atuar no setor de inteligência artificial.
Construção civil — Foto: Reprodução

A corrida pela inteligência artificial (IA) deu mais um passo rumo ao debate existencial nesta semana, após um alerta contundente de Jared Kaplan, cientista-chefe da Anthropic. Em entrevista ao The Guardian, repercutida pelo Times of India, o pesquisador afirmou que a humanidade tem menos de uma década para definir, de forma coordenada, se permitirá que sistemas de IA avancem para um estágio de autonomia capaz de se treinar e se aperfeiçoar sozinhos. Para Kaplan, essa escolha representa “a maior decisão” do século.

Formado em Stanford e Harvard, com passagem por CERN, Johns Hopkins e OpenAI antes de cofundar a Anthropic, Kaplan descreveu com clareza seu temor: o momento em que uma IA com inteligência equivalente à humana passa a produzir versões ainda mais poderosas.

Essa dinâmica de “melhoria recursiva”, disse ele ao jornal britânico, pode desencadear tanto avanços transformadores quanto uma perda de controle imprevisível. Segundo sua projeção, governos e sociedade terão de decidir entre 2027 e 2030 até onde estão dispostos a ir.

Até hoje, avalia Kaplan, os esforços de alinhamento, mecanismos que garantem que sistemas ajam conforme interesses humanos, funcionaram de maneira satisfatória.

O problema estaria no ponto de inflexão: o instante em que uma IA supera a capacidade cognitiva humana. “Se você cria um sistema tão capaz quanto você e ele projeta a próxima geração, potencialmente muito mais inteligente, não há como saber qual direção esse processo vai tomar”, afirmou ao Guardian, conforme relatou o TOI.

O cientista também discutiu impactos econômicos de curto prazo. Em sua visão, os efeitos no mercado de trabalho serão mais rápidos do que sugerem projeções tradicionais. Kaplan acredita que a maior parte das atividades operacionais e de base, o que chamou de “trabalhos blue-collar cognitivos”, poderá ser substituída por IA em dois a três anos. O avanço já aparece em ferramentas de modelagem autônoma, como a linha Claude Sonnet 4.5, capaz de executar tarefas completas em computadores, segundo o TOI.

Leia também: Para Werner Vogels, o futuro da IA pertence aos “desenvolvedores renascentistas”

Impacto da tecnologia

Em tom pessoal, Kaplan comentou o impacto da tecnologia sobre o futuro das novas gerações. Ele disse acreditar que seu filho, hoje com seis anos, crescerá em um mundo onde nenhum exercício escolar dependerá de desempenho superior ao das máquinas. Essa constatação, na visão dele, reforça a urgência de construir regras robustas para convivência entre humanos e sistemas superinteligentes.

Apesar das advertências, Kaplan não projeta apenas riscos. Ele destacou que uma trajetória bem controlada poderia desbloquear benefícios profundos, avanços médicos acelerados, segurança reforçada, aumento de produtividade e tempo livre, além de novas descobertas científicas. Esse equilíbrio entre oportunidade e ameaça, disse o cientista, é o que torna o debate tão complexo.

A Anthropic não está sozinha nessa avaliação. O Times of India relembra que Jack Clark, cofundador da empresa, também expressou preocupação com a imprevisibilidade das máquinas avançadas, descrevendo-as como sistemas que não se comportam como “máquinas normais”. Essa inquietação interna traduz o clima de tensão em torno da corrida por inteligência geral artificial (AGI), cujos impactos ainda desafiam legislação, economia e sociedade.

Kaplan observou ainda que enquanto há dúvidas sobre a produtividade atual de aplicações generativas, devido à variabilidade de qualidade e erros, há resultados “extremamente fortes” em áreas como programação, onde modelos já executam projetos completos. Essa assimetria reforça sua visão de que o limite técnico está próximo e que a decisão política precisa acompanhá-lo.

Para o cientista, o mundo está entrando no capítulo mais delicado da história da IA. Se haverá uma explosão de inteligência benigna ou um risco sistêmico, dependerá da escolha que, segundo ele, não pode passar de 2030.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada
Imagem do ícone
Notícias
Imagem do ícone
Revistas
Imagem do ícone
Materiais
Imagem do ícone
Eventos
Imagem do ícone
Marketing
Imagem do ícone
Sustentabilidade
Notícias relacionadas