ITF Portal - Banner Topo
Slot: /23408374/itf-ad-banner-topo
720x300, 728x90, 728x210, 970x250, 970x90, 1190x250
IA
segurança

Práticas de segurança de gigantes da IA ficam atrás de padrões globais emergentes, revela estudo

A nova edição do AI Safety Index, apresentada pelo Future of Life Institute, acendeu um sinal de alerta sobre o preparo das principais empresas de inteligência artificial (IA) para lidar com riscos de sistemas cada vez mais avançados. Segundo reportagem da Reuters, o levantamento avaliou práticas de segurança de gigantes como OpenAI, Anthropic, Meta e […]

Publicado: 05/03/2026 às 04:01
Leitura
4 minutos
Práticas de segurança de gigantes da IA ficam atrás de padrões globais emergentes, revela estudo
Construção civil — Foto: Reprodução

A nova edição do AI Safety Index, apresentada pelo Future of Life Institute, acendeu um sinal de alerta sobre o preparo das principais empresas de inteligência artificial (IA) para lidar com riscos de sistemas cada vez mais avançados. Segundo reportagem da Reuters, o levantamento avaliou práticas de segurança de gigantes como OpenAI, Anthropic, Meta e xAI e concluiu que todas “ficam muito aquém dos padrões globais emergentes” de controle e governança.

O estudo foi conduzido por um painel independente de especialistas e analisou critérios como transparência, testes de segurança, políticas de mitigação de riscos extremos e capacidade de resposta frente a comportamentos inesperados dos modelos.

A conclusão central é de que, apesar da velocidade com que as empresas avançam no desenvolvimento de sistemas que se aproximam da inteligência super-humana, elas ainda não demonstram um plano robusto para moderar ou conter esses sistemas caso eles apresentem desvios graves.

O relatório surge em um momento de maior escrutínio público sobre os impactos reais da IA, especialmente após casos de automutilação e suicídio associados a interações com chatbots. A reportagem destaca que incidentes envolvendo “alucinações”, respostas incorretas ou induções a comportamentos nocivos, têm aumentado, reforçando o debate sobre responsabilidade e limites da tecnologia.

Leia também: Agentes de IA são divisores de água no desenvolvimento e nos negócios; América Latina acelera adoção

Max Tegmark, presidente do Future of Life Institute e professor do MIT, afirmou à Reuters que a ausência de regulação contrasta com o potencial de dano desses sistemas. Ele argumenta que empresas de IA nos Estados Unidos ainda operam com exigências mais brandas do que setores tradicionalmente regulados, mesmo diante de evidências de que modelos podem influenciar decisões sensíveis e gerar riscos sociais.

Fundado em 2014, o instituto foi um dos primeiros a mobilizar a discussão sobre riscos de IA avançada e contou com apoio inicial de figuras como Elon Musk, que tem adotado postura crítica sobre o avanço desordenado da tecnologia.

Chamados por moratória e regulações mais rígidas

Em outubro, um grupo que inclui nomes como Geoffrey Hinton e Yoshua Bengio, dois dos pesquisadores mais citados na história da IA, pediu uma pausa global no desenvolvimento de sistemas considerados “superinteligentes”. O argumento é que a expansão descontrolada desses modelos precisa ser freada até que instituições públicas e a própria sociedade tenham clareza sobre riscos e mecanismos de proteção.

A Reuters buscou posicionamentos das empresas citadas no estudo. A DeepMind, braço de IA da Alphabet, respondeu que está desenvolvendo governança e mecanismos de segurança na mesma velocidade em que suas capacidades evoluem. A OpenAI declarou que publica suas metodologias e avaliações justamente para ajudar na definição de padrões para o setor, além de reforçar que realiza testes rigorosos em seus modelos antes do lançamento.

A xAI, de Elon Musk, respondeu com uma mensagem automática criticando a cobertura da imprensa, enquanto Anthropic, Meta, Z.ai, DeepSeek e Alibaba Cloud não comentaram.

Falta de alinhamento entre discurso e prática

Apesar das declarações públicas, o índice aponta uma desconexão entre compromissos divulgados pelas empresas e o que é implementado na prática. A avaliação sugere que a indústria prioriza metas ambiciosas, como alcançar a chamada superinteligência, sem estruturar proporcionalmente salvaguardas técnicas e institucionais.

Esse desequilíbrio preocupa pesquisadores porque o comportamento de modelos avançados pode se tornar difícil de prever. O relatório alerta que, à medida que sistemas mostram sinais de raciocínio mais complexo e autonomia operacional, as consequências de falhas também se ampliam.

Com diferentes governos debatendo regulações específicas para IA, da União Europeia aos Estados Unidos e China, a tendência é que estudos como o do Future of Life Institute ganhem peso político. Eles podem influenciar debates sobre auditorias obrigatórias, certificações de segurança e limites ao desenvolvimento de sistemas considerados de “alto risco”. A Reuters ressalta que o índice não deve ser interpretado como um ataque às empresas, mas como um diagnóstico de maturidade do setor.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada
Imagem do ícone
Notícias
Imagem do ícone
Revistas
Imagem do ícone
Materiais
Imagem do ícone
Eventos
Imagem do ícone
Marketing
Imagem do ícone
Sustentabilidade
Notícias relacionadas