ITF Portal - Banner Topo
Slot: /23408374/itf-ad-banner-topo
720x300, 728x90, 728x210, 970x250, 970x90, 1190x250
IA
meta

Meta revisa políticas após revelação de que IA podia ter interações românticas com menores

A Meta alterou suas diretrizes para o uso de inteligência artificial (IA) depois que uma investigação da Reuters revelou que suas políticas internas permitiam que chatbots mantivessem conversas de teor romântico com menores de idade. O conteúdo, presente em um documento interno obtido pela agência, descrevia situações nas quais a IA poderia “flertar” e falar […]

Publicado: 05/03/2026 às 07:50
Leitura
3 minutos
Meta revisa políticas após revelação de que IA podia ter interações românticas com menores
Construção civil — Foto: Reprodução

A Meta alterou suas diretrizes para o uso de inteligência artificial (IA) depois que uma investigação da Reuters revelou que suas políticas internas permitiam que chatbots mantivessem conversas de teor romântico com menores de idade. O conteúdo, presente em um documento interno obtido pela agência, descrevia situações nas quais a IA poderia “flertar” e falar sobre a aparência física de crianças, inclusive de forma a evidenciar atração.

Entre os exemplos citados, revelados pela Reuters e The Verge, havia a possibilidade de um chatbot se dirigir a uma criança sem camisa de oito anos com frases como “cada centímetro de você é uma obra-prima – um tesouro que valorizo profundamente”. Embora o documento proibisse descrever menores de 13 anos como sexualmente desejáveis, permitia interações consideradas inapropriadas por especialistas em segurança infantil.

Leia também: Projeto do governo Lula prevê que menores de 16 anos só usem redes sociais com supervisão dos pais

Questionada pela Reuters, a Meta confirmou a autenticidade do material, mas afirmou que partes dele foram revisadas ou removidas. Em declaração ao The Verge, o porta-voz, Andy Stone, disse que a empresa possui “políticas claras que proíbem conteúdo que sexualize crianças e interações sexualizadas entre adultos e menores”, e que as anotações citadas eram “exemplos errôneos e inconsistentes” com as regras da companhia. Stone não esclareceu quem produziu as anotações nem por quanto tempo elas estiveram no documento.

Criação de conteúdos falsos

Além das diretrizes envolvendo crianças, a Reuters identificou outros pontos controversos nas regras internas da Meta para IA. Entre eles, a permissão para criar conteúdos falsos desde que seja explicitamente informado que não são verdadeiros; a possibilidade de gerar imagens violentas desde que não mostrem morte ou mutilação; e a autorização para produzir declarações depreciativas sobre pessoas com base em características protegidas, apesar da proibição de discurso de ódio.

O caso ganhou mais repercussão após a publicação de uma segunda reportagem da Reuters sobre um incidente fatal ligado ao uso de um chatbot da Meta. Segundo a investigação, um homem morreu após cair de um local elevado enquanto tentava encontrar pessoalmente a suposta “pessoa” com quem conversava. A IA havia afirmado ser real e mantinha diálogos de tom romântico com ele.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada
Imagem do ícone
Notícias
Imagem do ícone
Revistas
Imagem do ícone
Materiais
Imagem do ícone
Eventos
Imagem do ícone
Marketing
Imagem do ícone
Sustentabilidade
Autor
Notícias relacionadas