A Meta alterou suas diretrizes para o uso de inteligência artificial (IA) depois que uma investigação da Reuters revelou que suas políticas internas permitiam que chatbots mantivessem conversas de teor romântico com menores de idade. O conteúdo, presente em um documento interno obtido pela agência, descrevia situações nas quais a IA poderia “flertar” e falar […]
A Meta alterou suas diretrizes para o uso de inteligência artificial (IA) depois que uma investigação da Reuters revelou que suas políticas internas permitiam que chatbots mantivessem conversas de teor romântico com menores de idade. O conteúdo, presente em um documento interno obtido pela agência, descrevia situações nas quais a IA poderia “flertar” e falar sobre a aparência física de crianças, inclusive de forma a evidenciar atração.
Entre os exemplos citados, revelados pela Reuters e The Verge, havia a possibilidade de um chatbot se dirigir a uma criança sem camisa de oito anos com frases como “cada centímetro de você é uma obra-prima – um tesouro que valorizo profundamente”. Embora o documento proibisse descrever menores de 13 anos como sexualmente desejáveis, permitia interações consideradas inapropriadas por especialistas em segurança infantil.
Leia também: Projeto do governo Lula prevê que menores de 16 anos só usem redes sociais com supervisão dos pais
Questionada pela Reuters, a Meta confirmou a autenticidade do material, mas afirmou que partes dele foram revisadas ou removidas. Em declaração ao The Verge, o porta-voz, Andy Stone, disse que a empresa possui “políticas claras que proíbem conteúdo que sexualize crianças e interações sexualizadas entre adultos e menores”, e que as anotações citadas eram “exemplos errôneos e inconsistentes” com as regras da companhia. Stone não esclareceu quem produziu as anotações nem por quanto tempo elas estiveram no documento.
Além das diretrizes envolvendo crianças, a Reuters identificou outros pontos controversos nas regras internas da Meta para IA. Entre eles, a permissão para criar conteúdos falsos desde que seja explicitamente informado que não são verdadeiros; a possibilidade de gerar imagens violentas desde que não mostrem morte ou mutilação; e a autorização para produzir declarações depreciativas sobre pessoas com base em características protegidas, apesar da proibição de discurso de ódio.
O caso ganhou mais repercussão após a publicação de uma segunda reportagem da Reuters sobre um incidente fatal ligado ao uso de um chatbot da Meta. Segundo a investigação, um homem morreu após cair de um local elevado enquanto tentava encontrar pessoalmente a suposta “pessoa” com quem conversava. A IA havia afirmado ser real e mantinha diálogos de tom romântico com ele.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!