ChatGPT
IA
inteligência artificial
openai

OpenAI usará LLM GPT-4 para moderação de conteúdo e para evitar vieses

A OpenAI, criadora do ChatGPT, está trabalhando no desenvolvimento de seu modelo amplo de linguagem (LLM) GPT-4 para automatizar o processo de moderação de conteúdo em plataformas digitais, especialmente em redes sociais. A OpenAI está explorando a capacidade do GPT-4 de interpretar regras e nuances em documentações extensas de políticas de conteúdo, juntamente com sua […]

Publicado: 07/12/2025 às 05:40
Leitura
5 minutos
ChatGPT GPT4 GPT-4 GPT OpenAI
Construção civil — Foto: Reprodução

A OpenAI, criadora do ChatGPT, está trabalhando no desenvolvimento de seu modelo amplo de linguagem (LLM) GPT-4 para automatizar o processo de moderação de conteúdo em plataformas digitais, especialmente em redes sociais.

A OpenAI está explorando a capacidade do GPT-4 de interpretar regras e nuances em documentações extensas de políticas de conteúdo, juntamente com sua habilidade de se adaptar instantaneamente a atualizações de políticas, conforme afirmado em um post no blog da empresa.

“Acreditamos que isso oferece uma visão mais positiva do futuro das plataformas digitais, onde a IA pode ajudar a moderar o tráfego on-line de acordo com políticas específicas da plataforma e aliviar o fardo mental de um grande número de moderadores humanos”, disse a empresa, acrescentando que qualquer pessoa com acesso à API da OpenAI pode implementar seu próprio sistema de moderação.

Leia mais: Como construir confiança dos funcionários à medida que a IA ganha terreno

Em contraste com a prática atual de moderação de conteúdo, que é completamente manual e demorada, o modelo de linguagem GPT-4 da OpenAI pode ser utilizado para criar políticas de conteúdo personalizadas em questão de horas, afirmou a empresa.

Para fazer isso, cientistas de dados e engenheiros podem utilizar um guia de política elaborado por especialistas em políticas e conjuntos de dados contendo exemplos reais de violações de política, a fim de rotular os dados.

Humanos ajudarão a testar a moderação de conteúdo por IA

Em seguida, o GPT-4 lê a política e atribui rótulos ao mesmo conjunto de dados, sem ver as respostas. Ao examinar as discrepâncias entre os julgamentos do GPT-4 e os de um humano, os especialistas em políticas podem pedir ao GPT-4 que apresente a razão por trás de seus rótulos, analise a ambiguidade nas definições de política, resolva a confusão e forneça mais esclarecimentos na política de acordo com isso”, afirmou a empresa.

Essas etapas podem ser repetidas por cientistas de dados e engenheiros antes que o modelo de linguagem grande possa gerar resultados satisfatórios, acrescentou, explicando que o processo iterativo resulta em políticas de conteúdo refinadas que são traduzidas em classificadores, permitindo a implementação da política e da moderação de conteúdo em escala.

Outras vantagens do uso do GPT-4 em comparação com a abordagem manual atual para moderação de conteúdo incluem a redução da rotulagem inconsistente e um ciclo de feedback mais rápido, de acordo com a OpenAI.

Leia também: O que é a IA generativa?

“As pessoas podem interpretar as políticas de maneira diferente ou alguns moderadores podem levar mais tempo para assimilar as novas mudanças na política, levando a rótulos inconsistentes. Em comparação, os LLMs são sensíveis a diferenças granulares na redação e podem se adaptar instantaneamente a atualizações de política para oferecer uma experiência de conteúdo consistente para os usuários”, afirmou a empresa.

A nova abordagem, segundo a empresa, também requer menos esforço em termos de treinamento do modelo.

Além disso, a OpenAI afirma que essa abordagem difere da chamada IA constitucional, na qual a moderação de conteúdo depende do próprio julgamento internalizado do modelo sobre o que é seguro. Várias empresas, incluindo a Anthropic, adotaram uma abordagem de IA constitucional ao treinar seus modelos para serem livres de viés e erros.

No entanto, a OpenAI alertou que viés indesejados podem se infiltrar nos modelos de moderação de conteúdo durante o treinamento.

“Assim como em qualquer aplicativo de IA, os resultados e a saída precisarão ser cuidadosamente monitorados, validados e refinados por meio da manutenção de seres humanos no processo”, afirmou a empresa.

Veja também: O que está acontecendo com o Google Assistente?

Especialistas do setor consideram que a abordagem da OpenAI para moderação de conteúdo tem potencial. “O GPT-4 é um modelo super capaz, e a OpenAI tem uma corrente interminável de usuários tentando fazer com que ela faça coisas prejudiciais. O que é ótimo como dados de treinamento”, disse Tobias Zwingmann, Sócio-Gerente da empresa de serviços de IA Rapyd.AI.

Se o modelo de linguagem grande da OpenAI puder ser utilizado com sucesso para a moderação de conteúdo, isso abrirá um mercado de bilhões de dólares para a empresa.

O mercado global de serviços de moderação de conteúdo, de acordo com um relatório da Allied Market Research, foi avaliado em US$ 8,5 bilhões em 2021 e projeta alcançar US$ 26,3 bilhões até 2031, crescendo a uma taxa de crescimento anual composta de 12,2% de 2022 a 2031.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada
Imagem do ícone
Notícias
Imagem do ícone
Revistas
Imagem do ícone
Materiais
Imagem do ícone
Eventos
Imagem do ícone
Marketing
Imagem do ícone
Sustentabilidade
Notícias relacionadas