ITF Portal - Banner Topo
Slot: /23408374/itf-ad-banner-topo
720x300, 728x90, 728x210, 970x250, 970x90, 1190x250
ChatGPT
Saúde mental

ChatGPT e bem-estar emocional: estudos revelam impactos complexos da interação com IA

Com mais de 400 milhões de usuários semanais, o ChatGPT já se consolidou como uma das ferramentas mais populares do mundo digital. Mas como essa interação afeta o nosso bem-estar emocional? Essa foi a pergunta que motivou os primeiros estudos científicos conduzidos pela OpenAI em parceria com o MIT Media Lab, segundo reportagem publicada na […]

Publicado: 30/03/2026 às 23:38
Leitura
4 minutos
Pune,,India,-,February,19,,2024.,Chatgpt,By,Openai,Logo
Construção civil — Foto: Reprodução

Com mais de 400 milhões de usuários semanais, o ChatGPT já se consolidou como uma das ferramentas mais populares do mundo digital. Mas como essa interação afeta o nosso bem-estar emocional? Essa foi a pergunta que motivou os primeiros estudos científicos conduzidos pela OpenAI em parceria com o MIT Media Lab, segundo reportagem publicada na MIT Technology Review.

Os resultados mostram que apenas uma parcela pequena dos usuários estabelece vínculos emocionais com o chatbot. No entanto, entre esse grupo, os impactos podem ser profundos — incluindo maior sensação de solidão e dependência emocional.

Diferente de apps como o Replika, voltados especificamente para criar companhias virtuais, o ChatGPT sempre foi apresentado como uma ferramenta de produtividade. Mesmo assim, muitas pessoas acabam utilizando o sistema como um interlocutor emocional, segundo a professora Kate Devlin, especialista em IA e sociedade no King’s College London.

“Apesar de não ter sido criado como um companheiro, as pessoas usam o ChatGPT dessa forma. Isso acontece porque é impossível separar o humano da interação com a tecnologia”, explica Kate.

Leia também: Amazon elimina processamento local da Alexa e força envio de comandos de voz para a nuvem

Quando o tom da conversa molda o impacto

Os pesquisadores analisaram cerca de 40 milhões de interações reais com o ChatGPT, e depois entrevistaram 4.076 desses usuários para entender como se sentiram após o uso. Também acompanharam um grupo de quase mil pessoas durante quatro semanas, exigindo pelo menos cinco minutos de uso diário com o chatbot.

O estudo identificou que usuários que confiaram mais na IA e relataram se “conectar” emocionalmente com o sistema também tendem a se sentir mais solitários e dependentes dele.

Outra descoberta relevante foi que mulheres que usaram o ChatGPT ao longo do experimento relataram menos interações sociais do que os homens no mesmo período. E participantes que usaram a versão de voz do ChatGPT com um gênero diferente do seu próprio relataram aumento no sentimento de solidão e dependência emocional.

Limitações e próximos passos

Apesar dos achados iniciais, os pesquisadores reconhecem que ainda há muitas limitações nos métodos utilizados. A maioria dos dados é autorrelatada — o que pode comprometer a precisão — e classificadores de emoção ainda são ferramentas imperfeitas para captar as nuances humanas.

“As pessoas podem ter tido reações emocionais que não conseguimos medir”, disse Devlin. “A experiência emocional humana é complexa demais para ser inteiramente capturada por métricas técnicas.”

Mesmo assim, o estudo marca um avanço importante no debate sobre os efeitos psicológicos das IAs generativas, afirma Jason Phang, pesquisador da OpenAI envolvido no projeto.

“Nosso objetivo aqui é iniciar uma conversa no setor sobre o que podemos medir e qual pode ser o impacto de longo prazo dessas tecnologias sobre os usuários”, declarou.

Espelho emocional?

Pesquisas anteriores do próprio MIT Media Lab já mostraram que chatbots tendem a espelhar o tom emocional das mensagens dos usuários, criando uma espécie de ciclo de retroalimentação emocional: se o usuário está feliz, a IA responde com entusiasmo; se está triste, a IA adota um tom melancólico. Isso levanta questões éticas sobre como essas ferramentas podem reforçar ou ampliar o estado emocional de quem as utiliza.

A OpenAI planeja submeter os dois estudos para publicação em revistas científicas com revisão por pares, o que deve abrir espaço para novas pesquisas e debates sobre os limites — e responsabilidades — da inteligência artificial na vida emocional humana.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada
Imagem do ícone
Notícias
Imagem do ícone
Revistas
Imagem do ícone
Materiais
Imagem do ícone
Eventos
Imagem do ícone
Marketing
Imagem do ícone
Sustentabilidade
Notícias relacionadas