chatbots
LGPD
privacidade

Chatbots e a conformidade com a privacidade e proteção dos dados pessoais

A utilização dos chatbots pelas empresas não é nenhuma novidade. Essas ferramentas de comunicação automatizadas (robôs), que simulam o atendimento humano, vêm sendo utilizadas, há algum tempo, por alguns segmentos, como o setor varejista. O chatbot é uma ferramenta tecnológica criada para automatizar tarefas, realizando uma conversa inicial entre os clientes e empresa. Normalmente, os […]

Publicado: 08/12/2025 às 01:54
Leitura
3 minutos
chatbot, chatbots
Construção civil — Foto: Reprodução

A utilização dos chatbots pelas empresas não é nenhuma novidade. Essas ferramentas de comunicação automatizadas (robôs), que simulam o atendimento humano, vêm sendo utilizadas, há algum tempo, por alguns segmentos, como o setor varejista.

O chatbot é uma ferramenta tecnológica criada para automatizar tarefas, realizando uma conversa inicial entre os clientes e empresa. Normalmente, os chatbots possuem limites de interação e não conseguem dar respostas às perguntas que fogem do roteiro previamente definido.

À medida que a tecnologia vai se tornando mais desenvolvida, novos chatbots baseados em inteligência artificial (IA) vão surgindo e junto com eles as preocupações relacionadas com a privacidade e à proteção dos dados pessoais.

Diversas empresas já proibiram, por exemplo, uso do ChatGPT, que é um chatbot de IA, pelos seus funcionários, em razão das preocupações de conformidade relacionadas ao uso de software de terceiros.

Essas restrições não foram feitas apenas pelas empresas. Alguns reguladores ligaram o alerta vermelho em relação à ferramenta e a autoridade italiana, chegou a emitir uma proibição temporária do ChatGPT no país, citando preocupações com a privacidade depois que a própria OpenAI, criadora do ChatGPT, divulgou uma violação.

Leia também: O desafio do gerenciamento de mudanças da IA generativa

O ChatGPT foi disponibilizado ao público no final de novembro de 2022 e, na verdade, não se sabe como as informações coletadas serão utilizadas.

Problemas, relacionados à utilização da ferramenta, tem ocorrido com frequência. Recentemente, nos Estados Unidos, um advogado utilizou a IA da OpenAI na preparação de um recurso, entretanto, houve um questionamento do juiz sobre a existência dos casos citados pelo advogado, quando este admitiu que fez uso do ChatGPT e que não havia percebido que o chatbot criou casos fictícios.

Portanto, para que não ocorram violações aos requisitos de privacidade e segurança previstos na Lei Geral de Proteção de Dados (LGPD), algumas medidas, consideradas como boas práticas, devem ser tomadas pelas empresas.

Dentre essas medidas, o usuário precisa ser informado que a interação está sendo feita com um sistema de inteligência artificial; deve ser informado sobre a finalidade de uso dos seus dados e a duração do tempo em que eles serão utilizados; e deve ser informado sobre a possibilidade de contato direto com um humano, como opção de contato.

A comunicação sobre tratamento de dados necessita ser feita de forma transparente e é importante que as empresas implementem medidas de segurança adequadas para os sistemas de chatbots.

* Vivian Azevedo é advogada responsável pela área de Privacidade e Proteção de Dados Pessoais do Bhering Cabral Advogados

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada
Imagem do ícone
Notícias
Imagem do ícone
Revistas
Imagem do ícone
Materiais
Imagem do ícone
Eventos
Imagem do ícone
Marketing
Imagem do ícone
Sustentabilidade
Autor
Notícias relacionadas