ITF Portal - Banner Topo
Slot: /23408374/itf-ad-banner-topo
720x300, 728x90, 728x210, 970x250, 970x90, 1190x250
IT Forum Na Mata
Patricia Peck

Juntar equipes despreparadas com IAs mal treinadas é a receita da catástrofe, alerta Patrícia Peck

“IAs mal treinadas e as pessoas mal treinadas. Quando esta dupla está mal treinada, isso só significa uma coisa: catástrofe”. Foi essa a provocação trazida por Patrícia Peck, PhD, especialista em direito digital e sócia-fundadora do Peck Advogados, durante sua fala no IT Forum Na Mata, que trouxe o debate sobre governança e políticas na […]

Publicado: 15/03/2026 às 15:30
Leitura
3 minutos
Patrícia Peck durante o IT Forum Na Mata
Construção civil — Foto: Reprodução

“IAs mal treinadas e as pessoas mal treinadas. Quando esta dupla está mal treinada, isso só significa uma coisa: catástrofe”. Foi essa a provocação trazida por Patrícia Peck, PhD, especialista em direito digital e sócia-fundadora do Peck Advogados, durante sua fala no IT Forum Na Mata, que trouxe o debate sobre governança e políticas na era da inteligência artificial (IA).

No início de sua apresentação, Patrícia lembrou que enquanto a população humana já alcançou a marca de oito milhões de pessoas, já são mais de 1,2 bilhão de chatbots ativos no mundo. O cenário global torna obrigatória a definição de regras que irão reger as interações entre pessoas e agentes e programas de IA dentro de organizações.

A advogada, que desde 2014 mantém um laboratório de robótica dentro de seu escritório, contou que, diante da convivência diária entre humanos e agentes sintéticos, decidiu incluir nos códigos de ética corporativos um capítulo específico sobre a relação entre pessoas, robôs e sistemas de inteligência artificial.

“Um robô sem governança é como um colaborador sem código de conduta”, afirmou durante a apresentação no Distrito Itaqui, nesta sexta-feira (24). “Eles precisam estar sujeitos às mesmas regras de integridade, compliance e supervisão.”

Leia mais: “Pessoas usando IA na organização é diferente da organização usar IA”, enfatiza Alexandre Del Rey

Patrícia destacou que o avanço das tecnologias tem exposto empresas a riscos de segurança e responsabilidade jurídica. Para ela, a maior vulnerabilidade não está nas máquinas, mas na forma como as organizações lidam com elas. “Incidentes de IA acontecem não porque a tecnologia é ruim, mas porque foi mal implementada, mal supervisionada ou mal treinada”, disse.

A necessidade de que as inteligências artificiais corporativas sejam treinadas com dados éticos e revisadas periodicamente também é latente, alertou. Patrícia comparou o processo de aprendizagem das máquinas, por exemplo, ao de uma criança. “IA mal treinada é igual criança mal-educada: repete erro, aprende vício e não sabe distinguir o certo do errado”, afirmou.

Ao final, Patrícia defendeu que o Brasil avance em mecanismos de autorregulação antes mesmo da consolidação de uma lei específica para inteligência artificial. Ela propôs que o mercado estabeleça guias de melhores práticas e padrões mínimos de segurança, comparando o momento atual à época em que o cinto de segurança se tornou obrigatório nos carros. “Estamos sem o cinto de três pontas da IA. Falta um modelo de proteção de fábrica que garanta a integridade de todos”, concluiu.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada
Imagem do ícone
Notícias
Imagem do ícone
Revistas
Imagem do ícone
Materiais
Imagem do ícone
Eventos
Imagem do ícone
Marketing
Imagem do ícone
Sustentabilidade
Notícias relacionadas