ITF Portal - Banner Topo
Slot: /23408374/itf-ad-banner-topo
720x300, 728x90, 728x210, 970x250, 970x90, 1190x250

Governança e ética no desenvolvimento de sistemas de IA 

O desenvolvimento de sistemas que utilizam inteligência artificial já faz parte da realidade de muitas empresas no Brasil e no mundo. Essas soluções estão presentes em diversos setores da economia e impactam diretamente as nossas vidas, seja na oferta de serviços, na análise de perfis, na tomada de decisões automatizadas ou no suporte a processos […]

Publicado: 11/03/2026 às 17:32
Leitura
5 minutos
Governança e ética no desenvolvimento de sistemas de IA 
Construção civil — Foto: Reprodução

O desenvolvimento de sistemas que utilizam inteligência artificial já faz parte da realidade de muitas empresas no Brasil e no mundo. Essas soluções estão presentes em diversos setores da economia e impactam diretamente as nossas vidas, seja na oferta de serviços, na análise de perfis, na tomada de decisões automatizadas ou no suporte a processos internos. Diante desse cenário, cresce a necessidade de que as empresas desenvolvedoras adotem boas práticas de governança desde a concepção das soluções, garantindo que a inovação caminhe lado a lado com a responsabilidade.  

A governança de IA compreende um conjunto de diretrizes, estruturas e responsabilidades destinadas a garantir que o desenvolvimento, a implantação e o uso de sistemas de inteligência artificial estejam alinhados com princípios éticos, legais e sociais. Para as empresas desenvolvedoras de sistemas de IA, isso representa um novo paradigma, pois além de projetar algoritmos eficientes, é preciso torná-los compreensíveis, auditáveis, seguros e justos.  

Um dos primeiros pilares dessa governança é a transparência, que deve ser encarada em duas frentes: quanto ao uso e quanto à operação. A transparência quanto ao uso exige informar o usuário que está diante de um sistema de IA e qual seu nível de autonomia. Já a transparência quanto à operação trata de aspectos internos do sistema, como ele funciona, quais dados utiliza e quais são os critérios de decisão. Ainda que a explicabilidade total nem sempre seja possível em modelos mais complexos (como os baseados em deep learning), as empresas devem documentar decisões de projeto, selecionar modelos mais interpretáveis sempre que possível e adotar práticas como logs de decisão, testes de vieses e validações externas, sempre preservando os segredos do negócio e propriedade intelectual.  

Outro princípio essencial é a prestação de contas (accountability). A governança exige que seja possível identificar quem é responsável pelo comportamento do sistema e quais medidas foram tomadas para mitigar riscos. Isso implica estruturar equipes multidisciplinares, revisar dados de treinamento quanto a preconceitos estruturais e prever canais para contestação humana de decisões automatizadas, medidas que devem ser consideradas desde as etapas iniciais de desenvolvimento.  

Leia mais: Quando as máquinas “não escutam”: inteligência artificial, golpes e a proteção dos idosos

Para apoiar essa jornada, recomenda-se a estruturação da governança em fases bem definidas: Planejamento: Definição de objetivos, escopo do sistema e identificação de riscos éticos e jurídicos; Design responsável: Escolha de modelos e dados alinhados a critérios de privacidade e explicabilidade; Implementação técnica com responsabilidade: Documentação de decisões, avaliação de vieses e testes de robustez; Monitoramento contínuo: Auditorias internas, canais de denúncia, medição de impacto e atualização do modelo; Engajamento e comunicação: Diálogo com stakeholders, usuários e órgãos reguladores, garantindo confiança e clareza.  

É importante reconhecer que a intensidade das medidas de governança deve ser proporcional ao risco que o sistema de IA oferece. Sistemas que impactam diretamente direitos fundamentais, como os usados em áreas de saúde, crédito ou segurança pública, naturalmente exigirão um grau mais elevado de controle, transparência e supervisão. Por outro lado, soluções de baixo impacto, como ferramentas de apoio administrativo interno por exemplo, pode adotar estrutura de governança mais leve, desde que preserve princípios básicos de responsabilidade e segurança. Essa abordagem baseada em risco evita excessos regulatórios e permite que a inovação floresça de maneira equilibrada, respeitando os limites éticos e jurídicos relacionados.  

O Brasil avança com o PL 2338/2023, que propõe a regulação do uso de sistemas de inteligência artificial, sobretudo aqueles classificados como de alto risco. O projeto traz princípios como não discriminação, supervisão humana, segurança e transparência, estabelecendo obrigações que impactam diretamente a atividade das empresas desenvolvedoras. Paralelamente, normas técnicas como a ISO/IEC 22989:2022, que estabelece definições, classificações e princípios fundamentais sobre sistemas de IA, oferecem suporte conceitual e terminológico para o desenvolvimento ético, transparente e seguro.  

Por isso, é fundamental que empresas desenvolvedoras de sistemas de IA não esperem a aprovação de uma regulação definitiva para adotar boas práticas de governança. O momento é de antecipar riscos, incorporar critérios éticos ao design de sistemas e compreender que a confiança do mercado e da sociedade será o novo diferencial competitivo.  

A governança de IA não é uma barreira à inovação, é um caminho para que ela aconteça de forma sustentável, inclusiva e segura, sendo que as empresas que desenvolvem sistemas de IA têm papel central nesse processo. 

Thomaz Côrte Real é consultor jurídico da Associação Brasileira das Empresas de Software (ABES)

 

 

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada
Imagem do ícone
Notícias
Imagem do ícone
Revistas
Imagem do ícone
Materiais
Imagem do ícone
Eventos
Imagem do ícone
Marketing
Imagem do ícone
Sustentabilidade
Autor
Notícias relacionadas