ética
inteligência artificial
regulatório
transparência

Inteligência Artificial: avanços tecnológicos e regulatórios sem ética e transparência são retrocessos

Ao mesmo tempo em que a revolução tecnológica, em especial a propiciada pela Inteligência Artificial (IA), traz exemplos incontestes de progresso em praticamente todas as áreas de nossas vidas, não se pode deixar de lado o imprescindível debate sobre o uso de dados pessoais de qualquer cidadão com base em princípios como ética, transparência e […]

Publicado: 07/12/2025 às 03:21
Leitura
5 minutos
inteligência artificial ai
Construção civil — Foto: Reprodução

Ao mesmo tempo em que a revolução tecnológica, em especial a propiciada pela Inteligência Artificial (IA), traz exemplos incontestes de progresso em praticamente todas as áreas de nossas vidas, não se pode deixar de lado o imprescindível debate sobre o uso de dados pessoais de qualquer cidadão com base em princípios como ética, transparência e responsabilidade.

O relatório Global AI Adoption Index 2021 traz um panorama interessante sobre o uso de Inteligência Artificial no Brasil e esboça as duas faces dessa discussão. Se por um lado, 40% dos profissionais brasileiros de tecnologia afirmam ter adotado ferramentas de IA em suas companhias – quase o dobro comparado ao restante da América Latina – por outro, 79% dos entrevistados relataram que falta de habilidades ou treinamentos para o desenvolvimento e gerenciamento uma IA confiável e explicável é um desafio a ser vencido no país. Eles se referem à ética da tecnologia, um conceito tão elástico quando impreciso, mas que cada vez mais vem sendo estudado e aplicado por diversas empresas e governos.

Os debates em torno do assunto estão a todo vapor na União Europeia, que há tempos se debruça sobre uma proposta de regulação das possíveis ameaças que a IA pode trazer à sociedade, que incluem o uso de sistemas de pontuação social, discriminação, passando por ameaças à privacidade, à dinâmica do emprego e ao estímulo à concorrência.

No Brasil, com uma linguagem bem mais ponderada e propositiva, a Câmara dos Deputados aprovou no último ano o Marco Legal para o uso da IA, que define fundamentos e princípios para o desenvolvimento e aplicação da tecnologia, incluindo diretrizes para o fomento e atuação do poder público.

Recentemente, o Senado brasileiro, local onde o projeto aprovado na Câmara dos Deputados passou a tramitar, instituiu a criação de uma Comissão de Juristas, que terá 120 dias (até o final de julho de 2022) para se debruçar sobre o texto e propor princípios, regras, diretrizes e fundamentos para regular o desenvolvimento e a aplicação da IA no Brasil. Concluídos os trabalhos e tão logo este assunto seja devidamente apreciado seguindo os ritos das casas legislativas, estou confiante de que ele criará as condições necessárias para impulsionar a inovação, o investimento e a segurança jurídica no nosso país. Enquanto isso não acontece, é fundamental que o setor privado adote padrões e práticas mais criteriosas para o desenvolvimento e adoção da IA.

Há quase uma década, venho estudando e participando da construção de práticas empresariais e regulatórias para posicionar a tecnologia com cada vez mais vigor e impacto positivo para a sociedade. E em meio a uma miríade de teses e argumentos, posso afirmar que 4 princípios nada técnicos, mas interdependentes e determinantes, são fundamentais para a construção de qualquer política e/ou algoritmo de IA.

1) Confiança: é a base da comunhão humana e, cada vez mais, o alicerce das relações entre empresas e consumidores. Para que ela seja crescente e perene, não se pode pensar em caminhar neste segmento sem a criação de sistemas que respeitem o dado, a privacidade e as escolhas do cliente.

2) Governança: a maioria das empresas já entende que a construção de algoritmos não pode ficar apenas restrita à lógica da programação. É preciso humanizá-los e, para isto, têm criado comitês ou conselhos internos que discutem a ética da IA. Com uma abordagem multidisciplinar e multidimensional, tais empresas nem sequer consideram desenvolver uma aplicação sem que princípios éticos e de transparência sejam incorporados na construção de seus sistemas.

3) Diversidade e inclusão: Da mesma forma que essa visão têm sido alicerce importante nas estratégias de recursos humanos das corporações, também é essencial para construir e gerenciar sistemas de IA, que são construídos com base no aprendizado dos dados. Como parte da estrutura de governança proposta acima, é fundamental que a força de trabalho responsável pelos mais variados softwares e sistemas de IA das empresas seja composta por profissionais com o maior número de diversidades representadas.

4) Transparência: os processos de tomada de decisão de uma inteligência artificial precisam ser explicáveis, de maneira didática e ao alcance de qualquer usuário interessado em conhecer o racional por trás de uma recomendação, seja ela probabilística ou determinística.

Capital de risco abundante, ecossistema pujante de inovação, mão de obra qualificada e dados, muitos dados, estarão à disposição daqueles que adotarem tais práticas como diferencial competitivo e demonstração inequívoca do seu compromisso com a ética e com a transparência na criação de algoritmos, no desenvolvimento de negócios e na criação de um ambiente regulatório moderno e estável. E que não confundamos cenários positivos, com licença para atropelar debates ou ignorar princípios, sob a pena de transformarmos perspectivas de avanços em retumbantes retrocessos.

*Fabio Rua, diretor de Relações Governamentais da IBM América Latina

As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada
Imagem do ícone
Notícias
Imagem do ícone
Revistas
Imagem do ícone
Materiais
Imagem do ícone
Eventos
Imagem do ícone
Marketing
Imagem do ícone
Sustentabilidade
Autor
Notícias relacionadas