Crédito
ética
Fico
IA
inteligência artificial

Os limites da inteligência artificial ética para gestão de risco de crédito

A Inteligência Artificial (IA) tem sido usada em diferentes áreas e está tão presente no dia a dia das pessoas que pode passar despercebida. A lista de ferramentas que leva IA embarcada – e é usada por milhões de pessoas -, é imensa: assistentes de voz, rotas de tráfego, reconhecimento facial, serviços de streaming e […]

Publicado: 06/12/2025 às 08:26
Leitura
5 minutos
IA, inteligência artificial, robô, robótica
Construção civil — Foto: Reprodução

A Inteligência Artificial (IA) tem sido usada em diferentes áreas e está tão presente no dia a dia das pessoas que pode passar despercebida. A lista de ferramentas que leva IA embarcada – e é usada por milhões de pessoas -, é imensa: assistentes de voz, rotas de tráfego, reconhecimento facial, serviços de streaming e as redes sociais são alguns exemplos clássicos. No segmento financeiro não é diferente.

Há décadas, a Inteligência Artificial desempenha um papel importantíssimo que vai desde uma avaliação de crédito e fraudes, passando pelo onboarding e experiência do cliente, e chegando, inclusive, no papel social de contribuir para a inclusão financeira.

Mas, há limite para o aprendizado e para uso ético dessas informações?

Para falarmos do uso da Inteligência Artificial no setor financeiro e os limites ou riscos da ferramenta para tomada de decisão, é preciso dar um passo atrás e explicar o papel da IA e do Machine Learning nesse processo.

A Inteligência Artificial (IA) e o Machine Learning (ML) são conceitos que estão relacionados, mas, atuam de forma independente. Enquanto o Machine Learning atua com a capacidade de aprendizado a partir de um conjunto de dados, a IA direciona ações baseadas em dados.

Dito isto, reforço a mensagem principal desse artigo: a máquina não aprende sozinha. Precisa de olhos e do cérebro humano para conduzir, questionar, alinhar e retirar vieses para uma operação explicável, ética e auditável. Ou seja, é preciso retroalimentar o sistema para categorizar riscos considerando questões sociais, ambientais e de governança corporativa.

Um artigo da Wharton University of Pennsylvania destacou quatro categorias de riscos: relativos a dados, ataque aos sistemas; testes e confiabilidade; e compliance. A desatenção a um desses aspectos pode gerar um efeito adverso, que vai desde a aprovação ou reprovação indevida de um cliente e/ou de uma compra, até abalar a reputação de uma marca/empresa.

Limitações de aprendizado e qualidade de dados

O primeiro tópico refere-se a reconhecer as limitações do sistema de IA. Por mais completa que seja a base de dados, diferentes cenários resultam em julgamentos diferentes e as máquinas não conseguem ponderar o contexto em que os dados foram gerados.

Portanto, as decisões podem ser tomadas de forma errônea, discriminatória ou, ainda, desalinhadas com o objetivo principal da instituição, se não houver uma revisão cuidadosa e criteriosa da base que alimenta a Inteligência Artificial.

Ataques

As categorias que mais concentram os ataques aos sistemas de Inteligência Artificial e Machine Learning estão relacionadas à privacidade de dados, em que o invasor busca vazar informações confidenciais e sensíveis dos clientes; ou ao envenenamento de dados, que acontece quando o invasor contamina os dados coletados para criar um perfil tendencioso, o que compromete o retreinamento do modelo.

Testes e Confiabilidade

Não há sistema de Inteligência Artificial e de Machine Learning que sobreviva sem revisões periódicas e questionamentos sobre o que se espera captar com aquela tecnologia. Olhar com superficialidade para os resultados de um modelo pode gerar respostas duvidosas.

Portanto, é importante acompanhar e questionar frequentemente as saídas do modelo, com o objetivo de corrigir rotas e trazer decisões com mais qualidade e representatividade.

Nesse sentido, a questão da transparência também é evidenciada. E para nós aqui no Brasil – que ainda temos uma parcela significativa da população com restrição ao crédito-, o tema ganha mais relevância, uma vez que por meio da IA e do ML é possível incluir pessoas no sistema de crédito ou ao menos, propor mudanças e soluções que contribuam para isso.

Compliance

As regulações devem evoluir à medida que os sistemas de Inteligência Artificial e os cenários são transformados. A questão do score, por exemplo, tem diferentes entendimentos mundo afora. Nos Estados Unidos, todos os clientes que têm o crédito negado possuem o direito de saber o motivo.

Se a mesma prática estivesse em vigor aqui no Brasil, seria uma oportunidade de conscientizar o cliente dos pontos de atenção e como melhorar essa pontuação.

Melhores práticas

A mitigação de riscos perpassa um complexo processo de inclusão e alimentação de dados, revisão contínua de vieses e cenários, com foco em reduzir a questão discriminatória, garantindo também a explicabilidade e a governança.

Um comitê de ética diverso, ajuda a pensar diferente, compartilha de aprendizados e vivências variadas e olhares para lugares incomuns, o que contribui para inserir orientações no treinamento e aplicação da Inteligência Artificial ética.

A proposta é garantir que os sistemas de Inteligência Artificial e Machine Learning sejam inteligíveis, adaptáveis, confiáveis e não uma caixa preta de informações.

É com essa mentalidade que evoluímos no uso da tecnologia.

*Celina Koshimizu é consultora de negócios da FICO

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada
Imagem do ícone
Notícias
Imagem do ícone
Revistas
Imagem do ícone
Materiais
Imagem do ícone
Eventos
Imagem do ícone
Marketing
Imagem do ícone
Sustentabilidade
Notícias relacionadas