ITF Portal - Banner Topo
Slot: /23408374/itf-ad-banner-topo
720x300, 728x90, 728x210, 970x250, 970x90, 1190x250
IA
machine learning
malware
segurança
TEMPEST

4 formas de minimizar riscos de segurança com machine learning

Por sua capacidade de classificação de dados, entre outras vantagens, modelos de machine learning vêm sendo utilizados em diferentes aplicações, de comunicação wireless, biometria a tantas outras abarcadas pelo setor empresarial. No entanto, estudos recentes mostram que esses modelos também possuem vulnerabilidades do ponto de vista da segurança digital. Segundo estudo conduzido pelo especialista em cibersegurança […]

Publicado: 07/05/2026 às 09:44
Leitura
2 minutos
Construção civil — Foto: Reprodução

Por sua capacidade de classificação de dados, entre outras vantagens, modelos de machine learning vêm sendo utilizados em diferentes aplicações, de comunicação wireless, biometria a tantas outras abarcadas pelo setor empresarial. No entanto, estudos recentes mostram que esses modelos também possuem vulnerabilidades do ponto de vista da segurança digital.

Segundo estudo conduzido pelo especialista em cibersegurança da Tempest, Paulo Freitas, é possível comprometer modelos de machine learning a partir da introdução de “ruídos imperceptíveis” no dado usando uma técnica conhecida como Ataque Adversarial.

Leia também: Bodytech adota assinatura eletrônica e deixa de imprimir 1,8 milhão de folhas

A técnica é usada para manipular de forma arbitrária a capacidade que uma rede neural possui de identificar e classificar um dado. Com isso, é possível gerar perturbações e induzir o modelo a erros, como por exemplo classificar um malware ou um vírus como um arquivo legítimo.

Para minimizar os riscos inerentes aos modelos, Freitas aponta algumas recomendações para empresas que estão inovando no uso de tecnologias.

Alargar as fronteiras que dividem as categorias de dados

Fronteira é o limite que determina se um dado está classificado da maneira certa ou errada. Adicionar dados que contenham ruídos e utilizar técnicas que gerem perturbação são formas de modificar o treinamento da rede, dificultando a adulteração por tornar os dados do sistema mais complexos.

Remover os ruídos

Criar uma caixa preta de algoritmos e redes neurais de forma que o ruído seja removido antes de fornecer a imagem para o alvo do ataque adversarial.

Detectar a presença de ruídos

Ao invés de remover o ruído, uma solução é simplesmente detectá-lo , pois quando isso é feito já há uma sinalização de um possível problema. Mesmo que não se apresente a solução de imediato, a técnica serve para colocar as equipes de segurança em prontidão.

Ampliar o número de classificadores

Classificadores são os possíveis alvos dos atacantes. Quando se amplia o número, o atacante terá de forçar a maioria dos classificadores a cometerem erro, o que torna menos provável o ataque ter sucesso.

As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada
Imagem do ícone
Notícias
Imagem do ícone
Revistas
Imagem do ícone
Materiais
Imagem do ícone
Eventos
Imagem do ícone
Marketing
Imagem do ícone
Sustentabilidade
Autor
Notícias relacionadas