ITF Portal - Banner Topo
Slot: /23408374/itf-ad-banner-topo
720x300, 728x90, 728x210, 970x250, 970x90, 1190x250
ciberataque
cibersegurança
engenharia social
golpes
IA
inteligência artificial

Como a IA está ampliando golpes de engenharia social e o que empresas podem fazer

A inteligência artificial (IA) está redefinindo o terreno da engenharia social, tornando golpes mais convincentes, personalizados e difíceis de detectar. Segundo análise publicada pelo TechRadar, criminosos passaram a usar modelos avançados de linguagem e ferramentas de deepfake para manipular comportamentos com precisão inédita, reduzindo sinais que antes ajudavam a identificar fraudes. Mensagens com erros de […]

Publicado: 05/03/2026 às 06:51
Leitura
4 minutos
A imagem mostra uma cena tecnológica, provavelmente relacionada a segurança digital ou sistemas avançados. Há um dispositivo eletrônico (parece ser um tablet ou tela sensível ao toque) com gráficos futuristas e elementos de interface digital. (golpes)
Construção civil — Foto: Reprodução

A inteligência artificial (IA) está redefinindo o terreno da engenharia social, tornando golpes mais convincentes, personalizados e difíceis de detectar. Segundo análise publicada pelo TechRadar, criminosos passaram a usar modelos avançados de linguagem e ferramentas de deepfake para manipular comportamentos com precisão inédita, reduzindo sinais que antes ajudavam a identificar fraudes.

Mensagens com erros de gramática ou saudações genéricas dão lugar a comunicações fluidas, adaptadas ao contexto e escritas no estilo de executivos ou fornecedores reais. A tecnologia também permite criar áudios e vídeos falsos que imitam a voz ou a aparência de um CEO em minutos, técnica já associada a golpes milionários.

Um levantamento da LevelBlue mostra que 59% das empresas acham mais difícil distinguir interações legítimas de contatos maliciosos. Apesar disso, apenas uma minoria investe em treinamentos contínuos ou em programas estruturados de conscientização.

A dificuldade não está apenas na linguagem natural aprimorada. Os invasores combinam engenharia social com roubo de credenciais, reconhecimento automatizado e exploração da cadeia de suprimentos.

Esse conjunto transforma golpes que antes dependiam quase exclusivamente da vulnerabilidade humana em ameaças sistêmicas. Para os atacantes, é mais simples enganar pessoas do que invadir sistemas e a IA fornece velocidade, automação e escala.

Leia mais: Comunicação é a competência-chave que definirá o futuro dos CIOs, diz Renata Barcelos

Táticas que tornam ataques mais sofisticados

Especialistas destacam um conjunto de técnicas que está redefinindo os golpes digitais:

Troca dinâmica de vetores
Criminosos iniciam com um e-mail aparentemente inofensivo e, após medir engajamento, introduzem novos formatos como chamadas falsas ou vídeos deepfake dentro do mesmo fluxo.

Personas digitais em escala
Com dados de redes sociais e informações vazadas, atacantes criam perfis completos, nome, cargo, estilo de escrita, para se infiltrar em equipes internas.

Deepfakes em momentos estratégicos
Áudios ou vídeos sintéticos surgem como continuidade natural de uma conversa: instruções urgentes, pedidos de transferência ou validação de acessos.

Refinamento contínuo de prompts
Ajustes sucessivos tornam mensagens cada vez mais convincentes, moldadas ao contexto da organização e à forma de comunicação dos líderes. Esses padrões embaralham o conceito do que parece “normal” no ambiente digital e desafiam até profissionais experientes de segurança.

Defesa exige tecnologia, processos e cultura
Embora controles técnicos, como filtros avançados, análise comportamental e mecanismos de detecção de deepfakes, sejam essenciais, eles não são suficientes. Ataques habilitados por IA exploram julgamentos humanos, não vulnerabilidades de código. A recomendação central dos especialistas é combinar ferramentas inteligentes com processos claros e uma cultura que incentive verificação.

Quatro caminhos apontados por especialistas

  1. Engajamento da liderança
    Risco de IA deve fazer parte da governança organizacional. Boards e líderes técnicos precisam entender como ataques podem afetar APIs, jornadas de clientes e fluxos internos.
  2. Simulações realistas de ataques
    Testes anuais de phishing já não representam o cenário atual. Red teams devem simular cadeias completas: e-mail, áudio, vídeo e tentativas de validação.
  3. Mecanismos híbridos de verificação
    Ferramentas baseadas em IA podem identificar padrões suspeitos, mas decisões críticas exigem checagens humanas e confirmações fora do canal original.
  4. Treinamento contínuo e adaptativo
    Programas atualizados trimestralmente, com cenários reais e evolução constante, ajudam a reduzir pontos cegos.

A inteligência humana como eixo de resiliência

A IA ampliou o alcance e a sofisticação dos golpes, mas também reforçou o papel central da tomada de decisão humana. Organizações preparadas são aquelas que combinam tecnologia, processos claros e um ambiente que valoriza pensamento crítico e verificação.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada
Imagem do ícone
Notícias
Imagem do ícone
Revistas
Imagem do ícone
Materiais
Imagem do ícone
Eventos
Imagem do ícone
Marketing
Imagem do ícone
Sustentabilidade
Notícias relacionadas