A inteligência artificial (IA) está redefinindo o terreno da engenharia social, tornando golpes mais convincentes, personalizados e difíceis de detectar. Segundo análise publicada pelo TechRadar, criminosos passaram a usar modelos avançados de linguagem e ferramentas de deepfake para manipular comportamentos com precisão inédita, reduzindo sinais que antes ajudavam a identificar fraudes. Mensagens com erros de […]
A inteligência artificial (IA) está redefinindo o terreno da engenharia social, tornando golpes mais convincentes, personalizados e difíceis de detectar. Segundo análise publicada pelo TechRadar, criminosos passaram a usar modelos avançados de linguagem e ferramentas de deepfake para manipular comportamentos com precisão inédita, reduzindo sinais que antes ajudavam a identificar fraudes.
Mensagens com erros de gramática ou saudações genéricas dão lugar a comunicações fluidas, adaptadas ao contexto e escritas no estilo de executivos ou fornecedores reais. A tecnologia também permite criar áudios e vídeos falsos que imitam a voz ou a aparência de um CEO em minutos, técnica já associada a golpes milionários.
Um levantamento da LevelBlue mostra que 59% das empresas acham mais difícil distinguir interações legítimas de contatos maliciosos. Apesar disso, apenas uma minoria investe em treinamentos contínuos ou em programas estruturados de conscientização.
A dificuldade não está apenas na linguagem natural aprimorada. Os invasores combinam engenharia social com roubo de credenciais, reconhecimento automatizado e exploração da cadeia de suprimentos.
Esse conjunto transforma golpes que antes dependiam quase exclusivamente da vulnerabilidade humana em ameaças sistêmicas. Para os atacantes, é mais simples enganar pessoas do que invadir sistemas e a IA fornece velocidade, automação e escala.
Leia mais: Comunicação é a competência-chave que definirá o futuro dos CIOs, diz Renata Barcelos
Especialistas destacam um conjunto de técnicas que está redefinindo os golpes digitais:
Troca dinâmica de vetores
Criminosos iniciam com um e-mail aparentemente inofensivo e, após medir engajamento, introduzem novos formatos como chamadas falsas ou vídeos deepfake dentro do mesmo fluxo.
Personas digitais em escala
Com dados de redes sociais e informações vazadas, atacantes criam perfis completos, nome, cargo, estilo de escrita, para se infiltrar em equipes internas.
Deepfakes em momentos estratégicos
Áudios ou vídeos sintéticos surgem como continuidade natural de uma conversa: instruções urgentes, pedidos de transferência ou validação de acessos.
Refinamento contínuo de prompts
Ajustes sucessivos tornam mensagens cada vez mais convincentes, moldadas ao contexto da organização e à forma de comunicação dos líderes. Esses padrões embaralham o conceito do que parece “normal” no ambiente digital e desafiam até profissionais experientes de segurança.
Defesa exige tecnologia, processos e cultura
Embora controles técnicos, como filtros avançados, análise comportamental e mecanismos de detecção de deepfakes, sejam essenciais, eles não são suficientes. Ataques habilitados por IA exploram julgamentos humanos, não vulnerabilidades de código. A recomendação central dos especialistas é combinar ferramentas inteligentes com processos claros e uma cultura que incentive verificação.
A IA ampliou o alcance e a sofisticação dos golpes, mas também reforçou o papel central da tomada de decisão humana. Organizações preparadas são aquelas que combinam tecnologia, processos claros e um ambiente que valoriza pensamento crítico e verificação.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!