A IA generativa está sendo usada por cibercriminosos não só para escalar operações e acelerar ataques, mas também como alvo: os agentes autônomos de IA também estão na mira. Segundo o Relatório de Caça a Ameaças 2025 da CrowdStrike, divulgado essa semana, eles estão mirando ferramentas usadas para construir agentes de IA – obtendo acesso, […]
A IA generativa está sendo usada por cibercriminosos não só para escalar operações e acelerar ataques, mas também como alvo: os agentes autônomos de IA também estão na mira. Segundo o Relatório de Caça a Ameaças 2025 da CrowdStrike, divulgado essa semana, eles estão mirando ferramentas usadas para construir agentes de IA – obtendo acesso, roubando credenciais e implantando malwares.
Para a empresa de cibersegurança, é um “sinal claro de que sistemas autônomos e identidades de máquina se tornaram uma parte central da superfície de ataque das empresas”. O estudo usou a base de dados sobre ataques da empresa e monitorou 265 “adversários nomeados”.
Vários foram pegos explorando vulnerabilidades em ferramentas para construir agentes de IA, obtendo acesso não autenticado, estabelecendo persistência, coletando credenciais e implantando malwares e ransomwares, diz a Crowdstrike.
Veja também: Maurício Prado, da Monday: liderança em tempos de IA | IT Forum Líderes
“Cada agente de IA é uma identidade sobre-humana: autônoma, rápida e profundamente integrada, tornando-se um alvo de alto valor. Os adversários estão tratando esses agentes como infraestrutura, atacando-os da mesma forma que miram em plataformas SaaS, consoles de nuvem e contas privilegiadas”, pondera Adam Meyers, executivo-chefe de operações contra adversários na CrowdStrike.
A IA generativa também tem sido usada de outras formas. O grupo FAMOUS CHOLLIMA (vinculado à Coreia do Norte) usou a tecnologia para automatizar as fases do seu programa de ataque, incluindo a criação de currículos falsos e a realização de entrevistas com deepfakes até a execução de tarefas técnicas sob identidades falsas.
Outro grupo, o EMBER BEAR, vinculado à Rússia, usou IA generativa para amplificar narrativas pró-Rússia, e o adversário vinculado ao Irã CHARMING KITTEN implantou iscas de phishing criadas com LLMs direcionadas a entidades dos EUA e da União Europeia, diz a empresa.
Além disso, atores de menor nível e hacktivistas estão “abusando da IA” para gerar scripts, segundo a Crowdstrike, além de resolver problemas técnicos e construir malwares. Funklocker e SparkCat seriam exemplos de malwares gerados por IA.
O relatório pode ser baixado (em inglês) nesse link.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!