ITF Portal - Banner Topo
Slot: /23408374/itf-ad-banner-topo
720x300, 728x90, 728x210, 970x250, 970x90, 1190x250
ChatGPT
cibersegurança
Microsoft
openai

Microsoft e OpenAI: hackers utilizam IA para aprimorar ciberataques

Em uma nova pesquisa conjunta, a Microsoft e a OpenAI revelam uma preocupante tendência no cibercrime. Hackers maliciosos estão incorporando inteligência artificial para aumentar a eficácia de seus ataques cibernéticos. Grupos apoiados por nações como Rússia, Coreia do Norte, Irã e China estão aproveitando grandes modelos de linguagem (LLMs), como o ChatGPT, para aprimorar seus […]

Publicado: 07/03/2026 às 09:56
Leitura
3 minutos
hackers black friday
Construção civil — Foto: Reprodução

Em uma nova pesquisa conjunta, a Microsoft e a OpenAI revelam uma preocupante tendência no cibercrime. Hackers maliciosos estão incorporando inteligência artificial para aumentar a eficácia de seus ataques cibernéticos. Grupos apoiados por nações como Rússia, Coreia do Norte, Irã e China estão aproveitando grandes modelos de linguagem (LLMs), como o ChatGPT, para aprimorar seus métodos de pesquisa, criação de scripts e até mesmo o desenvolvimento de técnicas de engenharia social.

“É importante ressaltar que, em nossa pesquisa com a OpenAI, não identificamos ataques significativos usando os LLMs que monitoramos de perto. Ao mesmo tempo, sentimos que esta é uma pesquisa importante para publicar, a fim de expor movimentos incrementais em estágios iniciais que observamos atores de ameaças bem conhecidos tentando realizar, e compartilhar informações sobre como estamos bloqueando e contra-atacando-os com a comunidade de defensores”, disse a Microsoft.

Veja também: Mozilla anuncia nova CEO, demite e foca em Firefox e IA

A Microsoft revelou que o grupo Strontium, vinculado à inteligência militar russa, está utilizando LLMs para compreender protocolos de comunicação via satélite e automatizar operações técnicas. Além disso, grupos hackers norte-coreanos, iranianos e chineses também estão empregando LLMs para diversas atividades, incluindo pesquisa de vulnerabilidades, criação de e-mails de phishing convincentes e otimização de ferramentas existentes.

Essa tendência levanta preocupações sobre o uso cada vez mais sofisticado de IA em ciberataques, como destacado por um oficial da Agência de Segurança Nacional. “A fraude alimentada por IA é outra preocupação crítica. A síntese de voz é um exemplo disso, onde uma amostra de voz de três segundos pode treinar um modelo para soar como qualquer pessoa”, diz a Microsoft. “Até algo tão inofensivo como sua saudação de correio de voz pode ser usada para obter uma amostragem suficiente”.

A Microsoft está respondendo à ameaça com a construção de um “Security Copilot“, um assistente de IA para ajudar os profissionais de segurança a identificar violações e compreender melhor os dados gerados pelas ferramentas de cibersegurança.

“Embora os atacantes permaneçam interessados em IA e explorem as capacidades e controles de segurança das tecnologias atuais, é importante manter esses riscos em contexto. Como sempre, práticas de higiene, como autenticação multifatorial (MFA) e defesas de Zero Trust, são essenciais, pois os atacantes podem usar ferramentas baseadas em IA para aprimorar seus ataques cibernéticos existentes que dependem de engenharia social e na busca de dispositivos e contas não seguras”, dizem as empresas sobre a pesquisa.

*Com informações do The Verge

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada
Imagem do ícone
Notícias
Imagem do ícone
Revistas
Imagem do ícone
Materiais
Imagem do ícone
Eventos
Imagem do ícone
Marketing
Imagem do ícone
Sustentabilidade
Notícias relacionadas