ITF Portal - Banner Topo
Slot: /23408374/itf-ad-banner-topo
720x300, 728x90, 728x210, 970x250, 970x90, 1190x250
ChatGPT
cibercrime
Netskope
segurança

Especialistas em cibersegurança alertam para riscos do ChatGPT

O ChatGPT, projeto do OpenAI que oferece um chatbot avançado baseado em inteligência artificial, até pode estar revolucionando o mercado. No entanto, especialistas em cibersegurança do Netskope Threat Labs alertam que a ferramenta pode ser usada para fins maliciosos e aconselham a conscientização. Os especialistas descobriram por meio de testes que ferramentas como o ChatGPT […]

Publicado: 20/03/2026 às 23:13
Leitura
4 minutos
Construção civil — Foto: Reprodução

O ChatGPT, projeto do OpenAI que oferece um chatbot avançado baseado em inteligência artificial, até pode estar revolucionando o mercado. No entanto, especialistas em cibersegurança do Netskope Threat Labs alertam que a ferramenta pode ser usada para fins maliciosos e aconselham a conscientização.

Os especialistas descobriram por meio de testes que ferramentas como o ChatGPT têm potencial de ajudar no desenvolvimento de malware e aprimorar os ataques de engenharia social. De acordo com essa análise, elas podem diminuir significativamente a barreira de entrada dos cibercriminosos na construção de ataques, fornecendo recursos como textos de phishing ou peças de código malicioso.

Uma das ameaças que a ferramenta representa é a possibilidade de ensinar programadores novatos a codificar e desenvolver malware, desde que o questionador tenha acesso às perguntas certas e seja capaz de aplicar o conhecimento posteriormente. Para demonstrar esta ameaça, o Netskope Threat Labs pediu ao ChatGPT para exemplificar algumas técnicas que são comumente usadas em malware, tais como acesso remoto e até mesmo criptografia de arquivos.

Leia mais: Microsoft está integrando ChatGPT3 ao mecanismo de busca do Bing

A ferramenta foi capaz de escrever código para esse efeito em diferentes linguagens, como C++, Python e ASM, e explicar como funciona. O ChatGPT também foi capaz de responder perguntas simples sobre codificação, e até mesmo criar exercícios para testar o conhecimento do usuário.

Não tão simples

Entretanto, apesar destas descobertas, os pesquisadores explicam que o ChatGPT ainda não é a maneira mais fácil – ou mais rápida – de aprender e escrever código malicioso.

“O ChatGPT não escreverá malware novo ou funcional do zero. Neste ponto, a ferramenta pode ser usada como um recurso para estudar e criar trechos de código que, quando combinados, podem ser usados para criar malware. No entanto, requer um certo nível de conhecimento do usuário para ser desenvolvido. É comum que os novatos criem malware copiando e ajustando o código existente ao invés de escrevê-lo do zero, o que provavelmente ainda consome menos tempo do que contornar as medidas de segurança do ChatGPT e ter que combinar e ajustar pedaços de código”, explica Gustavo Palazolo, pesquisador do Netskope Threat Labs.

Palazolo alerta que um risco mais urgente associado ao ChatGPT é seu potencial para diminuir a barreira de entrada de cibercriminosos que constroem ataques de engenharia social.

“Por exemplo, apesar dos avisos do site contra esses casos de uso, ele poderia ser usado para escrever e-mails convincentes de phishing que tentam roubar informações sensíveis ou atrair vítimas para abrir arquivos anexos. Os atacantes também podem usá-lo para criar notícias falsas, redirecionando as vítimas para sites que tentam roubar dados sensíveis, como e-mail ou contas bancárias. Todas estas funcionalidades podem ser disruptivas na indústria da cibersegurança e mudar a escala na qual os atores da ameaça lançam seus ataques”.

Palazolo recomenda que empresas e indivíduos permaneçam atentos às ameaças ao utilizar a ferramenta. Segundo o especialista, a boa notícia é que a maioria desses novos vetores de ataque que os especialistas descobrem em IA podem ser abordados por meio de uma postura de segurança eficaz. Isto inclui manter o software corrigido (patch) e atualizado, manter políticas e tecnologias eficazes de proteção de dados e equipar os ativos mais valiosos da empresa com software adicional de segurança, como a proteção zero trust, mantendo uma cultura de vigilância.

“Embora o ChatGPT possa ser utilizado por cibercriminosos de várias maneiras, é importante lembrar que a IA não é só uma arma para eles, mas uma ferramenta valiosa para a defesa, seja ela usada para avaliar a postura de segurança ou para detectar vulnerabilidades no código”, conclui Palazolo.

As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada
Imagem do ícone
Notícias
Imagem do ícone
Revistas
Imagem do ícone
Materiais
Imagem do ícone
Eventos
Imagem do ícone
Marketing
Imagem do ícone
Sustentabilidade
Autor
Notícias relacionadas