A adoção da IA generativa na indústria segue alta, com 94% das organizações do setor utilizando a tecnologia. E o uso formal de ferramentas de IA é cada vez mais comum, considerando que as não gerenciadas caíram de 83% de presença em dezembro de 2024 para 51% em setembro de 2025 – enquanto o uso […]
A adoção da IA generativa na indústria segue alta, com 94% das organizações do setor utilizando a tecnologia. E o uso formal de ferramentas de IA é cada vez mais comum, considerando que as não gerenciadas caíram de 83% de presença em dezembro de 2024 para 51% em setembro de 2025 – enquanto o uso de soluções aprovadas pelas empresas cresceu de 15% para 42%.
Segundo um novo estudo da Netskope, de onde esses dados foram obtidos, os números indicam uma mudança no setor, com uma abordagem mais governada e segura.
“Observamos que as organizações do setor manufatureiro têm adotado medidas concretas para submeter a IA aos controles de governança e implementar uma supervisão estruturada. A lacuna entre o uso gerenciado de IA e a ‘Shadow AI’ não gerenciada está diminuindo, o que sugere que os esforços para adotar oficialmente essas tecnologias com segurança e governança adequadas estão dando resultado”, diz em comunicado Gianpietro Cutolo, pesquisador de ameaças em nuvem no Netskope Threat Labs.
O relatório indica ainda que 29% das organizações do setor já utilizam pelo menos uma das três principais plataformas de IA generativa para operar sistemas privados. O Azure OpenAI lidera, seguido pelo Amazon Bedrock e pelo Google Vertex AI. No entanto, a adoção na indústria manufatureira fica abaixo da média global.
Quando ocorrem violações das políticas de dados, tanto no uso pessoal quanto corporativo de IA e aplicações em nuvem, a maioria dos incidentes envolve tentativas de compartilhamento de dados regulamentados (41%), propriedade intelectual (32%) e senhas ou chaves de API (19%).
“À medida que o setor avança em direção a plataformas com mecanismos de segurança e termos e condições apropriados para empresas, os fabricantes mostram que inovação e segurança podem caminhar juntas. O próximo desafio será manter esse equilíbrio à medida que a IA se torna cada vez mais integrada às operações e à produção”, diz Gianpietro.
O código-fonte representa 28% de todos os incidentes de exposição de dados relacionados à IA, geralmente causados por desenvolvedores que utilizam a tecnologia em atividades de programação sem controles adequados.
A pesquisa completa pode ser acessada nesse link.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!