ITF Portal - Banner Topo
Slot: /23408374/itf-ad-banner-topo
720x300, 728x90, 728x210, 970x250, 970x90, 1190x250

A indústria da mentira: como a IA virou fábrica de caos político e crise inventada

O cerne do debate tecnológico contemporâneo não reside mais na capacidade da Inteligência Artificial (IA) de replicar ou superar a inteligência humana. A verdadeira provocação reflexiva está no risco ético de uma tecnologia de poder incomparável ser direcionada para industrializar a irresponsabilidade e, pior, fabricar a própria “realidade”. Há algum tempo, já venho alertando que […]

Publicado: 05/03/2026 às 16:20
Leitura
6 minutos
A indústria da mentira: como a IA virou fábrica de caos político e crise inventada
Construção civil — Foto: Reprodução

O cerne do debate tecnológico contemporâneo não reside mais na capacidade da Inteligência Artificial (IA) de replicar ou superar a inteligência humana. A verdadeira provocação reflexiva está no risco ético de uma tecnologia de poder incomparável ser direcionada para industrializar a irresponsabilidade e, pior, fabricar a própria “realidade”.

Há algum tempo, já venho alertando que o maior perigo (e também o maior benefício) da IA reside no seu potencial para escalar a intenção humana, seja ela construtiva ou destrutiva. O que se observa recentemente na grande mídia brasileira e internacional não é apenas a amplificação de vieses ou a propagação de fake news, mas a criação de realidades paralelas com o objetivo explícito de gerar pânico social e instabilidade política. O caso recentemente noticiado sobre a Revista Veja, a qual supostamente usou a IA para forjar uma crise econômica no país, é um exemplo recente desse mau uso.

A IA, que possui um vasto potencial para o bem, como a hiper-segmentação de conteúdo e a velocidade na produção de análises de dados legítimos para o setor público (como visto em auditorias realizadas por grandes cortes de contas brasileiras) e o setor privado, está sendo desviada. Quando essa ferramenta é programada para forjar crises, ela cruza a fronteira da desinformação, tornando-se um vetor de risco algorítmico à estabilidade democrática. O contexto é urgente e exige uma reavaliação dos pilares éticos da comunicação digital.

A discussão sobre o mau uso da tecnologia sempre existiu, mas o advento da IA generativa e da comunicação algorítmica elevou o patamar do problema. Antes, a desinformação dependia de esforço manual, replicando-se por meio de canais humanos. Hoje, contudo, ela é produzida em escala industrial, com uma credibilidade visual e textual que torna a detecção exponencialmente mais complexa.

Leia mais: A corrida pela ética da IA já começou

O que se nota é que o erro, neste nível, não é meramente algorítmico, mas profundamente humano, ético e deliberado. Como tenho discutido em meus artigos e em meus livros como CIO 5.0, a tecnologia é sempre neutra; ela apenas potencializa a intenção de quem a programa. O argumento de que “o sistema falhou” simplesmente não é mais aceitável quando se trata de fabricar narrativas para desestabilizar um país ou uma economia. Trata-se de uma falha ética na liderança e na governança.

A principal ameaça é a erosão da credibilidade. Se o público não consegue mais discernir o que é um dado legítimo, analisado por big data, e o que é uma narrativa artificialmente construída por um prompt mal-intencionado, o debate público se dissolve.

Como se proteger de uma desinformação cuja autoria não é mais humana, mas sistêmica? Essa é a questão central para líderes e cidadãos na sociedade 5.0.

É crucial diferenciar o potencial legítimo da IA de seu uso predatório. No setor privado, startups e big techs usam a IA para otimizar supply chain e personalizar experiências do consumidor na Indústria 4.0. No setor público, órgãos como o Tribunal de Contas da União (TCU) e o Tribunal de Contas do Estado de São Paulo (TCESP) a empregam para fiscalizar gastos, identificar fraudes e otimizar a gestão com base em dados transparentes e auditáveis. Estes são exemplos de como a IA pode servir à transparência e à governança.

Não obstante, essa mesma tecnologia de hiper-segmentação, ao ser aplicada à comunicação em massa, permite que narrativas fabricadas atinjam públicos específicos com precisão cirúrgica, amplificando o efeito do pânico. O contraste entre os benefícios (eficiência, precisão) e os riscos (manipulação, polarização) é o grande dilema da era digital.

Globalmente, a preocupação com o uso de IA para desestabilização já mobiliza governos. Na Europa, o AI Act busca categorizar e regular o risco. Nos EUA e na Ásia, o foco está na autenticidade de conteúdos midiáticos, especialmente deepfakes. O Brasil, ao caminhar para um Marco Regulatório da IA, precisa aprender com esses casos e ser assertivo. A nova etiqueta digital, no fim, exige responsabilidade.

Para enfrentar a “indústria da desconfiança” que a Inteligência Artificial potencializa, a resposta deve ser necessariamente multidimensional, combinando cultura cívica, transparência tecnológica e regulação firme. A meu ver, três pilares se destacam como imperativos para a governança nessa nova era digital:

Em primeiro lugar, a Cultura da Dúvida deve ser estabelecida. Não basta mais questionar superficialmente “Quem escreveu?”. A urgência moral exige um questionamento mais profundo e estratégico: “Quem se beneficia com o caos desta narrativa fabricada?”. A vigilância precisa estar concentrada no motivo e no interesse por trás da desinformação, e não se limitar à sua autoria aparente.

Em segundo lugar, a Marca D’Água da Ética torna-se fundamental. É imprescindível que veículos de comunicação comprometidos com a transparência apliquem uma “marca d’água” em seu conteúdo. Esse selo deve sinalizar de forma clara, auditável e padronizada o uso de ferramentas de IA. A autenticidade deve ser encarada tanto como um valor de mercado quanto como uma obrigação social, oferecendo ao leitor a capacidade de auditar a gênese da informação que consome.

Finalmente, é necessária uma Regulação à Altura. O Marco Regulatório da IA no Brasil precisa encarar o uso da tecnologia para a manipulação e a desestabilização de informações cruciais como um cenário de “risco inaceitável”. A regulação tem o dever de proteger o debate público, responsabilizando ética e legalmente aqueles que transformam o imenso poder da IA em um instrumento de pânico social e desordem.

O uso da IA deve ser ético

A Inteligência Artificial é uma força transformadora que reescreve as regras de todos os setores da sociedade. Seu potencial para otimizar processos, criar valor e gerar insights inéditos é inegável, mas a mesma potência que a torna uma ferramenta de inovação a torna um vetor de risco inigualável quando mal utilizada.

A linha que separa a amplificação algorítmica de dados legítimos da fabricação de narrativas de crise é agora apenas um prompt e uma intenção. A tecnologia apenas deu um megafone à intenção humana. O debate é urgente, e o tempo para agir é agora. O futuro exige líderes capazes de guiar a adoção tecnológica com rigor técnico e, acima de tudo, com profunda responsabilidade ética.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias 

As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada
Imagem do ícone
Notícias
Imagem do ícone
Revistas
Imagem do ícone
Materiais
Imagem do ícone
Eventos
Imagem do ícone
Marketing
Imagem do ícone
Sustentabilidade
Autor
Notícias relacionadas