É comum e perigoso acreditar que os problemas legais da inteligência artificial só surgirão quando houver uma lei específica sobre o tema. Nada mais equivocado. As consequências jurídicas do uso da IA já estão acontecendo agora e podem gerar sanções com base no ordenamento atual. A IA transformou a forma como empresas operam, se relacionam […]
É comum e perigoso acreditar que os problemas legais da inteligência artificial só surgirão quando houver uma lei específica sobre o tema. Nada mais equivocado. As consequências jurídicas do uso da IA já estão acontecendo agora e podem gerar sanções com base no ordenamento atual.
A IA transformou a forma como empresas operam, se relacionam com clientes e geram valor. Mas junto com essa revolução surgem dilemas jurídicos complexos. Ignorar os riscos sob o pretexto de que “a lei ainda não existe” é um erro estratégico que pode custar caro em multas pesadas e danos reputacionais quase irreversíveis.
Nosso sistema jurídico já dispõe de instrumentos para lidar com litígios envolvendo IA, seja pelo direito autoral, pela propriedade intelectual, pela proteção de dados ou pela responsabilidade civil. Não é necessário esperar pelo futuro. As regras já estão dadas.
O processo movido pela Folha de S. Paulo contra a OpenAI é emblemático. Em tramitação na 3ª Vara Empresarial e Conflitos de Arbitragem de São Paulo (processo nº 1107237.96.2025.8.26.0100), ele mostra que a Justiça brasileira já está equipada para enfrentar os desafios da IA.
Leia mais: Direitos autorais na era da IA: uma análise para desenvolvedores e profissionais de TI
As alegações da Folha de S. Paulo levantam pontos cruciais:
Os pedidos da Folha de S. Paulo são contundentes: cessação imediata da prática sob multa, indenização por danos e até destruição dos modelos de IA treinados com dados não autorizados. Tudo amparado em dispositivos da LDA, da LPI e do Código Civil.
A decisão inicial do juiz não aponta para lacunas legais, mas sim para a aplicação direta das normas já existentes. O recado é claro: não há vazio jurídico, há leis sendo aplicadas.
O caso Folha de S. Paulo x OpenAI é apenas a ponta do iceberg. A legislação atual cobre vários outros riscos que a IA já apresenta às empresas.
A LGPD rege o uso de dados em modelos de IA e impõe regras rígidas sobre coleta, tratamento, segurança e transparência. Violações podem ocorrer por:
A IA pode reproduzir e ampliar preconceitos, criando situações de discriminação no trabalho, na saúde ou no crédito. Nossa Constituição, o Código Civil e o Código de Defesa do Consumidor já fornecem fundamentos jurídicos para responsabilizar tais práticas.
Do carro autônomo que causa acidente ao algoritmo de diagnóstico que falha, a legislação brasileira já prevê:
A LPI pune práticas que a IA pode potencializar, como apropriação de segredos de negócio, imitação de produtos e publicidade abusiva ou enganosa.
O recado é inequívoco: empresas não podem adotar uma postura de espera diante dos riscos da IA. A ausência de uma lei específica não equivale a liberdade irrestrita.
Para reduzir riscos e agir com responsabilidade, organizações devem adotar medidas imediatas:
A revolução da inteligência artificial não espera pela criação de novas leis. O caso Folha de S. Paulo x OpenAI é um exemplo concreto de como as normas já existentes podem e serão aplicadas às práticas envolvendo IA.
Para as empresas, a mensagem é direta: os riscos jurídicos da IA são presentes, não futuros. A única escolha é entre enfrentá-los de forma planejada ou ser surpreendido por eles em juízo.
A prevenção, o mapeamento de riscos e a conformidade constante são os verdadeiros diferenciais competitivos na era da inteligência artificial. Ignorar essa realidade pode custar não apenas dinheiro, mas também reputação e sustentabilidade no mercado.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!