A recente decisão de uma vara federal no Rio de Janeiro, que suspendeu as atividades de uma plataforma de serviços jurídicos automatizados, representa mais do que um revés pontual para o setor de LegalTech. É um alerta contundente para todo o ecossistema de desenvolvimento de inteligência artificial no Brasil. Inovar em setores regulados exige mais […]
A recente decisão de uma vara federal no Rio de Janeiro, que suspendeu as atividades de uma plataforma de serviços jurídicos automatizados, representa mais do que um revés pontual para o setor de LegalTech. É um alerta contundente para todo o ecossistema de desenvolvimento de inteligência artificial no Brasil. Inovar em setores regulados exige mais do que capacidade técnica; exige maturidade regulatória.
A plataforma oferecia petições iniciais geradas por IA a partir de R$19,90, voltadas para Juizados Especiais. A proposta parecia cumprir a promessa de democratização do acesso à justiça por meio da automação, um exemplo clássico de disrupção digital. No entanto, a Ordem dos Advogados do Brasil (OAB-RJ) acionou o Judiciário, e o resultado foi a suspensão imediata das atividades por exercício ilegal da advocacia. A decisão foi proferida no âmbito do processo n.º 5038042-87.2025.4.02.5101, em trâmite na Justiça Federal do Rio de Janeiro.
A lição é clara: a viabilidade técnica de uma solução não garante sua aceitabilidade legal. Ignorar essa distinção pode custar caro em reputação, investimentos e, como neste caso, na continuidade do negócio.
Equipes de tecnologia que atuam em áreas como o Direito, a Saúde ou o setor Financeiro enfrentam obstáculos que vão além de bugs ou falhas de escalabilidade. O caso analisado revela uma ausência crítica de mecanismos de supervisão humana, o chamado human-in-the-loop. Em setores regulados, isso não é uma recomendação, é um requisito.
Leia mais: A governança de IA não é mais opcional – empresas exigem transparência antes de fechar negócios
Além disso, a falta de validação robusta dos outputs expõe usuários a riscos reais. Se um cidadão protocola uma petição juridicamente inconsistente gerada por IA, de quem é a responsabilidade? A decisão judicial sinaliza que a resposta pode recair sobre os desenvolvedores.
Outro ponto grave é a ausência de governança by design. A conformidade regulatória não pode ser um complemento pós-desenvolvimento; precisa estar embutida na própria arquitetura do sistema.
A decisão judicial também acendeu alertas sobre o tratamento de dados. A possível ausência de conformidade com a LGPD levanta preocupações sérias, especialmente quando se trata de informações sensíveis como dados médicos, financeiros ou familiares, presentes em litígios judiciais. O risco de penalidades por parte da ANPD é real, e desenvolvedores devem assegurar proteção e rastreabilidade em toda a jornada dos dados.
A falta de transparência algorítmica é outro ponto crítico. Sem documentação clara, os sistemas tornam-se caixas-pretas, justamente no momento em que reguladores e tribunais exigem explicações precisas sobre como uma IA toma decisões.
A experiência do usuário (UX) pode induzir o erro tanto quanto o código-fonte. Se a interface sugere que a ferramenta entrega um serviço jurídico completo, quando na verdade oferece apenas sugestões automatizadas, cria-se uma expectativa enganosa. E isso, do ponto de vista regulatório, é um problema grave. A comunicação clara sobre os limites da tecnologia deve ser parte essencial da estratégia de mitigação de riscos.
A saída está em incorporar exigências regulatórias ao ciclo de desenvolvimento desde o início, o que podemos chamar de DevRegOps. Entre as estratégias recomendadas estão:
Mais do que adequação técnica, soluções em setores regulados exigem governança contínua. Isso inclui:
Governança de IA não é luxo, nem tendência. É infraestrutura de credibilidade.
Soluções técnicas também precisam refletir os limites regulatórios. Isso inclui:
O desenvolvimento para setores regulados exige planejamento diferenciado. Ciclos serão mais longos. O retorno sobre o investimento será mais diluído. Mas o custo de ignorar essas premissas é desenvolver produtos que nunca poderão operar legalmente.
Modelos de negócio baseados em cooperação com profissionais regulados, em vez de substituição direta, tendem a gerar menos resistência e mais estabilidade.
O caso da plataforma suspensa é, acima de tudo, um convite à maturidade. A próxima geração de soluções LegalTech será definida menos pela sofisticação algorítmica e mais pela capacidade de harmonizar tecnologia com marcos regulatórios complexos.
Desenvolvedores que entenderem que conformidade é vetor de inovação, e não sua antítese, estarão na vanguarda de uma transformação legítima. Em um mundo cada vez mais regulado, a verdadeira disrupção será construída com base na responsabilidade.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!