A integração de inteligência artificial na rotina jurídica tem gerado consequências severas em tribunais ao redor do mundo, revelando um descompasso crítico entre a capacidade de processamento de texto e a responsabilidade ética exigida pelo Direito. Casos recentes, como o de uma família no Alabama que perdeu uma disputa judicial devido a citações inexistentes, ilustram a gravidade do problema. Em um episódio ainda mais drástico, um juiz federal no Oregon impôs uma sanção de US$ 110 mil a advogados que apresentaram 23 citações fabricadas e oito citações inventadas, resultando na extinção do processo. Segundo dados compilados por Damien Charlotin, mais de 1.300 casos globais já registraram menções a alucinações geradas por IA em documentos judiciais.
Esses incidentes não são apenas falhas técnicas, mas falhas de supervisão profissional. Quando um advogado submete uma peça baseada em dados não verificados, ele viola preceitos fundamentais como a competência, a candura perante o tribunal e a responsabilidade de supervisão, conforme estabelecido pelas normas éticas da American Bar Association. O risco é ampliado quando a estratégia de defesa é inserida em chatbots de uso geral, o que, conforme decisões recentes em Manhattan, pode levar à renúncia do sigilo advogado-cliente, expondo informações sensíveis a intimações judiciais.
A falha arquitetural dos modelos generativos
A raiz do problema reside na própria natureza dos Large Language Models (LLMs) de uso geral, como ChatGPT e Claude. Diferente das ferramentas especializadas, esses modelos foram treinados na web aberta para produzir textos que pareçam plausíveis, priorizando a fluidez em detrimento da precisão factual. No Direito, contudo, a veracidade é o ativo principal. Um modelo generativo não possui, por design, a capacidade de verificar se uma jurisprudência citada realmente existe, se o conteúdo corresponde à realidade ou se a norma permanece vigente. Essa lacuna é estrutural e não será resolvida apenas pelo aumento do poder computacional ou pela evolução dos ciclos de treinamento.
O mercado, por vezes, falha em distinguir essas ferramentas de consumo das soluções jurídicas proprietárias, que operam sobre bases de dados confiáveis e auditáveis. Enquanto o setor de tecnologia oscila conforme o entusiasmo com novas funcionalidades, os tribunais operam com uma realidade muito mais rígida. A confiança em um sistema que gera respostas com alta convicção, mas sem capacidade de auto-verificação, cria um ciclo de negligência que contamina o registro judicial e prejudica a integridade do sistema de justiça como um todo.
O dilema entre eficiência e responsabilidade
A prática do Direito está diante de uma bifurcação entre a compressão de tarefas — fazer o mesmo trabalho de forma mais rápida — e a expansão de possibilidades — realizar tarefas que antes eram impossíveis. A expansão, que inclui o uso de dados históricos para desenhar estratégias de litígio ou o monitoramento regulatório em tempo real, oferece um potencial vasto. Contudo, essa evolução só é sustentável se estiver assentada em uma base que não fabrique o direito subjacente. A pressão por produtividade no escritório não pode sobrepor-se ao dever de cautela perante o cliente.
Para o ecossistema brasileiro, o alerta é claro: a adoção de tecnologias de IA nos tribunais e escritórios exige um rigor técnico que muitos profissionais ainda não dominam. A pergunta fundamental que um advogado deve fazer não é sobre o desempenho da ferramenta em benchmarks de velocidade, mas se ele é capaz de rastrear, verificar e sustentar cada palavra da saída da IA em uma audiência pública. Se a ferramenta não permite essa rastreabilidade, ela é incompatível com o exercício da advocacia.
Perspectivas e o futuro da profissão
A incerteza sobre como os tribunais brasileiros e internacionais irão regular o uso dessas tecnologias permanece alta. É provável que vejamos um endurecimento das sanções processuais e novas diretrizes sobre a responsabilidade civil do advogado pelo uso de ferramentas auxiliares. A questão central que se coloca é até que ponto a tecnologia pode ser delegada sem que o profissional perca o controle sobre o produto final. A supervisão humana, longe de ser um entrave, torna-se a única barreira contra a desinformação jurídica.
O mercado de serviços jurídicos deverá, eventualmente, precificar o custo do erro. Em um campo onde a falha pode custar a liberdade ou o patrimônio de um cliente, a margem para alucinações algorítmicas é praticamente inexistente. Observar como os grandes escritórios integrarão ferramentas de IA com auditoria humana será o próximo passo para entender a maturidade dessa transição digital no setor.
A tecnologia, por si só, não é a culpada pelas sanções, mas a confiança cega nela certamente o é. O Direito continuará sendo uma disciplina baseada em precedentes, fatos e argumentação lógica, elementos que, até o momento, exigem uma curadoria humana que nenhuma rede neural pode, de forma confiável, substituir. A advocacia do futuro será definida não por quem utiliza a IA mais avançada, mas por quem compreende melhor seus limites.
Com reportagem de Brazil Valley
Source · Fortune





