A disseminação de ferramentas de inteligência artificial no cotidiano jurídico dos Estados Unidos está alterando a dinâmica dos tribunais. O que parecia uma promessa de eficiência virou um teste de estresse para a integridade processual: modelos de linguagem passaram a ser usados por advogados e leigos na redação de peças, e episódios de citações e precedentes inexistentes tornaram-se motivo de alerta entre magistrados e cortes, segundo reportagem da Fast Company.
Mais casos pro se e automação das petições
A Fast Company relata que estudos acadêmicos e relatos de tribunais sugerem uma mudança no perfil da litigância, com aumento na participação de casos movidos por indivíduos sem representação legal (pro se). A redução de barreiras de entrada — pela facilidade de gerar e estruturar textos jurídicos com IA — está encorajando mais pessoas a acionar o sistema, especialmente em matérias menos técnicas. Em amostras avaliadas por pesquisadores e tribunais, já se detecta presença de trechos produzidos por modelos generativos em petições recentes.
Como a pressão chega às cortes
Mesmo quando o sistema absorve a demanda, a carga de trabalho muda de patamar: multiplicam-se as interações entre as partes e os pedidos que exigem despacho ou revisão judicial. A disponibilidade de modelos de IA tende a gerar documentos mais longos e frequentes, deslocando tempo de juízes e equipes para a verificação da veracidade de argumentos e referências. Além da qualidade do texto, pesa o risco de "alucinações" jurídicas — quando a IA inventa precedentes ou deturpa jurisprudência —, um efeito que se torna sistêmico à medida que a adoção cresce.
Democratização versus risco sistêmico
O debate sobre IA no Direito contrasta ganhos de acesso à informação com possíveis danos à confiança nas fontes de direito. Defensores veem valor em ferramentas que ajudam leigos a interpretar documentos densos e a entender próximos passos processuais. Críticos alertam para a erosão da segurança jurídica quando decisões passam a depender de checagens extras e quando referências citadas carecem de lastro em casos reais.
Regulação e próximos passos
A reportagem destaca que ainda há incerteza sobre como os tribunais vão absorver um fluxo contínuo de textos gerados por IA. Diretrizes claras sobre uso responsável em petições, treinamento e certificações de conformidade, além de métricas de produtividade ajustadas a essa nova realidade, são caminhos em discussão. O objetivo não é banir a tecnologia, mas garantir verificabilidade e responsabilização em um ecossistema onde produzir texto ficou fácil — e checar sua precisão, mais custoso.
Com reportagem da Fast Company: https://www.fastcompany.com/91539168/ai-is-flooding-the-courts-with-more-cases-more-filings-and-more-fake-citations
Source · Fast Company





