Duas advogadas foram multadas em R$ 84,2 mil pelo Tribunal Regional do Trabalho da 8ª Região (TRT-8), em Parauapebas, após tentarem manipular a inteligência artificial da corte. O episódio, que envolveu a inserção de comandos invisíveis em uma petição inicial, marca um dos primeiros casos documentados de tentativa de injeção de prompt com fins de sabotagem processual no sistema judiciário brasileiro.
A manobra consistia em um texto inserido no documento PDF de forma imperceptível para leitores humanos, mas legível por sistemas automatizados. O comando instruía a IA, denominada Galileu, a realizar uma análise superficial do processo e a não impugnar documentos, independentemente das diretrizes operacionais do tribunal. Segundo a decisão do juiz Luis Carlos de Araujo Santos Júnior, a conduta foi classificada como ato atentatório à dignidade da justiça, resultando em multa de 10% sobre o valor da causa, além do encaminhamento do caso para apuração pela OAB do Pará.
Desafios da injeção de prompt no Direito
A técnica de injeção de prompt explora a vulnerabilidade de modelos de linguagem ao tratar instruções contidas em documentos como comandos de sistema. Em ambientes corporativos ou jurídicos, onde a automação é utilizada para triagem e resumo de grandes volumes de dados, essa prática transforma documentos em potenciais vetores de ataque. A capacidade de um sistema de IA de distinguir entre o conteúdo de uma petição e as instruções de processamento tornou-se, portanto, a fronteira mais crítica da cibersegurança jurídica.
O caso do TRT-8 ilustra a assimetria entre a sofisticação das ferramentas de IA e os mecanismos de controle atuais. Enquanto os tribunais buscam eficiência através da tecnologia, a ausência de protocolos de higienização de arquivos digitais expõe o Judiciário a manipulações que, embora invisíveis visualmente, alteram a lógica de decisão automatizada. A discussão agora se desloca da viabilidade técnica para a governança algorítmica.
Mecanismos de manipulação e boa-fé
A estratégia das advogadas Alcina Medeiros e Luanna Alves não visava apenas o sistema do tribunal, mas também a defesa contrária. Caso a parte adversária utilizasse ferramentas de IA para analisar a petição, o comando oculto poderia induzir a produção de contestações incompletas ou fragilizadas. Esse efeito colateral demonstra como a injeção de prompt pode comprometer não apenas o sistema oficial, mas todo o ecossistema de processamento de informações jurídicas.
A defesa das profissionais, que alega a intenção de "proteger o cliente da própria IA", ignora o princípio da boa-fé processual. O uso de comandos ocultos para subverter a análise automatizada é visto por especialistas como uma violação da ética profissional, equiparada a qualquer outra forma de fraude processual. O incidente reforça a necessidade de auditorias técnicas em arquivos submetidos a tribunais.
Implicações para a governança de dados
Para o ecossistema jurídico, o caso impõe a necessidade urgente de adoção de verificações técnicas mínimas em documentos digitais. Tribunais e escritórios de advocacia devem implementar filtros que identifiquem camadas ocultas, metadados suspeitos e comandos codificados. A conformidade com a Lei Geral de Proteção de Dados (LGPD) e a integridade do processo judicial dependem, agora, de uma camada de segurança da informação que transcende a simples leitura do texto.
A repercussão do caso, amplificada por figuras como o procurador da República, Vladimir Aras, indica que o Judiciário está atento a essas novas formas de litigância digital. A tendência é que a jurisprudência passe a tratar a manipulação de IA com o mesmo rigor aplicado a documentos falsificados, estabelecendo precedentes sobre a responsabilidade dos advogados no uso de tecnologias generativas.
O futuro da supervisão algorítmica
Permanece incerto o impacto que este precedente terá sobre a adoção de novas ferramentas de IA no Judiciário. A questão central é se o medo de manipulações levará a uma maior restrição no uso de tecnologias ou a um investimento robusto em sistemas de defesa mais resilientes. A observação dos próximos desdobramentos na OAB será fundamental para definir os limites éticos da advocacia assistida por IA.
O caso de Parauapebas serve como um alerta para a fragilidade dos sistemas de triagem automatizada. À medida que a IA se torna onipresente, a integridade do processo judicial passará a depender não apenas do conteúdo das petições, mas da segurança da infraestrutura que as processa. A complexidade da tecnologia não exime as partes do dever de transparência, mas adiciona uma nova camada de risco que o Direito ainda está aprendendo a regular.
Com reportagem de Canaltech
Source · Canaltech





