A integração de ferramentas de inteligência artificial generativa na administração pública tem gerado incidentes documentados de confabulação algorítmica em registros oficiais. Segundo um levantamento publicado pela Rest of World, publicação focada no impacto global da tecnologia, governos enfrentam constrangimentos públicos devido a alucinações geradas por IA em seus fluxos de trabalho. Os casos relatados vão desde "erros de formatação" atribuídos à administração Trump nos Estados Unidos até a retirada sem precedentes de uma política pública na África do Sul. O padrão sugere que a adoção de sistemas automatizados de redação ocorre em um ritmo mais acelerado do que a implementação de protocolos de revisão institucional.

O custo da automação sem governança

A infiltração de textos gerados por IA em documentos estatais ilustra uma tensão crescente entre a busca por eficiência burocrática e a integridade da informação pública. A África do Sul, por exemplo, precisou recuar em uma diretriz oficial após a identificação de falhas no texto, um evento que destaca o risco de delegar a formulação de políticas a modelos probabilísticos. Embora os detalhes técnicos de cada implementação permaneçam parcialmente verificados, a presença de grandes consultorias no ecossistema de digitalização governamental — como sugerido pelo relatório original, que cita a Deloitte, uma das maiores firmas de auditoria e consultoria do mundo — aponta para uma terceirização acelerada da infraestrutura de IA.

Quando grandes modelos de linguagem confabulam — gerando informações factualmente incorretas com alta confiança sintática —, o impacto transcende o erro técnico e atinge a credibilidade do Estado. Na administração pública, onde a precisão documental é a base da segurança jurídica e da formulação de leis, a ausência de salvaguardas transforma a alucinação algorítmica em um passivo político direto. O contraste entre a promessa de otimização e a realidade de documentos oficiais comprometidos evidencia uma lacuna de governança.

A frequência desses incidentes indica que a curva de aprendizado para a adoção de IA no setor público será mais complexa do que as narrativas de eficiência sugerem. A resposta institucional a essas falhas preliminares deve ajudar a definir os futuros padrões de auditoria, responsabilidade e transparência para o uso de algoritmos no Estado.

Com reportagem de Rest of World.

Source · Rest of World