A promessa de que sempre haverá um humano tomando a decisão final em sistemas de IA militares é, na melhor das hipóteses, uma meia-verdade. Quando máquinas identificam alvos em milissegundos e operadores têm segundos para confirmar ou cancelar, a "supervisão humana" se torna ritual, não salvaguarda. É essa tensão — entre a velocidade do processamento algorítmico e a lentidão cognitiva humana — que está no centro do debate em torno do Project Maven e da crescente militarização da inteligência artificial pelo Departamento de Defesa dos Estados Unidos.

O que o Project Maven realmente construiu

Lançado em 2017 pelo então secretário adjunto de Defesa Bob Work, o Project Maven nasceu como um esforço relativamente modesto: usar visão computacional para analisar o volume crescente de imagens capturadas por drones no Iraque, Síria e Afeganistão. O problema era de escala — havia mais vídeo do que analistas humanos conseguiam processar. A IA entrava como ferramenta de triagem, não de decisão.

O que se seguiu foi uma expansão silenciosa. Hoje, o Maven Smart System, gerenciado pela Palantir desde 2023 após anos de contrato com o Google — que saiu do projeto em 2018 após protestos internos de funcionários —, integra dados de múltiplas fontes para construir "quadros de situação" em tempo quase real. A função deixou de ser apenas classificar imagens; passou a incluir sugestões de alvos e cadeias de decisão aceleradas.

Essa trajetória importa porque revela um padrão recorrente na adoção de tecnologia militar: sistemas entram como auxiliares e gradualmente assumem funções centrais, sem que haja uma deliberação pública explícita sobre essa transição. O mesmo ocorreu com drones armados, que começaram como plataformas de reconhecimento.

Autonomia, responsabilidade e o problema da velocidade

O debate sobre "autonomia total" frequentemente obscurece o problema mais imediato: a autonomia parcial já está operando em zonas de conflito. Katrina Manson, repórter da Bloomberg que cobre segurança nacional, aponta que a distinção entre um sistema que recomenda e um que decide colapsa quando o tempo de confirmação humana é inferior ao tempo necessário para uma avaliação significativa. Isso não é ficção científica — é a lógica operacional de sistemas de defesa aérea como o Iron Dome israelense, que há anos opera em modo semiautônomo.

A tensão entre a Anthropic e o Departamento de Defesa, mencionada no episódio, ilustra uma fissura mais ampla na indústria. A Anthropic, que construiu sua identidade corporativa em torno de "IA segura e responsável", enfrenta pressão crescente para licenciar seus modelos para uso militar — algo que contraria os princípios publicados pela própria empresa. Essa contradição não é exclusiva da Anthropic: o Google voltou a fechar contratos com o Pentágono após 2021, e a Microsoft integrou modelos GPT-4 em ferramentas para a OTAN.

O risco mais subestimado não é o de uma IA que decide matar autonomamente, mas o de uma cadeia de responsabilidade que se dissolve. Quando um alvo é identificado por algoritmo, confirmado por um operador sob pressão de tempo, aprovado por um comandante que confia no sistema e executado por um drone, quem responde pelo erro? A névoa da guerra ganhou uma camada nova: a névoa da atribuição algorítmica.

O que torna esse momento decisivo não é a novidade da tecnologia, mas a velocidade com que normas estão sendo estabelecidas na ausência de tratados internacionais específicos para sistemas autônomos letais. As negociações na ONU sobre "LAWS" (Lethal Autonomous Weapons Systems) avançam lentamente enquanto os sistemas já operam. A pergunta que fica sem resposta é se democracias ocidentais conseguirão criar mecanismos de accountability para decisões que ocorrem mais rápido do que qualquer processo deliberativo humano pode acompanhar.

Fonte · The Frontier | AI