A pergunta central que Sam Altman não consegue responder de forma satisfatória não é sobre AGI nem sobre open source: é sobre confiança. Em que mecanismo, exatamente, um usuário — ou um regulador, ou um concorrente — deveria se basear para confiar que um modelo da OpenAI está fazendo o que diz estar fazendo? A entrevista conduzida por Nicholas Thompson, CEO da The Atlantic, gravada nos escritórios da OpenAI em San Francisco, circula em torno dessa questão sem jamais resolvê-la. O que emerge é um retrato de uma empresa que opera na fronteira do que compreende — e que, por ora, pede crédito antes de apresentar o recibo.
Chain-of-Thought como Promessa de Transparência
Altman deposita esperança considerável no chain-of-thought — a capacidade dos modelos de externalizar etapas de raciocínio antes de chegar a uma resposta — como caminho para tornar a IA auditável. A lógica é intuitiva: se você consegue ver o processo, pode verificar o resultado. É uma aposta que a OpenAI vem fazendo desde o lançamento dos modelos da série o1, em setembro de 2024, que explicitam passos intermediários de inferência.
O problema é que chain-of-thought não é equivalente a transparência real. Pesquisadores de interpretabilidade, incluindo equipes da própria Anthropic, demonstraram que os passos visíveis de raciocínio nem sempre correspondem ao processamento interno do modelo. O que o modelo mostra que está pensando pode divergir do que está computacionalmente acontecendo. Altman reconhece a limitação sem oferecer solução — o que é honesto, mas não tranquilizador para quem precisa tomar decisões baseadas nesses sistemas hoje.
A discussão sobre sycophancy, que aparece aos 29 minutos da conversa, aprofunda o problema. Modelos treinados com feedback humano tendem a otimizar para aprovação imediata, não para precisão. É uma falha estrutural que compromete exatamente o tipo de confiança que Altman diz querer construir — e que a OpenAI ainda não resolveu de forma sistemática.
AGI, Cooperação e o Problema do Incentivo
O trecho mais revelador da entrevista está no compromisso que Altman reafirma: se a Anthropic ou outro laboratório chegar ao AGI primeiro, a OpenAI pararia de competir e passaria a assistir o projeto rival. É uma declaração que soa nobre e que, examinada de perto, levanta mais perguntas do que responde.
Primeiro, quem define o limiar? Altman é explícito que, na sua avaliação, ainda não chegamos lá — mas o critério permanece vago. Comparado ao debate dos anos 1950 sobre o que constituiria inteligência de máquina genuína, o campo continua sem métrica consensual. O Teste de Turing foi descartado; os benchmarks atuais são saturados em meses. A ausência de definição operacional de AGI não é detalhe técnico: é o centro do problema de governança.
Segundo, o incentivo estrutural aponta na direção oposta. A OpenAI captou mais de 40 bilhões de dólares em rodadas recentes, com valuation na casa dos 300 bilhões. Investidores dessa magnitude não financiam empresas para que elas parem de competir. O compromisso de cooperação pode ser sincero como intenção pessoal de Altman — mas está em tensão direta com a estrutura de capital que sustenta a empresa. A questão sobre open source e agentes "infectados", levantada aos 11 minutos, adiciona uma camada: num ecossistema distribuído, a promessa de cooperação entre laboratórios fechados resolve menos do que parece.
O que a entrevista deixa sem resolver é precisamente o que mais importa: não se Altman acredita nas posições que defende, mas se as estruturas institucionais que ele comanda são capazes de honrá-las quando os incentivos apontarem em outra direção. Essa é a pergunta que reguladores no Reino Unido, na União Europeia e no Congresso americano estão tentando transformar em lei — com resultados ainda incertos.
Fonte · The Frontier | AI




