A adoção corporativa de IA está produzindo um efeito colateral pouco discutido: gestores piores. Não porque a tecnologia seja incompetente, mas porque a delegação de tarefas essencialmente humanas — feedback, tomada de decisão, leitura de contexto — para agentes de linguagem está atrofiando capacidades gerenciais que já eram escassas antes dos LLMs chegarem ao mercado.

O abismo entre o discurso executivo e o cotidiano corporativo

Jonathan e Melissa Nightingale, especialistas em treinamento de liderança que trabalham diretamente com empresas em processo de adoção de IA, oferecem uma perspectiva rara: acesso ao que acontece abaixo da camada de press releases. O quadro que descrevem no episódio do podcast Galaxy Brain, apresentado por Charlie Warzel do The Atlantic, é de uma assimetria profunda entre o entusiasmo dos CEOs — frequentemente descritos como "AI-pilled", termo que o episódio usa para designar executivos convertidos ao hype sem reservas — e a realidade operacional das equipes.

Essa distância não é nova na história da tecnologia corporativa. A adoção do ERP nos anos 1990 gerou promessas similares de eficiência sistêmica que levaram anos para se materializar — e em muitos casos nunca se materializaram da forma prometida pelos fornecedores. A diferença agora é a velocidade de implantação e a ausência de fricção percebida: um chatbot não exige integração de sistemas legados, o que cria a ilusão de que a transformação já está acontecendo quando, na prática, o uso ainda é fragmentado e experimental.

O dado mais revelador da conversa é a ausência de evidências robustas de ganho de produtividade agregada. Tarefas individuais ficam mais rápidas; o trabalho coletivo, coordenado, que depende de julgamento e relação interpessoal, permanece intocado — ou se deteriora quando a IA é inserida como substituto de processos que exigiam deliberação humana.

IA como muleta gerencial e o custo invisível da automação de feedback

O segmento mais substantivo da discussão gira em torno do que os Nightingale chamam de uso de IA como "feedback crutch" — muleta de feedback. Gestores que usam ferramentas de linguagem para redigir avaliações de desempenho, estruturar conversas difíceis ou sintetizar sentimentos de equipe estão, na prática, terceirizando o músculo gerencial mais importante: a capacidade de ler pessoas e comunicar julgamentos com clareza e responsabilidade.

Isso importa por uma razão estrutural. Gestão de qualidade é escassa mesmo sem IA. Pesquisas da Gallup há anos apontam que a qualidade do gestor direto é o principal determinante de engajamento e retenção — acima de salário, benefícios e cultura declarada. Introduzir uma camada de automação nessa relação não resolve a escassez; ela a mascara enquanto a aprofunda.

Há ainda uma dimensão social que o episódio toca de forma provocativa: o trabalho como um dos últimos espaços de conexão social sustentada em uma era de isolamento crescente. Se agentes de IA começam a mediar interações que antes eram humanas — o check-in do gestor, a conversa de corredor codificada como "reunião de alinhamento" — o que se perde não é apenas eficiência relacional. É o tecido social que o ambiente profissional ainda sustenta para muitas pessoas, especialmente após a fragmentação acelerada pelo trabalho remoto pós-2020.

O que fica sem resposta é a questão de causalidade: empresas com gestão fraca adotam IA como atalho porque já tinham gestão fraca, ou a IA está ativamente degradando gestores que antes eram competentes? A distinção importa para qualquer política corporativa ou regulatória que leve a sério o impacto da automação sobre o trabalho — e, por extensão, sobre as pessoas que dependem dele para mais do que um salário.

Fonte · The Frontier | AI