A fotografia científica tem um problema de credibilidade que a IA generativa torna mais urgente: a diferença entre uma imagem que representa um fenômeno e uma que o simula é invisível ao olho não treinado. Felice Frankel, pesquisadora sênior do MIT e autora de Phenomenal Moments (Penguin Random House, 2024), passou décadas construindo uma prática que recusa essa ambiguidade. Sua tentativa de usar IA generativa para replicar uma de suas próprias fotografias — documentada em episódio do podcast Chalk Radio do MIT OpenCourseWare — não é uma curiosidade tecnológica. É um experimento com implicações diretas para a integridade da comunicação científica.

O que a composição científica exige que o modelo não aprende

Frankel não chegou à fotografia pela estética. Sua formação é em biologia, e ela iniciou a carreira em pesquisa oncológica na Columbia University antes de migrar para a documentação visual de fenômenos científicos. Essa trajetória importa porque define sua hierarquia de valores: a imagem existe para transmitir um fato, não para impressionar. Cada decisão de enquadramento, iluminação, recorte e pós-processamento é subordinada à precisão do que está sendo mostrado. Qualquer manipulação que distorça a realidade do fenômeno — mesmo que torne a foto mais bela — é, para ela, inaceitável.

Essa postura coloca Frankel em tensão constante com pesquisadores que querem imagens esteticamente impactantes para publicações e apresentações, mas resistem às intervenções que ela propõe para tornar o fenômeno legível. O atrito não é superficial: revela uma disputa sobre quem controla o significado da imagem científica e quais são os limites éticos da sua edição. Comparado ao debate sobre figuras manipuladas em artigos — que levou periódicos como Nature e Science a endurecer políticas editoriais na última década — o problema que Frankel articula é anterior e mais sutil: a manipulação começa antes do clique, na composição.

O curso que ela ministra no MIT, disponível no OpenCourseWare como Making Science and Engineering Pictures: A Practical Guide to Presenting Your Work (RES.10-001, 2016), trata exatamente disso: não de técnica fotográfica genérica, mas de como as escolhas visuais afetam a transmissão de informação científica.

IA generativa como teste de estresse epistêmico

Quando Frankel tentou usar IA generativa para duplicar uma de suas imagens, o modelo falhou. O dado mais revelador não é a falha técnica em si — resolução, textura, fidelidade cromática — mas o tipo de falha. Modelos generativos são treinados para produzir imagens plausíveis, otimizadas para coerência visual estatística. Uma fotografia científica rigorosa, ao contrário, é otimizada para fidelidade a um fenômeno específico, com escolhas que podem parecer contraintuitivas esteticamente mas que são epistemicamente necessárias. O modelo não tem acesso a essa intenção.

Isso cria um risco concreto para a comunicação científica: imagens geradas por IA podem parecer tão críveis quanto fotografias reais de fenômenos, mas sem o vínculo causal com o mundo físico que a fotografia estabelece. Em áreas como materiais avançados, biologia celular ou física de fluidos — domínios em que Frankel trabalhou —, a distinção entre uma imagem que documenta e uma que ilustra aproximadamente pode ser a diferença entre dado e desinformação.

A discussão sobre desinformação visual tende a focar em deepfakes políticos ou imagens de conflito manipuladas. O caso Frankel aponta para um vetor menos visível: a erosão da confiabilidade da imagem científica em contextos acadêmicos e de divulgação, onde a audiência assume, por padrão, que o que vê corresponde ao que existe.

O que fica sem resposta — e é a questão mais relevante — é se a comunidade científica desenvolverá padrões de verificação para imagens geradas por IA antes que a ambiguidade se torne norma. Frankel oferece um critério claro: a imagem deve ser rastreável a uma intenção epistêmica verificável. Traduzir esse critério em política editorial é o trabalho que ainda não foi feito.

Fonte · The Frontier | AI