Resisting AI inconsistency / Resistindo à inconsistência da IA
No editorial da edição de janeiro de 2026, o editor-chefe da Science, H. Holden Thorp, defende cautela diante da retórica grandiosa sobre IA na ciência. A revista permite uso de modelos de linguagem para editar textos e coletar referências, mas exige declaração se usados para redigir manuscritos — e proíbe criar figuras com IA. Revisores estão proibidos de usar LLMs para gerar avaliações. A Science também usa IA para detectar plágio e figuras manipuladas, e colaborou com a DataSeer para verificar compartilhamento de dados: 69% dos artigos publicados entre 2021 e 2024 disponibilizaram seus dados. Thorp argumenta que a IA está permitindo identificar problemas com mais rigor, mas os relatórios gerados "precisam ser avaliados por pessoas" — ou seja, exigem mais esforço humano, não menos. Sobre o pânico de substituição de empregos: "continuo cético. A maioria dos avanços tecnológicos não levou a perdas catastróficas de empregos."
