科技日报记者 张佳欣
随着人工智能(AI)工具加速进入科研写作与学术出版流程,《科学》杂志在1日发表的社论中强调,应警惕“AI slop”(AI垃圾)对科学文献的潜在侵蚀,并强调在人类主导的编辑、审稿和责任体系下审慎使用AI。

这篇题为《抵制AI垃圾》的社论由《科学》系列期刊主编霍尔顿·索普撰写。文章指出,在科学和教育领域,AI已广泛参与文献检索、文本润色乃至论文和评审意见的生成,一些观点认为人类在科研与出版流程中的角色可能被削弱。对此,《科学》强调,其核心目标仍是维护一个经得起时间检验、由人类把关的科学记录体系。
社论回顾了《科学》近年来针对AI使用制定的编辑政策。根据现行规定,作者可在无需披露的情况下使用大型语言模型对论文文本进行编辑、提升清晰度和可读性,或辅助整理参考文献。但若AI被用于起草论文正文,则必须明确声明。使用AI生成科研图像目前是被禁止的,论文作者需对包括AI辅助生成内容在内的全部内容承担责任。
在审稿环节,《科学》明确禁止审稿人将论文内容输入大型语言模型生成评审意见,但允许在如实披露的前提下,使用AI对评审文本进行语言润色,以避免自动化生成内容削弱同行评议所依赖的专业判断。
《科学》系列期刊已允许使用iThenticate、Proofig等工具识别潜在抄袭文本或被篡改的图像,并与DataSeer合作,评估论文是否符合共享底层数据和代码的政策要求。数据显示,在2021—2024年间发表的2680篇《科学》论文中,约69%已实现数据共享。
社论还指出,AI并不会减少人工投入,其生成的报告和提示仍需由编辑和审稿人进行判断和核实。尽管外界对AI冲击科研岗位存在担忧,但历史经验表明,多数技术进步并未带来灾难性的岗位流失。
文章最后指出,和许多工具一样,AI若被恰当使用,将有助于提升科学共同体的工作能力,但前提是学界保持克制与审慎,不被层出不穷的AI产品热潮所左右。

网友评论