守护科研诚信:AI时代亟须构建综合治理体系

2025-09-29 18:51:52 来源: 科技日报 点击数:

科技日报记者 陆成宽

人工智能(AI)在广泛赋能科学研究的同时,也催生了“AI洗稿”“数据装饰”“代笔”等一系列新型科研诚信问题。如何应对这些新挑战,已成为关乎科学事业健康发展的关键课题。

9月26日,中国科学院学部科技伦理研讨会在北京召开,主题为“人工智能时代的科研诚信”,旨在为应对AI时代的科研诚信挑战建言献策,为完善我国科研诚信体系、推动AI的负责任应用凝聚共识。

自ChatGPT等大型语言模型问世以来,人工智能已广泛应用于知识获取、数据分析和学术写作等领域,显著提升了学习与研究效率。然而,AI的深度介入也使学术活动的主体构成发生根本性变化。

以“算法参与”为特征的科研模式,导致了贡献界定模糊、研究过程不透明、结果可解释性下降等一系列新问题。更复杂的是,AI系统可能携带算法偏见,甚至生成虚假或误导性内容,这使研究结果的可靠性面临严峻挑战。

中国科学院学部科学道德建设委员会主任胡海岩院士在致辞时强调,当前AI检测技术的发展明显滞后于AI生成技术,传统查重与识别手段效力渐微,致使科研不端行为更具隐蔽性和复杂性。大量因AI随机生成内容和虚假引文导致的撤稿案例,已引发国际学术界的广泛警惕。

“AI的应用,至少从两个方面加剧了传统的科研不端行为。一是生成式AI速度快,大幅降低了造假成本,二是目前大语言模型生成内容的结构、格式、语法,都呈现出较高水准,检测判断的难度急剧增加。”中国科学院院士、北京大学教授梅宏分析道。

同时,AI的应用也带来了不少新问题。“比如,AI的介入模糊了责任边界。大模型生成的错误或‘幻觉’内容,应被视为‘诚实的错误’还是归责于使用者?大模型能否作为作者或共同作者?”梅宏举例道。同时“操纵AI审稿”等新伎俩已经出现,如在论文中隐藏“仅限正面评价”的指令,以欺骗AI评审系统。

尤为值得警惕的是,AI生成内容可能污染人类知识体系。近期案例显示,有自媒体账号发布杜撰的“科技新闻”,虚构顶尖大学的研究成果。这些由AI炮制、语言通顺但事实错误百出的文章被广泛传播,误导公众并侵蚀知识的可信基石。

对此,中国科学院院士、南京大学党委书记谭铁牛表示,AI生成的虚假或错误内容,若未被有效识别而进入学术传播链条,长期危害不容小觑。

面对这些挑战,我们必须采取系统性的综合措施,在拥抱技术创新的同时,坚决守住科研诚信的底线。梅宏建议,持续深化理论探讨与案例研究,厘清AI对科研诚信的影响机制;全面开展科技伦理教育与AI技能培训,引导科研人员负责任地使用AI工具;积极凝聚全球共识,构建适应AI时代的科技伦理治理体系。

“人工智能对于科学研究而言,既是赋能创新的‘阿拉丁神灯’,也可能是开启风险的‘潘多拉魔盒’。”谭铁牛认为,我们唯有坚持管理与技术并重、制度规范与教育文化协同、国内治理与国际合作并举的综合施策思路,才能有效破解人工智能时代的科研诚信难题,确保我国科技事业在健康可持续的轨道上行稳致远,并为人工智能更好地造福人类贡献中国智慧与中国方案。

责任编辑:王倩
网友评论
最热评论
没有更多评论了

抱歉,您使用的浏览器版本过低或开启了浏览器兼容模式,这会影响您正常浏览本网页

您可以进行以下操作:

1.将浏览器切换回极速模式

2.点击下面图标升级或更换您的浏览器

3.暂不升级,继续浏览

继续浏览