中国人民大学人工智能治理研究院主办研讨会  探讨人工智能价值如何对齐

2025-09-30 11:40:12 来源: 科技日报 点击数:

科技日报记者 张盖伦

9月27日—28日,中国人民大学人工智能治理研究院主办的“人工智能价值对齐的理论与实践”专题学术研讨会顺利召开。来自哲学、法学、心理学、计算机科学、政治学、管理学等多个学科专家从多个角度共同探讨人工智能的价值对齐问题。

中国科学院自动化研究所研究员、人工智能伦理与治理研究中心主任、北京前瞻人工智能安全与治理研究院院长曾毅从计算机科学与伦理学的交叉视角指出,鉴于人工智能在数学原理上无法保证绝对安全,必须通过主动为其建构道德与利他动机,而非仅依靠被动监管,来实现人机价值对齐,最终推动AI从工具演变为共生伙伴,引领文明新形态。

北京师范大学心理学部认知神经科学与学习国家重点实验室暨IDG/麦戈文脑科学研究院教授刘超结合虚拟现实、脑成像与计算建模等前沿技术,探讨人类利他与合作行为的心理与神经机制,并尝试将这些研究成果应用于AI系统的价值对齐设计,推动人工智能向善发展,提升其在复杂社会情境中的道德判断与行为能力。

清华大学计算机科学与技术系黄民烈教授指出,人工智能的价值对齐的发展需要经历“价值对齐-超级对齐-智能对齐”的上升过程,其核心是人类在面对日益强大甚至超越自己智能的AI时,能否对齐进行有效的监督和控制,这不仅是一个计算机科学的技术问题,更是对伦理学和道德心理学等学科提出了要求,需要首先确定道德是什么,并以计算机能接受的、可计算量化的语言进行输入,才能使得AI拥有对其行为后果的关心和责任。

大模型如何准确理解和反映人类基本价值观?中国人民大学高瓴人工智能学院副教授王希廷指出,在宏观层面应构建普适的基本价值观体系,在微观层面则需通过神经元级别的精准控制实现模型的行为一致性、可解释性与安全性,为构建可信赖的AI系统提供技术支撑。

中国人民大学哲学院教授刘永谋的报告从技术哲学的角度入手,认为人工智能的价值对齐从根本上说是一种功能有限性的对齐,“对齐什么”的问题难以澄清,因为人类本身缺少统一的价值观,人类价值观始终处于不断变化之中,以及各种规则总是存在实然与应然之间的偏差,我们要对“价值对齐”进行严格的范围限定和制度约束。

北京师范大学法学院教授、数字法学研究中心主任汪庆华强调,人工智能的价值对齐离不开法律层面的相关落地,大语言模型可能带来一系列法律问题,包括稀释相关权利、侵犯隐私权和著作权以及模型幻觉所带来的合同违约等,而对此的法律解决方式仍然有待探索,若仅采取惩罚式监管,可能对技术人员提出过高要求,因此法律行业需探索切实可行的措施,在维护用户合法权益的同时,不阻碍人工智能行业的健康发展。

对外经济贸易大学法学院教授张欣分析了我国现行算法公平规范中的存在的不足,并提出通过反歧视法理和差异化的受保护特征清单,构建可操作且有预测性的算法公平治理框架。在法律、伦理与科技的内在共识基础上,通过建立全面的算法影响评估机制,推动算法公平的法治化进程,为社会提供更为公平和公正的AI治理解决方案。

中国人民大学法学院教授、未来法治研究院执行院长张吉豫深入分析了企业在推动AI技术落地过程中面临的伦理治理难题,她指出企业作为AI系统的主要部署者,应在产品设计阶段嵌入权利保障、公平性、隐私保护等法律价值,通过科技伦理审查、风险评估、算法备案等制度工具,实现赋能型治理。

中国人民大学哲学院教授、人工智能治理研究院院长刘玮在总结中表示,本次研讨会聚焦人工智能价值对齐的核心议题,涵盖哲学、法律、技术、心理、政治、管理等多个维度,体现了人工智能治理研究的交叉性与前瞻性,推动了跨学科合作与理论实践的深度融合。今后,中国人民大学人工智能治理研究院将继续致力于搭建高水平学术交流平台,推动人工智能治理体系与治理能力现代化。

责任编辑:冷媚
网友评论
最热评论
没有更多评论了

抱歉,您使用的浏览器版本过低或开启了浏览器兼容模式,这会影响您正常浏览本网页

您可以进行以下操作:

1.将浏览器切换回极速模式

2.点击下面图标升级或更换您的浏览器

3.暂不升级,继续浏览

继续浏览