科技日报记者 张盖伦
高校学生如何用人工智能(以下简称AI),AI对他们的学习能力造成了哪些影响,论文中的AI应用又有哪些问题?10月25日—26日,由中国人民大学人工智能治理研究院主办的“人工智能对高等教育的挑战与应对”专题学术研讨会围绕这些问题展开了讨论。来自法学、心理学、教育学、哲学等多个学科领域和中国人民大学、北京大学、北京师范大学等十余所高校、科研机构和企业的近二十位专家学者参会。
中国人民大学教育学院讲师王婷婷通过研究表明,不同目标导向的学生在使用生成式人工智能过程中存在显著差异:掌握导向型学生更多将AI用于执行与评估,以深化理解;而低目标学习者则依赖AI进行监控与决策。研究进一步揭示,AI辅助虽能提升任务完成的完整性与精确性,却可能抑制创新思维,并导致元认知上的过度自信。未来关注的重点应该是在AI时代平衡技术辅助与学习者自主性,以真正维护和培养学生的自主学习能力。
中国人民大学信息学院教授杨波以学习金字塔为切入点,认为AI是教育“升级者”而非“替代者”。他指出,新学习金字塔顶端已从“创造答案”转向“创造新问题、新接口”,强调共情、工具运用与人性结合的重要性。他分享了AI给高等教育带来的诸多思考:比如大语言模型应不应该在大学教育中使用?学术论文中使用大语言模型会不会导致学术不规范?人工智能在教育中的伦理问题有哪些?如何评估人工智能在教育中的效果?他认为人机协作应是人做决策、AI执行,需要依赖“责任权利对等”原则予以治理。
北京师范大学政府管理学院教授黄崑通过分析大学生与AI交互的对话历史记录数据,从交互目标、会话目标、任务目标和长期目标角度构建了意图层次模型,其通过实验,研究任务认知复杂度对于人机交互行为和效果的影响,并结合工作重塑理论探讨了大学生使用AIGC工具的效果。黄崑提出,需要重新审视知识传授中教师与AI助手的角色与分工问题,法律法规还有待健全与完善,以应对AI应用带来的新问题。
中国人民大学法学院讲师孙靖洲发现,AI在论文写作中已被普遍使用,但当前高校规定缺乏统一标准,学生使用AI常处于“灰色地带”。传统学术不端概念如剽窃、伪造在AI语境中也难以直接适用。她主张应围绕原创性、诚信与公平三大核心价值,推动评价标准从“是否独立完成”转向“是否具有创新性”,并将人机互动能力纳入考核体系,引导学生负责任地使用AI。
中国人民大学教育学院教授周详从实体与程序两方面剖析了AIGC使用的规范难题。他强调,AIGC使用是否构成学术不端,关键在于区分其是作为辅助工具还是有实质内容参与。在程序上,学术不端调查与学生处分属不同法律关系,学校不应仅凭AIGC检测结果或学术委员会结论直接处分学生,而应通过完整证据链与正当程序,防止因技术依赖而削弱对学生权益的保护。
中国社会科学院大学法学院副教授,互联网法治研究中心主任刘晓春指出,人机协同创作在法律层面涵盖权利归属与利益分配、侵害的责任判断、内容治理及学术伦理四大方向。AI标识制度涉及工具提供者、用户、传播平台多主体,遵循从结果规制到过程干预的逻辑,需平衡功能与成本。教育场景中,需明确学生AI使用权限、标识要求、验证方式及评价标准。她倡导“学习使用AI”理念,优化默认AI使用下的评价规则。
本次活动由中国人民大学交叉科学研究院、中国人民大学教育学院、中国人民大学信息资源管理学院、中国人民大学未来法治研究院协办。

网友评论