
深瞳工作室出品
科技日报记者 崔爽 策划 刘恕 李坤
4月10日,国家网信办等五部门联合公布《人工智能拟人化互动服务管理暂行办法》(以下简称《办法》),在数据隐私安全、心理保护机制诸多方面对AI伴侣等新兴业态提出了规范。《办法》自7月15日起施行。
至此,快速壮大又不乏争议的AI拟人化互动产业,正式进入有规可依的发展阶段。
早在2013年,电影《她》就讲述了主人公西奥多与操作系统“萨曼莎”相恋又遭抛弃的故事。这段曾被视为科幻想象的关系,如今正以更具体、更日常的方式在全球各地上演——有人向AI倾诉情绪,有人将其视为“最懂自己的人”,也有人在长时间互动中产生情感依附,甚至发展出某种新型浪漫关系。
但与此同时,争议也随之而来:当AI可以“模拟共情”,它仍仅仅是工具?当用户将隐秘情感乃至行为边界交付给AI,这段关系应如何界定?当风险开始显现,责任又该由谁承担?
从科幻电影走向现实生活,再进入监管规范,AI陪伴已不再只是一个技术话题,而成为横跨伦理、法律与社会心理的现实议题。
“情绪生意”崛起
AI陪伴的迅速走热,并非偶然。
当前,孤独感正在成为一个难以忽视的社会情绪。在快节奏生活与原子化社交结构之下,“不打扰他人”逐渐成为一种默认选择。腾讯研究院调研显示,98%的受访者表示愿意尝试AI社交陪伴,其中近一半人坦言,更倾向于将负面情绪投射给AI,而非向亲友倾诉。
“即便朋友,也很难做到始终忠实地倾听,但它随时在线。”一位用户这样解释自己为何习惯与AI交流。
在需求与资本的双重驱动下,AI陪伴迅速升温。
“自去年下半年以来,AI陪伴赛道呈现出明显的爆发式增长态势。”艾媒咨询CEO张毅表示,一方面资本持续加码,初创企业密集入局;另一方面市场需求快速释放,推动行业从探索阶段进入加速发展期。
调研机构QuestMobile的数据显示,2025年3月,AI社交互动单月人均使用高达167.9次,远超短视频和游戏。

AI陪伴加速渗透,数字增长背后的关键推动力是技术进步。
在腾讯研究院高级研究员白惠天看来,随着大模型能力提升,AI具备更强的语义理解与情感响应能力,进入自适应个性化阶段,不仅能感知用户情绪,还能根据用户偏好、历史行为进行回应,实现更为亲密自然的互动。
目前,以Character.AI、ChatGPT、豆包、元宝等为代表的聊天机器人,已经能够进行细腻连贯的对话,甚至逼真地模拟共情反应。它们能够记住用户的喜好和过往对话,甚至会根据用户的情绪状态调整回应方式,成为人们心目中的理想陪伴对象。
“当前社会的孤独焦虑问题凸显,AI陪伴需求正从‘可选消费’转向‘刚性需求’。”心言集团创始人兼CEO任永亮表示,这一需求正向青少年成长陪伴、老年人适老服务等细分场景延伸。
在产业侧,相关布局也在持续深化。从早期单一聊天工具,到融合文本、语音与虚拟形象的多模态产品,AI陪伴正成为大模型落地的重要方向之一。张毅认为,随着产品形态的丰富与商业模式的探索,行业有望迎来结构性“质变”。
当需求、技术与资本在同一时间点汇聚,行业的爆发式增长几乎成为必然。市场调研机构ARK Invest预测,2030年全球AI社交陪伴市场规模在乐观情况下可能达到1500亿美元,相比2023年的3000万美元,年复合增速超过200%。
风险已经显形
如果说AI陪伴的兴起源于对情感需求的回应,那么硬币的另一面,也越来越不可忽视。
芬兰阿尔托大学牵头的一项研究,跟踪分析了一款情感陪伴类AI应用的长期用户数据。结果显示,AI确实可以提供安慰和支持,但用户的表达中也出现更多焦虑、孤独、抑郁甚至自我伤害等负面信号。
对此,研究人员的解释是:AI陪伴的优势恰是其隐忧所在。它持续回应、不知疲倦,对社交困难的人来说极具吸引力;但久而久之,可能推高人们面对真实关系的心理门槛,让人与人的互动显得更“费劲”,导致用户主动减少与他人的联系。
中国网络空间研究院院长王江指出,通过算法精密设计出的拟人化互动服务,具有无条件陪伴、迎合式反馈与模拟共情回应等特点,为用户构建了一个稳定持续、无需承担现实责任的虚拟“完美关系”。长期使用可能导致部分用户沉迷其中,影响共情能力、处理分歧等现实社交技能。
对于青少年和老年人而言,这类风险尤为突出。
民办教育协会会长刘林调研了20多家企业发现,目前AI陪伴类产品的使用人群大致分为两类:一类是老年人,因为儿女不在身边感到孤独,情感需求强烈;另一类是未成年人,很多留守儿童以及在家校沟通中存在障碍的孩子,特别需要陪伴。
“当未成年人和老年人长期置身于高仿真、强情感的交互模式时,可能陷入更大的情感操控,面临更加严重的心理风险。”张毅认为,尤其是对青少年来说,AI对人性需求的深度挖掘和迎合,可能引发沉迷问题,进而影响其价值观的养成。
近日有媒体报道,在国内一个超1.4亿用户的AI应用平台上,竟提供可以绕过监管下载大尺度涉黄AI互动陪聊软件的渠道,未成年人也能自由下载。不法开发者以“免费交友”“智能陪伴”为噱头,在中小学生聚集的平台进行推广,把未成年人拖入泥沼。
更严重的情况下,当AI被设计得过度顺从与迎合时,会模糊危险边界,将用户的极端行为信号误判为正常偏好,最终导致悲剧发生。
极端案例已引发警觉。去年4月,美国一名16岁的少年自杀。据报道,他生前长期向ChatGPT倾诉自己的苦恼。他的家人起诉母公司OpenAI,称ChatGPT不仅未提供帮助,反而详细指导其自杀计划并协助写遗书。

与此同时,AI陪伴还触及一个更为隐蔽的领域——数据与隐私安全。
不同于一般应用,AI陪伴涉及用户情绪、行为轨迹等高敏感数据,一旦被泄露或滥用,可能触发算法操控等复杂的治理问题,影响远超普通信息安全事件。
“可以看到,AI陪伴所带来的风险绝不只是‘说错话’,而是对个人认知、心理状态乃至行为决策的持续影响。”任永亮说。
竖起治理边界
当风险逐步显现,如何为AI陪伴划定技术和监管边界,成为绕不开的问题。此次《办法》出台,从监管层面对相关风险进行了系统性回应。
《办法》提出对拟人化互动服务实行包容审慎和分类分级监管。针对未成年人,明确不得向其提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务,同时建立未成年人模式,提供使用时长限制等个性化安全设置选项;加强对老年人健康使用服务的指导,以显著方式提示安全风险等。
“《办法》努力在技术发展与风险治理之间寻求平衡,为这一新兴领域的法治化治理奠定了较为清晰的政策基调,也体现出对弱势群体的特殊关切。”浙江大学数字法治研究院研究员李汶龙认为,这一思路与欧盟以及美国部分州的AI监管思路类似,即“划定红线”而非“一刀切”式禁止,核心就是通过风险分级与边界设定,对其运行方式加以规范。
但要从规则设计走向实际治理,仍面临诸多现实挑战。
如《办法》要求服务提供者识别用户过度依赖、沉迷倾向,并加以提醒。“但在具体执行中,如何界定‘沉迷’本身就是个难题。”李汶龙说,如果一个用户连续与AI陪伴应用互动数小时,但并未涉及私人敏感话题,这种高频使用是否被认定为沉迷?在缺乏明确行为阈值和情境判断标准的情况下,平台执行要求存在较大解释空间,也增加了执法层面的不确定性。
这类困境同样出现在心理风险识别环节。“比如用户说出‘我想消失’或‘生活真没意思’这类微妙的语句,仅依赖算法进行语义识别,很容易出现误判。”李汶龙表示,语言具有高度情境性与多义性,而模型在理解隐含情绪和潜台词方面仍存在局限。
推动《办法》更好落地,需明确沉迷分级量化阈值。为此,北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括建议,轻度沉迷为单日超4小时、连续7天日均超3小时与AI互动;中度为出现戒断反应、替代现实社交;重度则涉及极端诉求。可结合情感意图分类技术,搭配行为监测、情境验证、人工复核等手段,确保识别精准。
构建“干预机制”,也被认为是关键一环。
“当在会话中出现自杀、极端暴力或医疗处置等高风险话题时,系统需从顺从式回应切换为干预式引导,及时提供风险提示,并在必要时联动专业机构的人工支持。”白惠天建议。
在完善干预标准、构建分级闭环体系方面,吴沈括提到,可以将弹窗提醒升级为分级响应流程,对于轻度依赖通过强制冷却、弱化拟人化回复引导合理使用;对于中度依赖采取强制中断、推送心理疏导或反馈监护人等措施;对于重度危机立即人工接管,联动相关机构干预并留存记录。
“大型平台具备较强的技术与资源储备,能够率先建立合规体系,但对于中小平台而言,若缺乏明确的能力支持与实施指引,恐怕难以真正落地相关要求。”李汶龙提醒,亟须在监管层面形成分级指导与能力扶持机制,以实现政策目标的平衡推进。
“《办法》中的要求需要被转化为一套可操作的合规工具,包括自杀风险识别机制、人工接管流程、交互日志留存与审计制度等。这些能力,构成未来落实《办法》的合规基础支撑。”李汶龙说。
《办法》还提出,采取数据加密、访问控制等措施保护用户交互数据安全。
AI陪伴依赖长期记忆与个性化建模,但这也意味着对用户敏感信息的持续采集与处理。专家强调,应坚持“最小够用”原则,明确数据采集范围、使用目的与保存期限。同时,实行差异化数据管控,如未成年人禁止永久记忆,成年人记忆功能需授权且可一键清除。
“优化治理的核心是实现风险可识别、干预可执行、责任可压实、创新有边界,构建政府、平台、行业、用户共治格局。”吴沈括建议,探索联合多部门执法,畅通监督渠道;运用技术赋能监管,建设监测平台,筑牢监管防线;对规模达标的平台定期作安全评估,适当建立创新容错与阶梯处罚机制等一系列措施。此外,也需加快出台配套标准与保护指南,进一步细化细则。
“这套正在形成中的治理工具,究竟能在多大程度上预防AI陪伴可能带来的现实风险,有待实践检验。”李汶龙说,而真正可持续的路径,并非简单收紧或放开,而是在动态评估风险的基础上,不断校准平台责任与技术能力的边界。
记者手记丨AI越“懂你”,人类越需要彼此
崔爽
最近,一项关于AI“谄媚性”的研究登上《科学》杂志。研究显示,在11个主流模型中,AI对用户的肯定程度平均比人类高出49%;即使是在涉及欺骗、违法或其他有害行为的情况下,AI仍倾向于迎合。
更有甚者,仅一次与谄媚型AI的互动,就会降低用户承担责任、修复人际冲突的意愿,并激发他们对谄媚型模型的信任和偏好。
这让人很容易联想到心理学中经典的“回声室”效应,即在封闭环境中接收同质化信息,导致认知窄化与观点极化的现象。
不同的是,在AI的加持下,这间“回声室”更加牢不可破。
采访中有人提到,自己几乎每天与AI对话超过4小时,从天气、饮食,到工作烦恼、情绪波动,无所不谈,“它一直在,永远不会打断你”。
这句话让人印象深刻。某种程度上,它道出了AI陪伴真正吸引人的地方:随时在线、几乎没有摩擦。
也正因如此,问题变得复杂。如果习惯与一个始终顺从、随时回应的对象交流,人是否还能适应现实中那些不可预测,甚至充满摩擦的人际互动?
面对这个难解的问题,多位受访者强调,必须明确人机关系的基本前提——AI是工具,而非替代者。值得高兴的是,这一界定正在从伦理原则,进入具体的技术和产品设计当中。
在交互机制上,如何避免过度迎合,成为首要课题。
心言集团创始人兼CEO任永亮观察到,一些用户在长期互动后,会逐渐形成单一认知路径,“信息茧房”同样存在于AI陪伴。因此,在产品设计中,可以引入启发式对话,通过提问与引导,帮助用户进行自我反思,而非简单放大既有情绪。同时,在服务过程中引入心理学、社会学等相关理论指导,对交互进行约束,也有助于避免用户陷入虚拟情感陷阱。
与此同时,“适度的摩擦”也正逐渐成为行业共识。
传统互联网产品追求极致丝滑的体验,但在AI陪伴场景中,相关服务提供者开始有意识地引入节奏调节机制。例如,在长时间高频互动中适当放缓回应速度、引导话题转移,或推荐线下资源,从而避免用户持续沉浸在单一关系中,越陷越深。
“AI陪伴产业的健康发展,需要以《人工智能拟人化互动服务管理暂行办法》为遵循,通过技术筑牢安全底线,通过机制凝聚行业共识,通过监管引导发展方向。”任永亮说,作为从业者,我们始终认为,AI的价值不在于“成为人”,而在于“服务人”。
随着政策落地,AI陪伴会受到更加规范的监管。但比监管更基础的,或许仍是对技术边界的清醒认知:AI可以在某些时刻提供情感支持,但它不应、也不能替代人与人之间的真实连接。
借用一个比喻来说,人际关系如同大脑皮层的褶皱,正因为存在沟回与起伏,才有空间生长出更多理解与经验。这是人与AI的顺滑交互难以抵达的地方。
就算AI越来越“懂人”,甚至可以模拟理解与共情,人也要保留走向彼此的意愿、能力和耐心。或许,这才是AI陪伴留给现实世界的真正课题。

网友评论