深瞳工作室出品
科技日报记者 代小佩 策划 刘恕 李坤
AI出现在诊室,像医生一样问病史、做诊断、开检查单。这个曾出现在科幻电影中的场景,正逐渐走进现实。
今年上半年,“天枢”“观心”“瑞智病理”等医疗领域大规模预训练语言模型(以下简称“医疗大模型”)在全国三甲医院密集落地。亿欧智库数据显示,截至2025年5月,国内累计发布医疗大模型达288个,其中今年新增133个。
这些被临床寄予厚望的技术产物,离成为真正的AI医生还有多远?
医疗模型价值初显
今年夏天,北京市房山区窦店镇一家基层医院的内科门诊来了一名患儿,半边脸肿大,久不消退。医生建议家长带孩子去口腔科检查。但检查结果显示,口腔无异常。
焦急的患儿家长再次找到医生。医生想起医院不久前引入的AI儿科医生。这款儿科医疗大模型整合了300多位知名儿科专家的临床经验及大量脱敏的病历数据,学习了3000多种儿童常见病、疑难病相关诊疗知识。
医生与这名“博学”的AI儿科医生展开了多轮“对话”。AI提示,患儿可能是腮腺炎。基于AI提醒,诊断最终被明确,患儿也得到及时治疗。
2024年11月以来,多部门密集出台AI医疗相关政策:《卫生健康行业人工智能应用场景参考指引》梳理84个细分应用场景;国家医保局将AI辅助诊断纳入医疗服务价格立项指南;《医药工业数智化转型实施方案(2025—2030年)》明确要拓展AI在辅助诊疗等场景的应用。
一家研发医疗大模型的企业负责人表示,DeepSeek-R1等开源模型的技术突破,也降低了医疗大模型的研发和应用门槛,加速了AI医疗领域“百模大战”的到来。
在政策支持、技术突破等多重因素下,医疗大模型迎来爆发期。亿欧智库预测,2025年医疗大模型市场规模近20亿元,预计以140%年均增速增长,2028年将突破百亿元。
目前,除了少数医院具备完全自主研发和部署医疗大模型的技术能力和算力条件,大部分医院选择与企业、高校、科研院所联合研发。
作为医生“助手”,医疗大模型可有效提升诊断效率。截至今年6月,AI系统“智医助理”已落地全国超7.5万家基层医疗机构,累计提供超10亿次辅诊建议,缓解了基层医生压力。数据显示,华中科技大学同济医学院附属协和医院用AI辅助预问诊,医患有效沟通时长增加50%。
在基层医疗机构,医疗大模型的应用已显现价值。某公司研发的AI助诊仪,已经在北京市海淀区20家社区卫生服务中心试点应用。该AI助诊仪能为医生提供问诊方向建议,鉴别诊断合理率达96%。
从给医生减负的“神器”,到基层医疗机构的“外脑”,从居民的健康管理助手,再到专科门诊的沟通工具等,医疗大模型已从技术探索阶段不断转向临床应用阶段。
进阶之路关卡重重
密集涌现的医疗大模型,让公众对AI医生有了更多期待。但专家指出,医疗大模型从实验室走进诊疗室,到最终成为真正的AI医生,还需要一场“职场拉练”。
这场“职场拉练”的难点,首先在于AI医生的概念模糊,其次在于落地应用时的多重障碍。
当前,业内对AI医生的定义尚未统一。
有专家认为,医疗大模型偏技术,AI医生偏应用。“医疗大模型好比医学院毕业生,缺乏临床经验。AI医生既懂理论又懂实践,可以上岗执业。”该专家说。
还有医生提出,“自主治疗”才是AI医生的核心标准。清华大学北京清华长庚医院(以下简称“北京清华长庚医院”)泌尿外科主任李建兴则比喻,“医疗大模型好比医院,AI医生好比科室大夫”。
记者梳理发现,目前声称AI医生的产品多种多样:有的是智能问答系统,有的主攻影像分析,有的是医生智能体,还有的是人类医生的数字分身。
一位业内人士总结道,现在主流的AI医生分为辅助诊断、知识问答、健康管理三类系统。她坦言,“全知全能的AI医生,对行业和患者价值更大,但距离临床还较远”。
从医疗大模型到AI医生,这条路并非坦途。
首当其冲的是模型技术本身还存在不足。今年3月,一名“95后”新手家长面对孩子反复咳嗽发热,在手机上用AI问诊。AI判定孩子为“普通呼吸道感染”,家长参考建议居家用药,却导致病情延误。最终,孩子在医院确诊为病毒感染肺炎。这一案例暴露了AI诊疗可能存在的风险。
“大模型的‘黑箱’‘幻觉’、引用错误信息等问题,会误导治疗,后果不堪设想。”北京清华长庚医院泌尿外科主治医师刘宇保说。一家专注医疗大模型研发的企业已将其医疗大模型的幻觉发生率控制在1%左右,但该企业负责人仍强调:“AI医生大规模应用于临床的风险防控体系尚未成熟。”
今年5月,李建兴团队仅用2个多月就研发出结石领域大模型“石说AI”的内测版本。李建兴说:“其实,在基座模型、大数据的基础上研发医疗模型并不难,难的是后期运维。后期需持续投入算力、人力、数据等资源,并承担设备维护、模型迭代等成本。”
数据是大模型的“养料”。数据不通畅或不足,是阻碍医疗大模型“进化”的又一个桎梏。
参与“石说AI”研发的清华大学博士生徐铮表示,使用多中心的数据能提升医疗大模型的“泛化性”,但医疗数据“烟囱林立”的现状还难以打破。
李建兴补充道:“基层医疗数据不够规范,很多有价值的病例信息没有被记录,更别提资源共享。而靠单中心数据训练的大模型,到了基层或其他医疗机构又可能‘水土不服’。”
在罕见病领域,训练医疗大模型则普遍面临病例数据不足的难题。国外有研究发现,当AI用于诊断罕见病时,其准确率不足60%。
多模态数据处理,对医疗大模型来说也是难关。徐铮告诉记者,医学大模型应用需先解决多模态医疗数据融合难题,实现影像、病理、基因组、电子病历等多源数据的高效融合与安全共享。
另一重困境则源于社会认知层面。
一名患者说,虽然有的医疗大模型和知名专家的水平不相上下,但他更希望坐在对面的是那个知名专家。李建兴也表示,越来越多的患者看到了“AI+医疗”的潜力,但对AI诊疗持怀疑态度的人也不在少数。
“对AI医生接受度低,原因很复杂。比如患者担心技术不够可靠或更喜欢真实世界的交流,医疗机构担心技术应用成本高,医生担忧技术对现实形成冲击。”刘宇保解释道。
多方探索加速破局
面对多重难关,业内已开始探索如何培养更多更强的AI。
在这条赛道上,中国医学科学院血液病医院(中国医学科学院血液学研究所)信息与资源中心首席技术专家陈俊仁走了极具挑战性的路。
当前,多数AI仅为辅助决策工具,而自主治疗能力是AI医生落地的重要突破点。陈俊仁正致力于打造能自主开展治疗的AI医生。他将AI医生分为两类:一是辅助型,AI提供参考信息,而医生判断如何运用该信息做出决策;二是条件式自主型,AI提供默认治疗方案,但医生有否决权。
2022年,陈俊仁和合作团队用数学建模解决了真实世界中血液病患者临床数据“多参数、小样本”的问题,并建立daGOAT模型,用于预测移植后重度急性移植物抗宿主病,研究发表于《自然·计算科学》。
模型方法经国际同行认可后,研究团队依照严格流程推动AI走向临床:完成伦理审查、把模型嵌入医院信息系统……拿到伦理批件后,开始招募患者志愿者。“不是拿着模型找场景,而是根据场景需求研发模型。”陈俊仁说。
让陈俊仁欣慰的是,从2024年第一个患者入组至今,daGOAT已具备条件式自主开展诊疗的能力——能定时自主追踪患者的100多个动态指标,实时提醒医生针对高风险患者提前采取药物干预措施。
“寻找医疗场景—开展科学验证—获得伦理委员会批准—搭建医疗模型—招募患者志愿者—多方交叉验证,这条AI医生培育之路很漫长,但能让医生和患者都感到踏实。”陈俊仁强调,“不管是什么形态的AI医生,核心在于能否真正解决临床问题。”
针对模型技术的“幻觉”等问题,国内诸多团队探索出不同路径:陈俊仁团队通过真实世界病例探索验证;北京清华长庚医院泌尿外科要求模型引用最新的权威医学文献;还有的医院则采取模型在循证医学数据库自检+“双医”模式。
中国科学院院士陈润生曾表示,破除AI“幻觉”需跨越技术难题、伦理问题等诸多挑战。从技术层面来说,AI的表现很大程度上依赖于训练数据的质量和多样性,如果训练数据存在偏差,模型可能会产生错误输出。从伦理层面看,算法可能因训练数据的不完善或设计者的主观偏见出现歧视性的决策结果。
针对医疗数据“烟囱林立”问题,李建兴建议,可借鉴“医疗数据中台”模式,在数据加密脱敏基础上建立跨机构数据联盟,让数据可用不可见,降低数据泄露滥用风险。针对数据稀缺难题,陈俊仁团队通过“对小样本抽丝剥茧分析+用真实病例反复验证”的方式,让模型更精准。
如何让AI医生成为读懂多种数据的“多面手”?专家表示,这需要整合影像识别、自然语言处理等多领域技术,需要全球科研力量联合攻关。
谈及提升业界对AI医生的认可度,刘宇保表示,要通过诊疗效果对比、发表研究文章、建立AI医生评测榜等客观方式,提升医生对AI的认可度。中国科学院香港创新研究院人工智能与机器人创新中心主任刘宏斌在接受媒体采访时称,医学是循证学科,模型的每一个诊断结论都标注依据、具备可解释性,这样才能获得医生信任。
针对AI医生监管和伦理问题,李建兴提出,可参考自动驾驶分级模式,依据AI医生能力划定诊断治疗权限,随着模型变强逐步放开权限,“同时,动态调整医疗大模型开发者、使用者、监管方的责任边界”。
陈俊仁认为,应尽早建立AI医疗的治理机制和规则框架,加强相关伦理审查,既要引导AI医疗按正确路线发展,又要防范AI医疗安全风险。
多位专家表示,为加快AI医生落地应用,政策方面现阶段需要“多松土”。
李建兴建议,简化院级AI产品的注册备案流程,鼓励医疗机构与技术公司深度合作。还有专家提到,推动AI医生服务纳入医保支付体系,完善AI医生的商业模式。
陈俊仁表示,政策红线可按照风险层次适当延展,业界能有更多自由挥洒的空间。“但无论如何,挥洒出的每一笔都不能违背医学伦理。”他说。
记者手记
人类医生提供的情绪价值不可替代
代小佩
AI会取代人类医生吗?
“未来AI能替代大部分人类医生。”这是一家专注医疗模型开发的企业负责人给出的答案。然而,我与一些医生和患者沟通后发现,答案似乎没这么简单。
有个年轻人告诉我,看病时他常感到焦虑、紧张,相比那些专业的诊断说明,他更希望从医生那里听到一些宽慰的话。从技术上,AI医生将来或许能替代一部分真人医生,但从情感上,人类医生所提供的情绪价值无可替代。
“这个病不可怕”“我们一起克服它”“你会好起来的”……这样的话并不复杂,却是医学的温度,是人和人宝贵的情感共鸣。就像医学界那句流传甚广的名言:有时去治愈,常常去帮助,总是去安慰。
根据团队研发医疗模型的经验,中国医学科学院血液病医院(中国医学科学院血液学研究所)信息与资源中心首席技术专家陈俊仁发现,在满足三个条件的情况下,医生和患者更可能接受AI生成的医疗方案:需要考虑的临床指标数量很大,超出大部分人类医生脑力范畴;如果不接受积极干预,部分患者可能发生严重不良事件;介入治疗本身可能伴随较严重副作用或者较高的医疗费用。
“我要让AI做的事,就是人类医生做不到的那些事。这样的AI不是替代人类医生,而是为人类医生赋能。”在陈俊仁看来,当医疗模型开发者专注于让强者变得更强时,AI产生的社会价值才更大。
这不仅是一位医生的答案,更是他底气的彰显。
那么,人类医生的优势在哪里?
有的说,人类医生可以花更多时间跟患者聊天;有的说,可以花更多精力治疗有特殊需求的患者;有的说,人类医生以后有更多精力做医学研究;还有的说,人类医生能加强多学科治疗、攻克更难治的疾病。
可见,人类医生的优势,既体现在对患者的细致照护和人文关怀上,也蕴藏在攀登医学高峰、攻克疑难病症的科学价值中。
科技日新月异,新事物层出不穷。“AI+医疗”的发展,为人类健康事业描绘了一个广阔的未来,也留给人类许多思考题——
当作为“独立医师”的AI出现误诊漏诊,患者的权益由谁守护?当患者希望被作为独立个体对待而不是群体样本存在时,AI如何更好地服务于他们?过度依赖AI的算法,是否会导致医疗决策失去温度……
AI会替代人类医生吗?我想,这个答案或许并非简单的“是”或“否”。迎接我们并非一个由冰冷算法主导的未来,而是人机协同下智慧与温情共舞的新时代。