科技日报记者 都芃
9月9日,由深度学习技术及应用国家工程研究中心主办,百度飞桨、文心大模型联合承办的 WAVE SUMMIT深度学习开发者大会2025在北京举行。会上,百度正式发布文心大模型X1.1,并公布文心大模型和飞桨在技术、产品、生态领域的最新成果。
会上,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰介绍,文心大模型X1.1深度思考模型在事实性、指令遵循、智能体等能力上均有显著提升,与国际顶尖模型GPT-5和Gemini 2.5 Pro等相比不落下风。
文心大模型能力拓展和效率提升的背后离不开飞桨文心的联合优化。大会现场,百度发布了飞桨核心框架v3.2,在大模型训练、硬件适配和生态支持上全面升级,并同步升级大模型开发套件ERNIEKit和高效部署套件FastDeploy。
各家大模型发展至今,在单纯的技术参数比拼外,正全面走向以配套工具开发、应用场景适配、产业生态落地为代表的,围绕大模型生态建设的全方位较量。百度凭借起步早、布局全、投入大的优势,正在大模型生态竞速中抢占先机。
大模型生态是一个涵盖底层技术研发、模型训练与优化,以及应用开发、产业落地、人才培养等多个环节的复杂系统。一个完善的大模型生态能够促进技术快速迭代创新,加速人工智能在各个领域的应用普及。
如果将开发大模型应用比作盖房子,是否每一位开发者都需要从头制造钢筋水泥?百度给出的答案是否定的。
当前,阻碍开发者研发AI应用的一大瓶颈,是大模型的训练、部署成本高。这很大程度上是模型配套的上下游开发部署工具不健全导致的。
飞桨作为百度自主研发的中国首个开源开放、功能丰富的产业级深度学习平台,在百度的大模型全生态建设中扮演着至关重要的角色。飞桨深度学习平台集核心框架、基础模型库、端到端开发套件、丰富的工具组件于一体,像是一个“AI超级工厂”,可以提供的丰富、高效的开发工具,把“盖房子”变成“搭积木”。开发者不需要从头制造“原材料”,就可以直接借助已有的成熟工具,低门槛地进行AI应用开发。
今年3月份,飞桨发布3.0正式版本,6月份发布了3.1版本,持续增强大模型训练推理和硬件适配兼容能力。本次大会上,飞桨核心框架v3.2正式发布,在大模型训练推理性能、硬件适配、主流大模型及高性能加速库的支持上进一步提升,其多方面的细节优化可谓是处处为开发者着想。
百度AI技术生态总经理马艳军举例介绍,在大模型的大规模分布式训练中,静默数据损坏(SDC)是一类一般由硬件设备引发的极具隐蔽性和破坏性的故障,往往需要停机长时间压测才能识别,检测成本极高,且一旦出现容易造成训练效果严重劣化甚至失效,且难以追溯根因。
针对这类问题,飞桨核心框架v3.2利用流水线并行训练中固有的“空泡期”(Bubble),在硬件设备空闲的间隙,在线、无损地插入运行精度检测代码,无需停机即可精准定位故障硬件,从而在不影响训练的前提下,极大提升了超大规模训练的长期稳定性与可靠性。
此外,当前深度学习领域针对不同功能特性、性能优化方向以及适用场景,出现了多种高性能加速库,同时开发者对于深度学习框架与各类加速库协同工作的便捷性、稳定性需求也愈发迫切。为此,飞桨团队从框架底层架构出发,系统性增强了接口兼容与算子注册能力,实现了生态加速库无缝接入方案。
而在部署端,大模型的高性能推理效率和成本已是业界广泛关注的问题。本次大会上推出的基于飞桨的大模型高效部署套件FastDeploy2.2版本,依托飞桨框架,提供大模型高效部署及高性能推理全栈能力。这一套件不仅可以服务于文心大模型,在接口协议方面,FastDeploy兼容vLLM(一种针对大语言模型推理优化的高性能系统)及OpenAI API(应用程序编程接口);在模型格式上,全面支持Safetensors格式(一种专门用于存储机器学习模型权重和张量数据的二进制文件格式),可高效运行文心系列及其他主流开源大模型。
此外,在硬件适配方面,为了更好适配国产硬件,满足更多开发者应用需求,马艳军说,团队观察到国产AI芯片中,类CUDA(英伟达公司设计研发的一种并行计算平台和编程模型)芯片占有较高的比例,因此面向类CUDA芯片,团队在插件式适配方案的基础上做了全面升级,实现软硬件的良好结合。
通过构建涵盖全链条的丰富生态体系,飞桨平台显著推动大模型产业链上下游协同发展。大会披露的最新数据显示,飞桨文心生态已聚集开发者达到2333万,服务企业达到76万家,并与众多芯片厂商、服务器厂商、操作系统厂商等建立了紧密的合作关系,推动软硬件生态共同繁荣。
丰富的大模型生态,带来下游应用的百花齐放。大会上,中国中车集团科技质量与信息化部数字化创新处副处长、人工智能办公室推进组组长陈鉴分享了人工智能技术在中国高铁气动外形设计上的应用案例。
传统的气动评估方法采用精细建模和高精度模型,计算周期长、使用门槛高、资源消耗大。中国中车以既有的仿真和实验数据为基础,构建了高速动车组的气动载荷标准数据库,并基于文心飞桨的科学计算能力,构建起空气动力学仿真大模型。“我们如果有一个外形设计想法,过去可能需要做大量实验,然后几个月才能有答案,但现在借助人工智能仿真计算,最快几分钟就可以得到结果,并且准确率很高。”陈鉴说,这一技术应用大大加速了气动外形设计迭代,可以显著推动研发进度。
不仅如此,中国中车还与百度飞桨联手打造出国内首个“虚拟传感器模型”。其可以在不增加既有传感器的基础上,根据车辆已有的电流电压等现成数据,通过一系列计算,推算出与车辆安全运行相关的其他数据。这仿佛给车辆安装上多个“虚拟传感器”,可以更早地发现故障隐患,对车辆进行更为精细的健康管理。其故障检测准确率可以在现有传感器检测的基础上再提升10%。
除了不断优化底层技术、丰富应用工具、推动场景落地,人才同样是支撑大模型生态建设的重要基础。
目前,百度已联合湖北省12所高校共同成立百度飞桨(湖北)教育创新中心,湖北省22所高校基于“飞桨”与“文心”开设学分课程。同时,“百度飞桨”作为副理事长单位参与“湖北省人工智能学院”建设,支持湖北省人工智能学院联合培养创新型人才,联合开展全省高校人工智能通识课程,覆盖全省50所高校,参加学生超过万人。
(主办方供图)