科技日报记者 崔爽
当前,AI推理在各行各业大规模使用,大模型数量开始收敛,推理应用快速增长,Token调用量爆发式增长,推理成本持续攀升。如何提升AI推理效能,进一步降低推理成本,成为行业关注的焦点。
11月4日,由中国信息通信研究院(以下简称信通院)组织召开的“存力中国行”北京站活动举行。活动通过座谈会和实地调研的形式,深入探讨AI时代下先进存力赋能AI大模型发展的支撑作用。

进入“大模型落地元年”,各行各业不再满足于拥有一个庞大的模型,而是迫切需要将模型能力无缝融入实际业务场景中,如投研分析、卷宗分析、智能客服、医疗影像辅助诊断等,这些场景对Token的消耗越来越大。近两年AI技术快速发展,当前虽已在文档处理等场景体现价值,但仍需解决推理效率、存力等突出问题,而存储对大模型训练与推理效果至关重要。
中国信息通信研究院首席专家石友康在会上表示,先进存力成为提升AI推理效能、控制成本的关键。当前,国家高度重视先进存力发展,明确提出“加速存力技术研发应用”“持续提升存储产业能力”“推动存算网协同发展”。信通院在政策研究、标准制定、测试服务等方面开展多项工作,并联合产业链企业成立“算力产业发展方阵先进存力AI推理工作组”,同时提出三点建议:鼓励前沿存储技术研发创新,推动存算运深度融合,加强存算协同产业生态建设,呼吁业界同仁凝聚共识,共同推动我国存算协同发展。
中国移动云能力中心项目总师周宇分享了面向推理的存储技术趋势与实践。当前推理面临KVCache(即键值对缓存,是一种用于快速访问数据的存储结构)存储需求升级、多模态数据协同、存算协同带宽不足等挑战。他介绍,移动云针对性采用分层缓存调度、高速数据互联技术提升带宽、多模数据专属存储与标准化等技术破局。未来趋势上,移动云推动存储从被动存储转向智算协同,分阶段落地高密全闪存储、数据高速互联、存算一体等技术,长远构建池化多体存储体系,同时强调技术整合与生态协同。
华为数据存储产品线战略与业务发展部总裁王旭东介绍了AI时代IT基础设施能力面临三大挑战:“管不好”的数据、“喂不饱”的算力、“降不下”的成本。传统存储架构难以兼顾高吞吐、低时延及异构数据融合的需求,造成业务发展瓶颈,阻碍AI应用落地。她介绍,华为针对AI推理训练研发的UCM推理记忆数据管理技术在行业落地中的核心作用,通过“集中高质数据、提速AI训练、优化推理效能”三个角度,打造AI推理加速解决方案。
北京硅基流动科技有限公司解决方案总监唐安波围绕大模型推理“推不动、推得慢、推得贵”问题展开分享:硅基流动构建的AI infra(基础设施)工具链,核心推理框架适配多模态模型与国内外算力,适配昇腾并优化DeepSeek模型可实现性价比提升。从推理框架延伸至MaaS(模型即服务)服务平台,部署主流开源模型,聚焦提升算力利用率。
会后,与会专家走进科大讯飞、华为北京研究所达芬奇展厅,实地调研存力技术如何促进AI推理应用、AI推理框架、先进存力和智能算力协同发展,推动存储产业高质量发展。
(主办方供图)

网友评论