大模型时代的云边协同计算展示智能计算新范式

2025-08-17 21:52:19 来源: 科技日报 点击数:

科技日报记者 李山

8月14日,“大模型时代的云边协同计算研讨会”在复旦大学召开。此次研讨会由复旦大学计算与智能创新学院、葡萄牙国立实时与嵌入式计算系统研究中心等联合举办。来自中国、葡萄牙、德国、英国等多个国家的二十余位学者、产业界专家汇聚一堂,深入探讨云边协同计算在大模型背景下的新架构、落地实践与安全挑战。

研讨会共同组织者之一,复旦大学赵进教授在会上强调,云—边—端协同计算已成为大模型时代提升算力效率、保障训练和推理性能的关键路径。他介绍了其团队最新开发的面向联邦学习训练的框架FedFreeze,该框架针对资源受限场景的微调需求,通过全局协同的选择性张量冻结、细粒度梯度运算与梯度压缩,实现收敛加速与内存消耗降低的双重优化。团队在多种异构硬件、多种数据集上验证了该框架的优越性能。

葡萄牙国立实时与嵌入式计算系统研究中心李恺教授介绍了一种与数据无关的联邦学习模型中毒范式,借助对抗性图自动编码器(GAE)在不访问原始训练数据的条件下破坏联邦训练;同时提出基于可解释图神经网络的防御机制,整合Grad-CAM与自编码器,实现对GAE型中毒的鲁棒检测,相比传统欧氏距离类方法具备更强的可解释性与弹性。

英国谢菲尔德大学张杰教授回顾了他15年前发起的智能无线电环境研究项目——WiFEEB。该项目于2012年成为欧盟FP7项目,在超表面与智能可重构结构等领域开展了开创性探索。随后,他介绍了用于量化建筑“无线友好度”的BWP评估框架,并分享了“AIRIS”项目在可重构智能表面仿真方面的进展。

贵州大学杨静教授围绕“云边端协同下的跨区域算力任务调度技术”作了报告,介绍了目前跨区域算力网络国内外研究现状,贵州省算力基础设施建设情况,以及贵州大学在高水平智算平台建设方面的进展与未来规划,并重点分享了其团队在跨区域算力任务感知、跨区域算力任务调度、微小型数据中心能源优化方面的研究成果与应用情况。

南京大学李文中教授聚焦“选择性对比解码”技术如何在协同式大语言模型(LLM)推理中实现降本增效,介绍了一种基于多版本边缘小模型(SLM)的自适应边云协同动态推理框架。该框架通过轻量级置信度评估器,在查询和词元级别评估SLM输出的可靠性,为任务调度提供依据。结合选择性对比解码与强化学习驱动的动态调度策略,系统只需对高不确定性的“困难 token/片段”触发云端对比校正,在确保生成质量的同时,显著降低整体计算开销,提升资源利用效率,为高效部署LLM服务提供了新方案。

清华大学王蔚峻博士展望了视频应用在大模型时代的进展。小模型时代,“区域级内容增强”的视频分析路径,仅对重要区域进行增强以提升分析精度与吞吐,在多类边缘设备上实现相较帧级增强方法精度提升与吞吐量达到2至3倍改善的综合收益。大模型时代,多模态大模型大大降低了用户的使用门槛,通过小模型蒸馏LoRA引入外部知识,高效的ATMM算子设计与实现,自适应的LoRA LMM推理模式切换,极大提升了LMM服务系统的吞吐。

腾讯公司的缪葱葱博士则分享了来自工业界的经验,介绍了LLM大规模集群训练中存在“迭代时间不规律”问题,其导致训练进度延长的负面影响甚至大于显式故障,进而提出Holmes系统,基于通信算子图与增强的异常算子检测模型实现实时定位,并通过跨迭代分析提升定位准确率。通过原型验证,显示可在较短时间内完成定位,显著提升训练稳定性工程能力。

德国国家工程院和欧洲科学院院士、哥廷根大学计算机科学研究所教授、复旦大学社会智能研究中心首席科学家傅晓明在总结中表示,会议围绕智能无线网络环境、云—边—端协同调度、联邦学习安全与高效微调、云边协同大模型推理、视频智能分析以及超大规模GPU集群LLM训练可观测性等前沿方向展开了深入交流,有助于推动大模型与云边协同计算的相互赋能。他指出,未来云边协同计算将在算力智能调度、跨域资源融合和数据隐私保护等方面不断突破,中欧双方在标准、技术和应用等领域的互补优势,双方的进一步合作有望为全球智能计算体系发展注入新的动力。

责任编辑:王倩

抱歉,您使用的浏览器版本过低或开启了浏览器兼容模式,这会影响您正常浏览本网页

您可以进行以下操作:

1.将浏览器切换回极速模式

2.点击下面图标升级或更换您的浏览器

3.暂不升级,继续浏览

继续浏览