国产AI登顶全球!智谱+华为联手

2026-01-16 23:05:15 来源: 科技日报 点击数:

科技日报记者 崔爽

日前,由智谱与华为联合研发并开源的多模态图像生成模型GLM-Image,登顶Hugging Face平台Trending榜第一,打破长期以来国外模型在开源榜首的垄断局面。

值得一提的是,该模型基于昇腾Atlas 800T A2设备和昇思MindSpore AI框架,完成从数据到训练的全流程,是首个在国产芯片上完成全程训练的SOTA多模态模型。

而这背后,是智谱与华为“软硬协同”的深度合作,更是国产AI全产业链突破的缩影。

采用自主创新混合架构

智谱相关负责人介绍,GLM-Image采用自主创新的“自回归+扩散解码器”混合架构,实现图像生成与语言模型的联合,是面向以Nano Banana Pro为代表的新一代“认知型生成”技术范式的一次重要探索。

其核心亮点在于架构革新,模型采用创新的“自回归 + 扩散编码器”混合架构,兼顾全局指令理解与局部细节刻画,克服了海报、PPT、科普图等知识密集型场景生成难题,向探索以Nano Banana Pro(谷歌于2025年发布的AI图像生成和编辑模型)为代表的新一代“知识+推理”的认知型生成模型迈出重要一步。

基于上述架构创新,该模型在CVTG-2K(复杂视觉文本生成)和LongText-Bench(长文本渲染)榜单获得开源第一。据了解,模型尤其擅长文字密集生成任务。CVTG-2K榜单核心考察模型在图像中同时生成多处文字的准确性,在多区域文字生成准确率上,GLM-Image的成绩位列开源模型第一;LongText-Bench(长文本渲染)榜单则考察模型渲染长文本、多行文字的准确性,覆盖招牌、海报、PPT、对话框等8种文字密集场景,GLM-Image的成绩位列开源模型第一。

此外,模型兼具高性价比与速度优化,在API调用模式下,生成一张图片仅需0.1元,速度优化版本也即将更新。

首个国产芯片训练出的SOTA模型

“GLM-Image是我们对国产计算生态的一次深度探索与验证。其自回归结构基座从早期的数据预处理到最终的大规模预训练,全流程均在昇腾Atlas 800T A2设备上完成。”上述负责人透露。

该负责人介绍,华为搭建的“国产算力底座”是关键支撑。不同于以往多数AI模型依赖国外芯片训练,GLM-Image从数据预处理到大规模训练,全程跑在华为昇腾Atlas 800T A2芯片和昇思MindSpore框架上。正是这套全自主的“硬件+框架”组合,解决了AI训练“卡脖子”的核心问题,让模型训练摆脱了对国外芯片的依赖,更验证了在国产全栈算力底座上训练前沿模型的可行性。

同时,智谱在模型架构上实现创新突破。GLM-Image没有走国外开源模型常用的技术路线,而是采用“自回归+扩散解码器”的混合架构——简单说,就是让模型既能“读懂复杂指令”(比如生成带文字的科普图、商业海报),又能“画对细节”。尤其是汉字,以前AI画图常出现文字错乱,这次模型在中文生成准确率上做到开源第一。

业内人士表示,从更长远看,GLM-Image登顶不是偶然,而是国产AI全产业链协同的必然结果。这种全链条能力,不仅能让国内中小企业以更低成本用上AI工具,更能推动国产AI技术走向全球,有望改写过去“国外定标准、国内跟节奏”的产业格局。如今,GLM-Image的开源地址已在GitHub和Hugging Face平台同步开放,全球开发者都能免费使用这套“国产方案”。

责任编辑:陈可轩
网友评论
最热评论
没有更多评论了

抱歉,您使用的浏览器版本过低或开启了浏览器兼容模式,这会影响您正常浏览本网页

您可以进行以下操作:

1.将浏览器切换回极速模式

2.点击下面图标升级或更换您的浏览器

3.暂不升级,继续浏览

继续浏览