科技日报记者 华凌
12月18日,北京人形机器人创新中心正式开源国内首个且唯一通过具身智能国标测试的具身VLA大模型XR-1,同步推出配套数据基础RoboMIND 2.0与高保真数字资产数据集ArtVIP最新版,构建全链条开源生态,推动国内具身智能行业迈向“全自主、更好用”新阶段。

XR-1作为面向具身小脑能力的核心模型,破解了“视觉感知”与“动作执行”割裂的行业痛点。其依托跨数据源学习、跨模态对齐、跨本体控制三大核心能力,通过首创的UVMC技术搭建视觉与动作的映射桥梁,让机器人具备“本能反应”,可自主应对复杂环境与突发情况。该模型在11月中国电子技术标准化研究院“求索”具身智能测评中,成为唯一通过测试的VLA模型,获颁相关测试证书。在实际应用中,搭载XR-1的机器人可完成连续穿行5扇门、精准分拣物料等复杂任务,全程无需人工干预。

此次同步开源的RoboMIND 2.0数据集实现全面升级,操作轨迹数据增至30万条,覆盖11个工业、商用、家庭场景,新增1.2万条带触觉操作数据,支持机器人长程协作任务训练。ArtVIP则提供超1000个高保真数字孪生铰接物品,其仿真数据与真机数据结合使用,可使机器人任务成功率平均提升超25%。二者为XR-1提供坚实数据支撑,大幅降低模型训练门槛。
(北京人形机器人创新中心供图)

网友评论