智元机器人推出通用具身基座大模型GO-1加速具身智能普及
近日,智元公司在科技领域迈出了重要一步,正式推出了其首个通用具身基座模型——智元启元大模型(Genie Operator-1),这一创新成果标志着机器人在智能化道路上取得了显著进展。
智元启元大模型的核心在于其独特的Vision-Language-Latent-Action (ViLLA)架构,该架构融合了VLM(多模态大模型)与MoE(混合专家)两大组件。VLM通过广泛收集互联网图文数据,获得了卓越的场景感知和语言理解能力。而MoE则分为Latent Planner(隐式规划器)和Action Expert(动作专家)两部分,前者通过大量跨本体和人类操作视频数据,掌握了通用的动作理解技巧;后者则基于百万真机数据,实现了精细的动作执行能力。
为了构建这一先进模型,智元在2024年底推出了AgiBot World,这是一个包含超过100万条轨迹、涵盖217个任务、涉及五大场景的大规模高质量真机数据集。正是基于这一数据集,智元成功研发出了Genie Operator-1(GO-1)。
与之前的Vision-Language-Action (VLA)架构相比,ViLLA架构通过预测Latent Action Tokens(隐式动作标记),有效弥补了图像-文本输入与机器人执行动作之间的鸿沟。在推理过程中,VLM、Latent Planner和Action Expert三者紧密协作,共同完成任务。
具体来说,VLM采用InternVL-2B模型,能够接收多视角视觉图片、力觉信号、语言输入等多模态信息,进行场景感知和指令理解。Latent Planner则基于VLM的中间层输出,预测Latent Action Tokens,形成规划链(Chain of Planning),进行动作理解和规划。而Action Expert则根据VLM的中间层输出以及Latent Action Tokens,生成最终的精细动作序列。
Latent Planner和Action Expert作为MoE中的关键组件,各自扮演着重要角色。Latent Planner通过预测离散的Latent Action Tokens,将异构数据源中的真实世界动作知识转移到通用操作任务中。而Action Expert则采用Diffusion Model作为目标函数,建模低层级动作的连续分布,实现高频且灵活的操控。
在实验效果方面,ViLLA架构展现出了强大的性能。在五种不同复杂度的任务测试中,GO-1相比已有的最优模型,平均成功率提高了32%,特别是在“倒水”、“清理桌面”和“补充饮料”等任务中表现尤为突出。单独验证Latent Planner的作用也显示,其能够提升12%的成功率。
GO-1大模型不仅具备强大的学习能力,能够结合互联网视频和真实人类示范进行学习,增强对人类行为的理解,还具备小样本快速泛化的能力。这意味着它能够在极少数据甚至零样本的情况下,泛化到新场景和新任务,大大降低了具身模型的使用门槛。同时,GO-1还支持部署到不同的机器人本体,实现快速适配和群体升智。
智元还推出了自主研发的大型仿真框架AgiBot Digital World,为机器人操作提供了灵活的仿真数据生成方案、预训练的大规模仿真数据和统一的模型评测标准。这一框架的推出,将进一步推动机器人在智能化道路上的发展。
智元公司表示,GO-1大模型的推出将加速具身智能的普及,推动机器人从依赖特定任务的工具向具备通用智能的自主体发展。未来,机器人将在商业、工业、家庭等多领域发挥更大作用,为人类创造更加便捷、智能的生活。