在机器人技术的前沿探索中,一款名为智元启元大模型Genie Operator-1(简称GO-1)的通用具身基座模型于近日正式发布,标志着机器人在智能领域的又一重大突破。这款由智元机器人公司倾力打造的模型,凭借其创新的Vision-Language-Latent-Action(ViLLA)框架,展现了小样本快速泛化、跨本体应用、持续进化及人类视频学习等独特优势。
GO-1的核心在于其ViLLA框架,该框架融合了VLM(多模态大模型)与MoE(混合专家)技术。VLM作为模型的主干网络,通过利用互联网上的大规模纯文本和图文数据,赋予了GO-1强大的场景感知和理解能力。而MoE则包含了隐动作专家模型和动作专家模型,前者通过学习互联网上的大规模人类操作和跨本体操作视频,使模型能够理解动作;后者则借助高质量的仿真数据和真机数据,确保模型能够精准执行动作。
GO-1的五大特点尤为引人注目:采训推一体化设计,实现了数据采集、模型训练与推理的无缝衔接;小样本快速泛化能力,使得模型能够在极少数据甚至零样本的情况下适应新场景和新任务;一脑多形特性,让GO-1能够轻松迁移至不同形态的机器人上,快速适配各种本体;持续进化机制,通过智元的数据回流系统,模型能够根据实际执行中遇到的问题数据进行持续学习;人类视频学习能力,使模型能够结合互联网视频和真实人类示范进行学习,进一步增强了其对人类行为的理解。
在构建过程中,GO-1基于具身领域的数字金字塔结构,从底层的大规模纯文本与图文数据开始,逐步向上融合人类操作视频、仿真数据以及高质量的真机示教数据。这一多层次的数据融合策略,为GO-1提供了全面的“基础教育”和“能力培训”,使其能够轻松面对多样化的环境和物体,快速学习新的操作。
在实际应用中,GO-1展现出了惊人的表现。用户只需通过简单的语言指令,如“挂衣服”,模型便能根据视觉信号和所学知识,拆解任务步骤并精准执行。无论是家庭场景中的倒水、烤吐司,还是商务会议中的拿饮料、拿苹果,GO-1都能迅速响应并完成任务。GO-1还能通过数据回流机制持续进化,如从做咖啡时杯子放歪的问题中学习并改进,直至成功完成任务。
GO-1的问世,不仅解决了具身智能在场景和物体泛化、语言理解、新技能学习以及跨本体部署等方面的难题,更为机器人走向更多场景、适应多变真实世界提供了可能。从家庭到办公、从商业到工业,GO-1正引领着具身智能向通用化、开放化与智能化的方向加速迈进。