作者: 财联社 史正丞|
发布时间:2025-02-21 01:34:33
Figure AI发布双机协作端侧大模型Helix
摘要
美国机器人创业公司Figure AI在终止与OpenAI的合作后,推出了更先进的通用具身智能模型Helix。这是首款能够在人形机器人上半身实现高频率连续控制的视觉-语言-动作(VLA)模型,并支持双机协作。Helix的突破在于其高效的训练方式和在实际操作中的广泛应用能力。
正文
Helix模型的技术突破
Figure AI的Helix模型是首款能够实现人形机器人上半身连续控制的技术。它通过直接将视觉语言模型中的语义知识转化为机器人动作,克服了传统机器人动作训练的复杂性。该模型仅用了500小时的高质量监督数据,显著少于传统VLA数据集的5%。
系统的互补性
为了解决视觉语言模型和机器人视觉运动策略之间的矛盾,Figure AI设计了两套互补的系统:
- 系统2:开源、开放权重的70亿参数量端侧互联网预训练视觉语言模型,用于理解场景和自然语言。
- 系统1:8000万参数量的快速反应视觉运动策略,将系统2的语义转化为每秒200次的精确连续机器人动作。
实际应用与多机协作
Helix模型使得机器人能够根据自然语言指令识别并拾取几乎所有的小型家居物品,包括未见过的物品。更令人瞩目的是,该模型首次实现了两台机器人的协作操作。在演示中,两台机器人通过对视确认动作,展现了高级的团队合作能力。
商业化前景
Helix模型完全能够在嵌入式低功耗GPU上运行,现已具备商业部署能力。Figure AI正在进行一轮目标15亿美元的融资,预计估值将达到395亿美元,显示出机器人市场的巨大潜力。
结论
Figure AI的Helix模型不仅在技术上实现了突破,还展示了其在实际应用中的广泛潜力。随着机器人协作能力的提升,未来的机器人市场将迎来更加广阔的发展空间。![]()
参考来源:Figure AI
延伸阅读
原文链接