Figure AI 发布了首个通用视觉-语言-行动(VLA)模型——Helix。
该模型完成了一系列的首创:
-整个上身控制:首个能对整个上身(包括手腕、躯干、头部和各个手指)进行高速率(200Hz)连续控制的 VLA。
-多机器人协作:同时在两个机器人上运行的 VLA,使它们能够使用从未见过的物品解决共享的、远程操作任务。
-拿起任何东西:只需按照自然语言提示,就能拿起数千种它们从未遇到过的物品。
-一个神经网络:用一组神经网络权重来学习所有行为(挑选和放置物品、使用抽屉和冰箱以及跨机器人交互),而无需任何针对特定任务的微调。
-可立即商业化部署:第一款完全在嵌入式低功耗 GPU 上运行的 VLA,可立即进行商业部署。
Helix 系统只需 500 小时的训练数据,远低于同类项目的要求。