FigureAI发布了首个通用视觉-语言-行动(VLA)模型——Helix。

首席线官 2025-02-21 08:47:15

Figure AI 发布了首个通用视觉-语言-行动(VLA)模型——Helix。

该模型完成了一系列的首创:

-整个上身控制:首个能对整个上身(包括手腕、躯干、头部和各个手指)进行高速率(200Hz)连续控制的 VLA。

-多机器人协作:同时在两个机器人上运行的 VLA,使它们能够使用从未见过的物品解决共享的、远程操作任务。

-拿起任何东西:只需按照自然语言提示,就能拿起数千种它们从未遇到过的物品。

-一个神经网络:用一组神经网络权重来学习所有行为(挑选和放置物品、使用抽屉和冰箱以及跨机器人交互),而无需任何针对特定任务的微调。

-可立即商业化部署:第一款完全在嵌入式低功耗 GPU 上运行的 VLA,可立即进行商业部署。

Helix 系统只需 500 小时的训练数据,远低于同类项目的要求。

0 阅读:2
首席线官

首席线官

感谢大家的关注