断交OpenAI后,人形机器人独角兽首秀:一个神经网络控制整个上身,能听懂人话可抓万物

与OpenAI断交之后,Figure首个成果出炉:Helix,一个端到端通用控制模型,它能让机器人像人一样感知、理解和行动。 只需自然语言提示,机器人就能拿起任何东西,哪怕是从没见过的东西,比如这个活泼的小仙人掌。 从官方放出的演示中可以看到,它在接收到人类的提示后,就会按照指令逐一拿起桌上的物品放进冰箱。

与OpenAI断交之后,Figure首个成果出炉:

Helix,一个端到端通用控制模型,它能让机器人像人一样感知、理解和行动。

只需自然语言提示,机器人就能拿起任何东西,哪怕是从没见过的东西,比如这个活泼的小仙人掌。

断交OpenAI后,人形机器人独角兽首秀:一个神经网络控制整个上身,能听懂人话可抓万物

从官方放出的演示中可以看到,它在接收到人类的提示后,就会按照指令逐一拿起桌上的物品放进冰箱。

图片图片

嗯,是有种“机器人站着不语,只是一味地执行指令”的感觉了。

断交OpenAI后,人形机器人独角兽首秀:一个神经网络控制整个上身,能听懂人话可抓万物

两个机器人也可以共同协作,但有意思的一点是,他们竟然共用同一组神经网络

△加速2倍△加速2倍

来看看具体是怎么一回事。

像人类一样思考的AI

从技术报告上看,这个通用“视觉-语言-动作” (VLA) 模型完成了一系列的首创:

整个上身控制,Helix是首个能对整个上身(包括手腕、躯干、头部和各个手指)进行高速率(200Hz)连续控制的VLA。

多机器人协作,第一个同时在两个机器人上运行的 VLA,使它们能够使用从未见过的物品解决共享的、远程操作任务。

拿起任何东西,只需按照自然语言提示,就能拿起几乎任何小型家居物品,包括数千种它们从未遇到过的物品。

一个神经网络,与之前的方法不同,Helix 使用一组神经网络权重来学习所有行为(挑选和放置物品、使用抽屉和冰箱以及跨机器人交互),而无需任何针对特定任务的微调。

可立即商业化部署,第一款完全在嵌入式低功耗 GPU 上运行的 VLA,可立即进行商业部署。

Helix由两个系统组成,两个系统经过端到端训练,并且可以进行通信。

图片图片

系统2:VLM主干,基于在互联网规模数据上预训练的7B开源VLM,它将单目机器人图像和机器人状态信息(包括手腕姿势和手指位置)投射到视觉语言嵌入空间后进行处理。

工作频率为 7-9 Hz,用于场景理解和语言理解,可对不同对象和语境进行广泛的泛化。

系统1:80M参数的交叉注意力Transformer,用于处理底层控制。它依靠一个完全卷积、多尺度的视觉骨干网进行视觉处理,该骨干网由完全在模拟中完成的预训练初始化而成。

将 S2 生成的潜在语义表征转化为精确的连续机器人动作,包括所需的手腕姿势、手指弯曲和外展控制,以及躯干和头部方向目标。速度为200Hz。

他们在动作空间中附加了一个合成的 “任务完成百分比 ”动作,使 Helix 能够预测自己的终止条件,从而更容易对多个任务进行排序。

这种解耦架构允许每个系统在其最佳时间尺度上运行。S2可以“慢慢思考”高级目标,而 S1 可以“快速思考”以实时执行和调整动作。

训练过程是完全端到端,从原始像素和文本命令映射到具有标准回归损失的连续动作。

并且Helix 不需要针对特定任务进行调整;它保持单个训练阶段和单个神经网络权重集,无需单独的动作头或每个任务的微调阶段。

人形机器人的Scaling Law

CEO透露,这项工作他们花费了一年多的时间,旨在解决通用机器人问题——

像人类一样,Helix可以理解语音、推理问题并能抓住任何物体。

而就在两周前,他们宣布取消与OpenAI之间的合作关系,当时就透露会在接下来的30天展示“没人在人形机器人上见过的东西”

如今已经揭晓,就是Helix。

图片图片

值得一提的是,Helix还代表着一种新型的Scaling Law。

他们认为,家庭是机器人面临的最大挑战。与受控的工业环境不同,家里堆满了无数的物品。为了让机器人在家庭中发挥作用,它们需要能够按需产生智能的新行为,尤其是对它们从未见过的物体。

当前,教机器人一种新行为需要大量的人力。要么是数小时的博士级专家手动编程,要么是数千次演示。

这两种方式成本都很高,所以都是行不通的(dont work)。

图片图片

与早期的机器人系统不同,Helix能够即时生成长视界、协作、灵巧的操作,而无需任何特定任务的演示或大量的手动编程。

Helix 表现出强大的对象泛化能力,能够拾取数千种形状、大小、颜色和材料特性各异的新奇家居用品,而这些物品在训练中从未见过,只需用自然语言询问即可。

这意味着,这代表 Figure 在扩展人形机器人行为方面迈出了变革性的一步。

到时候,当Helix 扩大1000倍、机器人扩展到十亿级别,会是什么样子?有点子期待。

参考链接:[1]https://www.figure.ai/news/helix[2]https://x.com/adcock_brett/status/1892577936869327233

相关资讯

特斯拉分享第二代 Optimus 机器人工作视频:可将电池精确插入托盘

感谢特斯拉今日再次分享了一段第二代 Optimus 人形机器人的工作视频,视频显示,该机器人可将电池单体精确地插入托盘中。据特斯拉官方介绍,他们训练并部署了一个神经网络,允许 Optimus 开始执行有用的任务,例如从传送带上捡起电池单体并精确地将它们插入托盘中。这个神经网络完全端到端运行,意味着它只使用来自机器人的 2D 摄像头以及板载的本体感知传感器的视频,并直接产生关节控制序列。 特斯拉还称,已经在其中一家工厂部署了几个机器人,它们正在实际的工作站上每天进行测试并不断改进。此外,新款 Optimus 现在也能

新的训练范式可以防止机器学习模型学习虚假相关性

译者 | 李睿审校 | 重楼机器学习领域长期存在的问题之一是错误相关性的记忆。 例如:假设开发人员正在开发一个深度神经网络对陆地鸟类和海洋鸟类的图像进行分类。 他们使用数千张标记过的图像训练模型,这个模型在训练集和测试集上的表现都非常出色。

从一个简单的神经网络模型开始

关于神经网络的文章写的也不少了,但一直没弄明白神经网络到底是怎么运作的;而现有的神经网络模型又太复杂,如Transformer,CNN,RNN,以及各种应用场景(NLP,CV,分类任务,回归任务等等);导致我们无法看到神经网络最本质的东西。 所以,今天我们就来从最简单的神经网络开始学起。 简单神经网络神经网络的基本原理很简单,那就是模仿由人类大脑神经元构成的神经网络;神经元结构如下图所示:上图是生物学中神经元的基本结构,神经元由树突和轴突以及细胞核组成;而不同神经元之间通过轴突进行连接;当然这些都是中学生物学的基础,就不多说了。