机器人领域首个开源视觉-谈话操纵大模型,RoboFlamingo框架激发开源VLMs更大潜能

还在苦苦寻找开源的机器人大模型?试试RoboFlamingo!近年来,大模型的研究正在加速推进,它逐渐在各类使命上展现出多模态的理解和时间空间上的推理能力。机器人的各类具身操纵使命天然就对谈话指令理解、场景感知和时空规划等能力有着很高的要求,这自然引申出一个问题:能不能充分利用大模型能力,将其迁移到机器人领域,直接规划底层动作序列呢?对此,ByteDance Research 基于开源的多模态谈话视觉大模型 OpenFlamingo 开发了开源、易用的 RoboFlamingo 机器人操纵模型,只用单机就可以训练。

还在苦苦寻找开源的机器人大模型?试试RoboFlamingo!

近年来,大模型的研究正在加速推进,它逐渐在各类使命上展现出多模态的理解和时间空间上的推理能力。机器人的各类具身操纵使命天然就对谈话指令理解、场景感知和时空规划等能力有着很高的要求,这自然引申出一个问题:能不能充分利用大模型能力,将其迁移到机器人领域,直接规划底层动作序列呢?

对此,ByteDance Research 基于开源的多模态谈话视觉大模型 OpenFlamingo 开发了开源、易用的 RoboFlamingo 机器人操纵模型,只用单机就可以训练。使用简单、少量的微调就可以把 VLM 变成 Robotics VLM,从而适用于谈话交互的机器人操纵使命。

OpenFlamingo 在机器人操纵数据集 CALVIN 上进行了验证,试验结果表明,RoboFlamingo 只利用了 1% 的带谈话标注的数据即在一系列机器人操纵使命上取得了 SOTA 的本能。随着 RT-X 数据集开放,采用开源数据预训练 RoboFlamingo 并 finetune 到不同机器人平台,将有希望成为一个简单有效的机器人大模型 pipeline。论文还测试了各种不同 policy head、不同训练范式和不同 Flamingo 结构的 VLM 在 Robotics 使命上微调的表现,得到了一些有意思的结论。

机器人领域首个开源视觉-谈话操纵大模型,RoboFlamingo框架激发开源VLMs更大潜能

项目主页:https://roboflamingo.github.io

代码地址:https://github.com/RoboFlamingo/RoboFlamingo

论文地址:https://arxiv.org/abs/2311.01378

研究背景

机器人领域首个开源视觉-谈话操纵大模型,RoboFlamingo框架激发开源VLMs更大潜能

基于谈话的机器人操纵是具身智能领域的一个重要应用,它涉及到多模态数据的理解和处理,包括视觉、谈话和控制等。近年来,视觉谈话基础模型(VLMs)已经在多个领域取得了显著的进展,包括图像描述、视觉问答和图像生成等。然而,将这些模型应用于机器人操纵仍然存在一些挑战,例如如何将视觉和谈话信息结合起来,如何处理机器人操纵的时序性等。

为了解决这些问题,ByteDance Research 的机器人研究团队利用现有的开源 VLM,OpenFlamingo,设计了一套新的视觉谈话操纵框架,RoboFlamingo。其中 VLM 可以进行单步视觉谈话理解,而额外的 policy head 模组被用来处理历史信息。只需要简单的微调方法就能让 RoboFlamingo 适应于基于谈话的机器人操纵使命。

RoboFlamingo 在基于谈话的机器人操纵数据集 CALVIN 上进行了验证,试验结果表明,RoboFlamingo 只利用了 1% 的带谈话标注的数据即在一系列机器人操纵使命上取得了 SOTA 的本能(多使命学习的 task sequence 成功率为 66%,平均使命完成数量为 4.09,基线方法为 38%,平均使命完成数量为 3.06;zero-shot 使命的成功率为 24%,平均使命完成数量为 2.48,基线方法为 1%,平均使命完成数量是 0.67),并且能够通过开环控制实现实时响应,可以灵活部署在较低本能的平台上。这些结果表明,RoboFlamingo 是一种有效的机器人操纵方法,可以为未来的机器人应用提供有用的参考。

方法

机器人领域首个开源视觉-谈话操纵大模型,RoboFlamingo框架激发开源VLMs更大潜能

本工作利用已有的基于图像 – 文本对的视觉谈话基础模型,通过训练端到端的方式生成机器人每一步的 relative action。模型的主要模块包含了 vision encoder,feature fusion decoder 和 policy head 三个模块。Vision encoder 模块先将当前视觉观测输入到 ViT 中,并通过 resampler 对 ViT 输出的 token 进行 down sample。Feature fusion decoder 将 text token 作为输入,并在每个 layer 中先将 vision encoder 的 output 作为 query 进行 cross attention,之后进行 self attention 以完成视觉与谈话特征的融合。最后,对 feature fusion decoder 进行 max pooling 后将其送入 policy head 中,policy head 根据 feature fusion decoder 输出的当前和历史 token 序列直接输出当前的 7 DoF relative action,包括了 6-dim 的机械臂末端位姿和 1-dim 的 gripper open/close。

在训练过程中,RoboFlamingo 利用预训练的 ViT、LLM 和 Cross Attention 参数,并只微调 resampler、cross attention 和 policy head 的参数。

试验结果

数据集:

机器人领域首个开源视觉-谈话操纵大模型,RoboFlamingo框架激发开源VLMs更大潜能

CALVIN(Composing Actions from Language and Vision)是一个开源的模拟基准测试,用于学习基于谈话的 long-horizon 操纵使命。与现有的视觉 – 谈话使命数据集相比,CALVIN 的使命在序列长度、动作空间和谈话上都更为复杂,并支持灵活地指定传感器输入。CALVIN 分为 ABCD 四个 split,每个 split 对应了不同的 context 和 layout。

定量分析:

机器人领域首个开源视觉-谈话操纵大模型,RoboFlamingo框架激发开源VLMs更大潜能

RoboFlamingo 在各设置和指标上的本能均为最佳,说明了其具有很强的模仿能力、视觉泛化能力以及谈话泛化能力。Full 和 Lang 表示模型是否使用未配对的视觉数据进行训练(即没有谈话配对的视觉数据);Freeze-emb 指的是冻结融合解码器的嵌入层;Enriched 表示使用 GPT-4 增强的指令。

消融试验:

机器人领域首个开源视觉-谈话操纵大模型,RoboFlamingo框架激发开源VLMs更大潜能

不同的 policy head:

试验考察了四种不同的策略头部:MLP w/o hist、MLP w hist、GPT 和 LSTM。其中,MLP w/o hist 直接根据当前观测预测历史,其本能最差,MLP w hist 将历史观测在 vision encoder 端进行融合后预测 action,本能有所提升;GPT 和 LSTM 在 policy head 处分别显式、隐式地维护历史信息,其表现最好,说明了通过 policy head 进行历史信息融合的有效性。

视觉-谈话预训练的影响:

预训练对于 RoboFlamingo 的本能提升起到了关键作用。试验显示,通过预先在大型视觉-谈话数据集上进行训练,RoboFlamingo 在机器人使命中表现得更好。

模型大小与本能:

虽然通常更大的模型会带来更好的本能,但试验结果表明,即使是较小的模型,也能在某些使命上与大型模型媲美。

指令微调的影响:

指令微调是一个强大的技巧,试验结果表明,它可以进一步提高模型的本能。

机器人领域首个开源视觉-谈话操纵大模型,RoboFlamingo框架激发开源VLMs更大潜能机器人领域首个开源视觉-谈话操纵大模型,RoboFlamingo框架激发开源VLMs更大潜能机器人领域首个开源视觉-谈话操纵大模型,RoboFlamingo框架激发开源VLMs更大潜能

机器人领域首个开源视觉-谈话操纵大模型,RoboFlamingo框架激发开源VLMs更大潜能机器人领域首个开源视觉-谈话操纵大模型,RoboFlamingo框架激发开源VLMs更大潜能机器人领域首个开源视觉-谈话操纵大模型,RoboFlamingo框架激发开源VLMs更大潜能

定性结果

相较于基线方法,RoboFlamingo 不但完整执行了 5 个连续的子使命,且对于基线页执行成功的前两个子使命,RoboFlamingo 所用的步数也明显更少。

机器人领域首个开源视觉-谈话操纵大模型,RoboFlamingo框架激发开源VLMs更大潜能

总结

本工作为谈话交互的机器人操纵策略提供了一个新颖的基于现有开源 VLMs 的框架,使用简单微调就能实现出色的效果。RoboFlamingo 为机器人技术研究者提供了一个强大的开源框架,能够更容易地发挥开源 VLMs 的潜能。工作中丰富的试验结果或许可以为机器人技术的实际应用提供宝贵的经验和数据,有助于未来的研究和技术发展。

参考文献:

1. Brohan, Anthony, et al. "Rt-1: Robotics transformer for real-world control at scale." arXiv preprint arXiv:2212.06817 (2022).

2. Brohan, Anthony, et al. "Rt-2: Vision-language-action models transfer web knowledge to robotic control." arXiv preprint arXiv:2307.15818 (2023).

3. Mees, Oier, Lukas Hermann, and Wolfram Burgard. "What matters in language conditioned robotic imitation learning over unstructured data." IEEE Robotics and Automation Letters 7.4 (2022): 11205-11212.

4. Alayrac, Jean-Baptiste, et al. "Flamingo: a visual language model for few-shot learning." Advances in Neural Information Processing Systems 35 (2022): 23716-23736.

5. Mees, Oier, et al. "Calvin: A benchmark for language-conditioned policy learning for long-horizon robot manipulation tasks." IEEE Robotics and Automation Letters 7.3 (2022): 7327-7334.

6. Padalkar, Abhishek, et al. "Open x-embodiment: Robotic learning datasets and rt-x models." arXiv preprint arXiv:2310.08864 (2023).

7. Brown, Tom, et al. "Language models are few-shot learners." Advances in neural information processing systems 33 (2020): 1877-1901.

8. Awadalla, Anas, et al. "Openflamingo: An open-source framework for training large autoregressive vision-language models." arXiv preprint arXiv:2308.01390 (2023).

9. Driess, Danny, et al. "Palm-e: An embodied multimodal language model." arXiv preprint arXiv:2303.03378 (2023).

10. Jiang, Yunfan, et al. "VIMA: General Robot Manipulation with Multimodal Prompts." NeurIPS 2022 Foundation Models for Decision Making Workshop. 2022.

11. Mees, Oier, Jessica Borja-Diaz, and Wolfram Burgard. "Grounding language with visual affordances over unstructured data." 2023 IEEE International Conference on Robotics and Automation (ICRA). IEEE, 2023.

12. Tan, Mingxing, and Quoc Le. "Efficientnet: Rethinking model scaling for convolutional neural networks." International conference on machine learning. PMLR, 2019.

13. Zhang, Tianhao, et al. "Deep imitation learning for complex manipulation tasks from virtual reality teleoperation." 2018 IEEE International Conference on Robotics and Automation (ICRA). IEEE, 2018.

给TA打赏
共{{data.count}}人
人已打赏
应用

Stable Diffusion ComfyUI 基础教程(七)如何运用三大微调模型:Embeddings、Lora、Hypernetwork

2024-1-17 8:16:46

应用

Stability AI公布Stable Code 3B模型,没有GPU也能本地运行

2024-1-17 14:41:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索