聚焦大模型+机器人。
自 2017 年首次举办以来,CoRL 已经成为了机器人学与机器进修交叉领域的全球顶级学术会议之一。CoRL 是面向机器人进修钻研的 single-track 会议,涵盖机器人学、机器进修和控制等多个主题,包括理论与应用。
2023 年的 CoRL 大会于 11 月 6 日至 9 日在美国亚特兰大举行。据官方数据透露,今年来自 25 个国家的 199 篇论文入选 CoRL,热门主题包括 manipulation、强化进修等。虽然相比于 AAAI、CVPR 等大型 AI 学术会议,CoRL 的会议规模还相对小很多,但随着今年大模型、具身智能、人形机器人等概念的火热,CoRL 会议上的相关钻研也非常值得关注。
目前,CoRL 2023 官方已公布最好论文奖、最好学生论文奖、最好系统论文奖等奖项。接下来,我们将为大家介绍一下这些获奖论文。
最好论文
论文:Distilled Feature Fields Enable Few-Shot Language-Guided Manipulation
作者:William Shen, Ge Yang, Alan Yu, Jensen Wong, Leslie Pack Kaelbling, Phillip Isola
机构:MIT CSAIL、IAIFI
论文地址:https://openreview.net/forum?id=Rb0nGIt_kh5
论文简介:当前,自监督和说话监督的图像模型已经包含丰富的世界知识,这对于泛化来说非常重要,但图像特征是二维的。我们知道,机器人任意通常需要对现实世界中三维物体的几何形状有所了解。
该钻研利用蒸馏特征场(Distilled Feature Field,DFF),将准确的 3D 几何图形与来自 2D 基础模型的丰富语义结合起来,让机器人可以或许利用 2D 基础模型中丰富的视觉和说话先验,完成说话指导的操纵。
具体来说,该钻研提出了一种用于 6-DOF 抓取和放置的小样本进修方法,并利用强大的空间和语义先验泛化到未见过物体上。使用从视觉 – 说话模型 CLIP 中提取的特征,该钻研提出了一种通过开放性的自然说话指令对新物体进行操纵,并展示了这种方法泛化到未见过的表达和新型物体的能力。
这篇论文的两位共同一作是 CSAIL 「具身智能」团队的成员 William Shen 和杨歌,其中杨歌是 2023 年 CSAIL 具身智能研讨会的共同筹办人。
机器之心曾详细介绍过这篇钻研,请参考《大模型加持的机器人有多强,MIT CSAIL&IAIFI 用自然说话指导机器人抓取物体》。
最好学生论文
论文:Robots That Ask For Help: Uncertainty Alignment for Large Language Model Planners
作者:Allen Z. Ren, Anushri Dixit, Alexandra Bodrova, Sumeet Singh, Stephen Tu, Noah Brown, Peng Xu, Leila Takayama, Fei Xia, Jake Varley, Zhenjia Xu, Dorsa Sadigh, Andy Zeng, Anirudha Majumdar
机构:普林斯顿大学、Google DeepMind
论文地址:https://openreview.net/forum?id=4ZK8ODNyFXx
论文简介:从逐步规划到常识推理,大型说话模型(LLM)展现出大量在机器人领域未来可期的能力,但 LLM 存在幻觉问题。
基于此,该钻研提出了一种新框架 ——KnowNo,用于度量和对齐基于 LLM 的规划器的不确定性。它可以或许使 LLM 意识到哪些信息是未知的,并在有需要时求助。
KnowNo 建立在共形预测(conformal prediction)理论的基础上,为任意完成提供统计保证,同时可以或许最大限度地减少多步骤规划任意中的人工干预。
该钻研在各种模拟和真实机器人实验中,用各种模式的不确定任意(包括空间不确定性、数字不确定性等等)对 KnowNo 进行了测试。实验结果表明, KnowNo 在提高效率和自主性方面表现出色,优于基线,并且安全可信。KnowNo 可以或许在不进行模型微调的情况下直接用于 LLM,为模型的不确定性提供了一种有效的轻量级解决方法,并可以或许与基础模型不断增强的能力相辅相成。
最好系统论文
论文:RoboCook: Long-Horizon Elasto-Plastic Object Manipulation with Diverse Tools
作者:Haochen Shi, Huazhe Xu, Samuel Clarke, Yunzhu Li, Jiajun Wu
机构:斯坦福大学、UIUC
论文地址:https://openreview.net/forum?id=69y5fzvaAT
论文简介:人类擅长制造和使用各种对象,但对于机器人而言,理解如何有效使用对象,并在相应的物体上完成操纵仍然是一个很大的挑战。该钻研构建了一个名为 RoboCook 的智能机器人系统,该系统可以或许通过各种对象感知、建模并操纵弹塑性物体(elasto-plastic object)。
RoboCook 使用点云场景表征,利用图神经网络(GNN)对对象与物体的相互作用进行建模,并将对象分类与自监督策略进修相结合,以制定操纵计划。
该钻研表明,对于每个对象,仅需 20 分钟的现实世界交互数据,RoboCook 就能学会并操纵机械臂完成一些复杂的、长时程的弹塑性物体操纵任意,例如制作饺子、字母饼干等。
实验表明,RoboCook 的性能大大优于现有 SOTA 方法,对严重的外部干扰也能表现出稳健性,对不同材料的适应性也较强。
值得一提的是,这篇论文的共同一作分别是来自斯坦福大学的博士生 Haochen Shi、原斯坦福大学博士后钻研员、现清华大学交叉信息科学钻研所助理教授 Huazhe Xu,论文作者之一是姚班校友、斯坦福大学助理教授吴佳俊。
获奖论文完整入围名单
参考链接:
https://www.corl2023.org/awards