如虎添翼,谷歌探索 AI + 机器人未来:836 平方米复杂场景下指令成功率高达 90%

感谢科技媒体 The Verge 昨日报道,谷歌旗下的 DeepMind 团队正在使用 Gemini 训练其机器人,让其能够完成更复杂的任务,且能在复杂的环境下自由穿梭。DeepMind 团队已经发表了最新的研究论文,利用 Gemini 1.5 Pro 的上下文窗口(达到 200 万个词元),让用户可以更轻松地使用自然语言指令与 RT-2 机器人互动。AI在线注:上下文窗口(context window)是指语言模型在进行预测或生成文本时,所考虑的前一个词元(token)或文本片段的大小范围。其工作原理是拍摄指定区
感谢科技媒体 The Verge 昨日报道,谷歌旗下的 DeepMind 团队正在使用 Gemini 训练其机器人,让其能够完成更复杂的任务,且能在复杂的环境下自由穿梭。

如虎添翼,谷歌探索 AI + 机器人未来:836 平方米复杂场景下指令成功率高达 90%

DeepMind 团队已经发表了最新的研究论文,利用 Gemini 1.5 Pro 的上下文窗口(达到 200 万个词元),让用户可以更轻松地使用自然语言指令与 RT-2 机器人互动。

AI在线注:上下文窗口(context window)是指语言模型在进行预测或生成文本时,所考虑的前一个词元(token)或文本片段的大小范围。

其工作原理是拍摄指定区域(如家庭或办公空间)的视频导览,研究人员使用 Gemini 1.5 Pro 让机器人“观看”视频以了解环境;然后,机器人可以根据观察到的情况,通过语言和 / 或图像输出来执行命令。

例如用户向机器人展示一部手机,并询问“在哪里可以充电?”,机器人会引导用户找到室内的电源插座。

DeepMind 称,在一个 9000 平方英尺(AI在线备注:约 836.13 平方米)的操作区内,机器人在升级 Gemini 之后,测试发出 50 多条用户指令,成功率高达 90%。

研究人员还发现 "初步证据" 表明,Gemini 1.5 Pro 能让机器人计划如何完成导航以外的指令。

例如,当一位桌上摆放着许多可乐罐的用户询问机器人是否有他们最喜欢的饮料时,Gemini “知道机器人应该导航到冰箱,检查是否有可乐,然后返回用户处报告结果”。DeepMind 表示计划进一步研究这些结果。

相关资讯

Gemini 1.5 Pro装进机器人,参观一遍公司就能礼宾、带路

长上下文大模型帮助机器人理解世界。最近,谷歌 DeepMind 突然开始炫起了机器人。这个机器人可以轻松听从人类指令、进行视觉导览,用常识推理在三维空间中寻找路径。它使用的是最近谷歌发布的大模型 Gemini 1.5 Pro。在使用传统 AI 模型时,机器人常因上下文长度限制而难以回忆起环境细节,但 Gemini 1.5 Pro 的百万级 token 上下文长度为机器人提供了强大的环境记忆能力。在真实的办公室场景中,工程师引导机器人游览特定区域,并标出了需要回忆的关键地点,例如「刘易斯的办公桌」或「临时办公桌区域」

门板上做研究的首席科学家:Jeff Dean解密谷歌和Gemini背后的故事

“最开始我就知道谷歌相当有希望,谷歌能发展到现在的规模不过是水到渠成。 ”这位谷歌首席科学家在谷歌度过了近乎一半的人生,对谷歌的喜爱不减反增,到现在还依然坚守着谷歌最初的愿景并为此奋斗:组织全球信息并使其普遍可用和有用Jeff Dean 还记得刚加入谷歌的时候,每到周二的流量高峰期就开始担心系统会不会崩溃,还好后来及时增加了设备,对代码和搜索功能做了更多优化,谷歌搜索这才步入了正轨。 后来吴恩达在谷歌担任顾问,Jeff Dean 和他商定了大型神经网络的研究目标,最终促成了 Google Brain 团队的成立。

谷歌首个通用推理模型登场:揭秘 AI 推理“黑匣子”,登顶 Arena LLM 排行榜

谷歌 AI Studio 平台昨日(12 月 19 日)发布实验性的“Gemini 2.0 Flash Thinking”模型,主打“清晰展现思考过程”,是谷歌第一个通用推理模型。