苹果把台灯做成机器人!能用动作表达情绪,重新定义机器人交互

苹果首款机器人(试验版),居然是个台灯? ? 前段时间苹果布局机器人的消息频频传出,但究竟要做个什么样式儿的一直没有定论。

苹果首款机器人(试验版),居然是个台灯??

前段时间苹果布局机器人的消息频频传出,但究竟要做个什么样式儿的一直没有定论。

苹果最新论文揭露,或许它们看起来不会像机器人,或许它们将无处不在!

苹果放出来一个台灯机器人以做展示,火遍reddit、X等平台。

图片图片

这个台灯那是相当灵活,它摆脱了机械式的动作,甚至能够通过动作表达出一些“情绪”。

比如下面这个展示,通过它的动作似乎可以感受到它偷感很重,先是左顾右盼趁人不备推倒积木,成功后还得意地摇头晃脑:

图片图片

也有看起来很乖的时候,对人点头哈腰,根据人给出的各种手势帮忙照明打光:

图片图片

它可以在各种场景下,每时每刻陪伴着你:

图片图片

这就是苹果最新研究出的具有表达性动作的非人形机器人。

和只会从A点移动到B点执行功能性动作(右)的机器人相比,这种机器人(左)显得更具亲和力:

图片图片

喏,你让它照很远处的一张纸,它会助力一下把头探过去,够不到还会“低头沮丧”:

图片图片

主人切菜听音乐,它还跟着嗨起来了:

图片图片

网友看到这一系列操作,纷纷坐不住了,这不是皮克斯照进现实吗?

图片图片

不是冷冰冰、死气沉沉的机器人哎。

图片图片

下面具体来看看苹果的这项新研究。

苹果做的机器人有点小“情绪”

这项研究的核心理念是:机器人不应仅仅完成从A点到B点这样的功能性运动,还应该能够通过运动方式来传达其内部状态,如意图、注意力、态度和情绪,从而实现更自然的人机交互。

苹果把台灯做成机器人!能用动作表达情绪,重新定义机器人交互

为此,团队提出了一个名为ELEGNT的创新框架,旨在为非人形机器人设计兼具功能性和表达性的运动方式。

图片图片

在技术层面,研究团队将机器人运动建模为马尔可夫决策过程(MDP),包含两个关键组成部分:功能效用(F)和表达效用(E)。

功能效用驱动机器人完成具体的任务目标,而表达效用则促使机器人通过运动来传达内部状态。

图片图片

系统的总体目标是优化这两种效用的加权和(F + γE),其中γ代表表达效用的权重。

图片图片

为了实现丰富的表达性动作,研究团队开发了一套设计原语,包括Kinesics(体势学)和Proxemics(空间关系学)。

Kinesics原语包含空间和时间两个维度的特征。

在空间特征方面,机器人可以使用隐喻性的姿势来表达各种状态,比如,台灯形态的机器人可以通过“点头”或“摇头”来表达态度;在时间特征方面,机器人可以调整速度、停顿或抖动来传达态度和情绪。

Proxemics原语则关注如何通过管理空间距离来表达机器人与环境和人之间的关系,包括静态和动态两类。

静态涉及机器人相对于物体或人的位置摆放,以传达注意力和意图。例如,机器人可以将“目光”对准某个物体,并使用灯光或投影来突出它,从而表明关注焦点。

动态则使用运动来表达态度或意图,靠近或远离某个物体可以反映机器人对它的态度,而在物体之间改变方向则可以表示注意力的转移。

图片图片

创造皮克斯台灯验证

在实践中,研究团队设计了一个形似台灯的机器人,模样确实是受皮克斯开山之作之顽皮跳跳灯《Luxo Jr.》启发。

图片图片

该机器人由一个重新配置的6自由度机械臂、一个嵌入LED灯的3D打印塑料灯头、一个激光投影仪和一个内置摄像头组成。

此外还配备了一个朝下的外部摄像头,装备了一个语音系统,用于听取和对用户进行讲话。

图片图片

为评估设计框架的效果,研究团队进行了用户研究,招募21名参与者,比较了纯功能性动作和增加表达性动作两种情况下的交互效果。

实验覆盖了6个不同场景,包括功能性任务(如调节照明)和社交性任务(如社交对话)。

每个任务都准备了两个版本的视频,一个仅展示功能性动作,另一个则同时包含功能性和表达性动作。

研究使用了多维度的评估体系,要求参与者从人性化程度、感知智能、感知情感/性格、互动参与度、连接感和使用意愿等六个方面进行打分。

图片图片

定量结果显示,具有表达性动作的机器人获得了显著高于纯功能性动作版本的评分(平均分别为56.16分和28.77分)。

图片图片

在感知性格、人性化程度和参与度等指标上,两种版本的差异最为显著;在社交导向的任务中,表达性动作带来的优势更为突出。

图片图片

此外,参与者的个人背景,如年龄、是否具有机器人专业背景以及表达设计背景等因素,都会对其评分产生影响。

图片图片

定性结果揭示,参与者普遍认为具有表达性动作的机器人更具生命力和趣味性,更容易被拟人化,常被比作“宠物”或“孩子”。

图片图片

研究还发现,表达性动作的价值在不同任务中存在差异,在社交类任务中表现更为突出。

机器人的动作需要与其他交互模态(如声音、灯光)保持协调一致,才能获得更好的交互效果。

苹果这项新研究发出后广受好评,不过也有不少人吐槽,认为还是需要通用机器人:

需要能移动,还需要手臂和手,将核心功能添加到每一件家具中并不经济高效。

图片图片

那么,你喜欢这种机器人吗?你认为机器人应该长啥样?

论文链接:https://arxiv.org/pdf/2501.12493

参考链接:

[1]https://www.reddit.com/r/robotics/comments/1ij0tpc/apple_gets_it_robots_are_going_to_be_everywhere/[2]https://x.com/uavster/status/1887463277803807034

相关资讯

“HumanPlus”机器人问世:可模仿人类动作弹钢琴、叠衣服,基于中国公司平台

斯坦福大学研究人员近日研发了一款仿人机器人 HumanPlus,它可以模仿人类的行为,并支持模仿动作来进行学习。据介绍,它可以通过模仿人类动作来学习弹钢琴、回击乒乓球、折叠衣服等。斯坦福大学团队成员傅子鹏(音译)表示,该类人机器人使用单个 RGB 摄像头和全身策略来复制人类动作。值得一提的是,傅子鹏 14 日在其个人 YouTube 频道上发布了 HumanPlus 的数个演示视频,展示了其诸多方面的“学习能力”。 研究人员表示,HumanPlus 需要约 40 小时的人类运动数据来学习一项任务,然后逐步执行。此

解密机器人大模型RFM-1:Covariant创始人陈曦专访

作者:王建明来源:微信公众号「石麻笔记」2024年3月,在通用机器人的发展史上,绝对是值得纪念的一个月。3月11日,知名AI机器人创业公司Covariant推出了首个机器人基础模型RFM-1(Robot Foundation Model-1),这是世界上首个基于真实任务数据训练的机器人大模型,也是最接近于解决真实世界任务的机器人大模型;次日,Covariant创始人Pieter Abbeel的徒弟和徒孙Sergey Levine和Chelsea Finn宣布创办Pi(Physical Intelligence),一

ICCV 2023 | 重塑人体动作生成,融合扩散模型与检索策略的新范式ReMoDiffuse来了

来自南洋理工大学和商汤科技的研究者联合提出了一种全新的文本驱动动作生成框架——ReMoDiffuse。