未来人与人的交流,难道是这个样?
开视频长途聚会的时候,很多人都不喜欢打开摄像头。即使开了,在界面上大家也都被框在不同的窗口里。虽然这种形式操作起来很方便,但总是缺乏点临场感。
最近,google提出了一项钻研旨在解决这个问题,这个名叫 ChatDirector 的技术可以使用静态的 2D 头像生成 3D 假造人,让大家一同「坐在聚会室里」开会,只是看起来样子有点夸张:
ChatDirector 通过空间化视频头像、假造环境和自动部署变换,构建了一个拟真的假造环境。
虽说只是早期钻研,假造人物口型也能准确对上,但总觉得有一点喜剧效果。对此大片评论表示绷不住了:这或许能给在线聚会创造出轻松的气氛。
ChatDirector 是一个钻研原型,它将传统的视频聚会转变为使用 3D 视频头像、共享 3D 场景和自动部署变换。
此前,google展示的 Visual Captions 和开源的 ARChat,以促进实时视觉效果的口头交流为目标。在 CHI 2024 上展示的《ChatDirector: Enhancing Video Conferencing with Space-Aware Scene Rendering and Speech-Driven Layout Transition》中,google介绍了一种新原型,通过在空间感知共享聚会环境中为所有参与者提供语音启动的视觉辅助,增强了传统的基于 2D 屏幕的视频聚会体验。
设计思考
google钻研人员邀请了来自公司内部不同岗位的十位参与者,包括软件工程师、钻研人员和 UX 设计师,共同讨论影响假造聚会质量的因素,分析视频聚会体系和背靠背互动的特点,最后将建议提炼为原型体系的五个基本考虑因素:
DC1、通过空间感知可视化增强假造聚会环境。处于同一个空间对于改善视频聚会体验来说至关重要。好用的体系应采用典型的背靠背聚会形式,将与会者安排在指定座位的桌子周围,构建切实的共同存在感和空间定位感。
DC2、不能简单复制现实聚会,而需要提供语音启动的协助。鉴于小组对话中发言人频繁更换、话题快速变换,体系应提供额外的数字功能,让参与者跟进对话流程并积极参与聚会。
DC3、重现背靠背互动的视觉效果。在开假造聚会时,参与者通常在电脑前保持静止。体系应增强他们在屏幕上的动作,以模仿头部转动和眼神接触等动态身体动作,这些动作可作为更有效地跟进对话的提示。
DC4、尽量减少认知负荷。体系应避免同时显示过多信息,或要求用户频繁操作。这种方法有助于防止分心,并允许参与者更有效地专注于倾听和说话。
DC5、确保兼容性和可扩展性。体系应与标准视频聚会设备(如带摄像头的笔记本电脑)兼容,以促进广泛采用。这种兼容性还将促进其他生产力功能和工具(如屏幕共享和其他应用程序)的无缝集成,以增强体系的整体效用。
空间感知的场景衬着 pipeline
为了解决 DC1(通过空间感知可视化增强假造聚会环境)和 DC5(确保兼容性和可扩展性),google首先设计了一个衬着 pipeline,以将人的视觉呈现重建为 3D 肖像头像。
google在轻量级深度推理神经网络 U-Net 上构建了此 pipeline,并结合了自定义衬着方法,该方法将 RGB 和深度图象作为输出并输出 3D 肖像头像网格。
该 pipeline 从深度学习 (DL) 网络开始,利用该网络从实时 RGB 网络摄像头视频中推断深度。接着使用 MediaPipe 自拍分割模型分割前景,并将处理后的图象馈送到 U-Net 神经网络。
其中,编码器逐渐缩小图象,而解码器将特征分辨率提高回原始分辨率。来自编码器的 DL 特征连接到具有相同分辨率的相应层,以帮助恢复几何细节,例如深度边界和薄结构。
下图所示的自定义衬着方法将 RGB 和深度图象作为输出,并重建 3D 肖像头像。
钻研团队开发了一个空间感知的视频聚会环境,可以在 3D 聚会环境中显示长途参与者的 3D 肖像化身。
在每个本地用户的设备上,ChatDirector 会产生:
附带由 Web Speech API 识别的语音文本的音频输出
由 U-Net 神经网络推断的 RGB 图象和深度图象。
同时,当体系接收到每个长途用户的数据后,会重建 3D 肖像化身,并在本地用户的屏幕上显示出来。
为了实现视差效果,该团队根据使用 MediaPipe 人脸检测所检测到的本地用户的头部移动来调整假造衬着摄像机。音频会被用作输出到下一节中将要解释的语音启动部署变换算法。
数据通信则通过 WebRTC 实现。
ChatDirector 的体系架构。
一个本地用户对具有 3D 肖像头像的空间感知视频聚会环境的视角。
语音启动的部署变换算法
为了解决 DC2(提供超越简单复制现实世界聚会的语音启动辅助)和 DC3(重现背靠背互动的视觉线索),钻研者开发了一个决策树算法。
该算法根据正在进行的对话调整衬着场景的部署和化身的行为,允许用户通过接收自动视觉辅助来跟随这些对话,从而不需要在 DC4(最小化认知负荷)上额外浪费精力。
对于算法的输出,他们将群组聊天建模为一系列语音轮转。
在每个时刻,每个与会者都将处于三种语音形态之一:
静默:与会者正在听取他人发言;
与某人交谈(Talk-to):与会者正在与特定人交谈;具体来说,通过侦测参与者的姓名(当他们加入聚会室时所输出的结果)来检测使用是否在与某人交谈。
宣布(Announce):与会者正在向所有人发言。通过使用关键词检测(如「everybody」、「ok, everybody」),Web 语音 API 来进行识别此种类型的语音形态。
该算法产生了两个增强视觉辅助的关键输出(DC3)。第一个组件是部署形态,它决定了聚会场景的整体可视化。
这包括几种模式:
「一对一(One-on-One」,仅显示一个长途参与者,以便与本地用户进行直接互动;
「两两对话(Pairwise)」,将两个长途参与者并排排列,表示他们的一对一对话;
「全景(Full-view)」,默认设置显示所有参与者,表示一般讨论。
ChatDirector 的部署变换算法。 算法输出:部署形态。从左至右分别为:一对一(One-on-One)语音形态,两两对话(Pairwise)语音形态,全景(Full-view)语音形态。
网络视频开会这下更逼真了,领导和你可以交换眼神了。
钻研团队基于 3D 肖像化化身衬着能力,通过操纵长途化身的行为来模拟类似于背靠背聚会中的眼神交流。
他们通过将化身形态(Avatar State)设立为算法的附加输出,以控制每个化身的方向。
在这种设置中,每个化身可以处于两种形态之一:「本地」形态,其中化身旋转面向本地用户,和「长途」形态,其中化身旋转与另一个长途参与者互动。
算法输出:化身(聊天室中代表使用者的形象)形态。当左侧用户与右侧用户交谈时,化身形态从「本地」形态转变为「长途」形态,此时左侧化身会转向右侧化身。
定性表现评估:用户钻研
为了评估基于语音的部署变换算法的性能以及空间感知聚会场景的整体有效性,钻研团队进行了一项实验室钻研,涉及 16 名参与者,分成四个团队。
与作为基准的传统视频聚会相比,钻研发现 ChatDirector 显著改善了与语音处理相关的问题,这表现在用户对注意力转移辅助的积极评价上。
此外,该团队对调查结果还进行了威尔科克森符号秩检验(Wilcoxon Signed-Rank Test )。
聚会环境的空间感知和语音启动部署变换算法的用户钻研结果(N=16)。( *:p<.05, **: p<.01, *** :p< .001)
此外,根据 Temple Presence Inventory(TPI)评分,与标准的基于 2D 的视频聚会体系相比,它提升了共存感和参与度。
Temple Presence Inventory(TPI)结果显示了 ChatDirector 体系的社交存在评级(N=16)。( *:p<.05, **: p<.01, *** :p< .001)
由于 ChatDirector 基于视频聚会室使用者的肖像化身,肖像安全的问题将成为未来钻研发展的重中之重。
钻研团队在最后表示,希望 ChatDirector 能够激发在利用先进的感知和交互技术来增加共同在场的感受和参与度日常计算平台上的持续创新。
钻研人员同时指出,解决负责任的 AI 考虑及其数字相似性的含义是极其重要的。因为以这种方式变换「用户的视频」可能会引发关于他们对自身肖像控制的问题,所以需要进一步的钻研和仔细考虑。
当这类工具部署时,至关重要的是需要基于用户的同意并遵守相关道德准则。
该团队还提供了一个 ChatDirector 的交互技术演示,在视频内容里展示了更多的 3D 视频示例。
视频链接:https://youtu.be/mO2rZL48C1Y
参考链接:https://research.google/blog/chatdirector-enhancing-video-conferencing-with-space-aware-scene-rendering-and-speech-driven-layout-transition/