AI降噪耳机,可在嘈杂人群中单独通话,看一眼锁定目标

千万种声音里,只听到你。最近几年来,很多人都在使用降噪耳机。这种设备能让人在吵闹的环境中享受安静,安心地听音乐或工作。通常,降噪耳机会通过内置的芯片算法对外界噪音信号进行计算,然后由喇叭发出反向声波进行抵消的方式创造安静环境。不过安静归安静,大多数情况下人们还是需要交流的,这就带来了不小的挑战。人们曾提出过各种解决方案,比如苹果最新款的 AirPods Pro 就会自动调整,如果耳机感知到人在说话就会停止降噪,但用户是无法控制听谁说话,或何时关掉降噪的。近日,华盛顿大学的一个团队开发了一种 AI 系统,让戴着耳机的

千万种声音里,只听到你。

最近几年来,很多人都在使用降噪耳机。这种设备能让人在吵闹的环境中享受安静,安心地听音乐或工作。

通常,降噪耳机会通过内置的芯片算法对外界噪音信号进行计算,然后由喇叭发出反向声波进行抵消的方式创造安静环境。

图片

不过安静归安静,大多数情况下人们还是需要交流的,这就带来了不小的挑战。人们曾提出过各种解决方案,比如苹果最新款的 AirPods Pro 就会自动调整,如果耳机感知到人在说话就会停止降噪,但用户是无法控制听谁说话,或何时关掉降噪的。

近日,华盛顿大学的一个团队开发了一种 AI 系统,让戴着耳机的用户看着说话的人三到五秒钟来「记录」他们。

图片

该系统名为「目标语音听觉」(Target Speech Hearing),能驱动降噪耳机消除环境中的所有其他声音,并实时播放已记录的说话者的声音。这样一来,即使听众在嘈杂的地方走动并且不再面对说话者,也不会丢失重要信息了。AI降噪耳机,可在嘈杂人群中单独通话,看一眼锁定目标

视频:https://www.youtube.com/watch?v=ArGKgodEUSo

对这种有点像碟中谍电影里的黑科技,人们纷纷表示欢迎:

图片

也有人表示,它或许能拯救很多婚姻:

图片

华盛顿大学团队于 5 月 14 日在檀香山举行的 ACM CHI 计算机系统人因会议上展示了他们的研究成果,还获得了大会的最佳 lunwen。概念验证设备的代码已经开源,可供他人使用。

图片

论文《Look Once to Hear: Target Speech Hearing with Noisy Examples》:https://programs.sigchi.org/chi/2024/program/content/147319

GitHub 链接:https://github.com/vb000/LookOnceToHear

要使用该系统,佩戴配有麦克风的常规降噪耳机的人只需要点击按钮,同时将头转向正在说话的人。

然后,来自该说话者声音的声波会同时到达耳机两侧的麦克风,误差幅度为 16 度。耳机将该信号发送到板载嵌入式计算机,其中的机器学习软件会在那里学习所需说话者的声音模式。

系统会锁定该说话者的声音,并继续将其播放给听者,即使这对说话者不断变化站位,四处走动也能保持跟随。

随着说话者不断讲话,AI 系统关注注册声音的能力会不断提高,从而为系统提供更多的训练数据。

作者表示,该研究的主要贡献包括:

实现了带有噪声示例的注册网络。设计并比较了两个不同的注册网络 —— 波束形成器网络和知识蒸馏网络 —— 以使用短双耳噪声示例即可有效生成一个可捕捉目标说话人特征的嵌入向量。

实时嵌入式的目标语音听觉网络。TSH 使用生成的嵌入,随后使用 IoT 级别 CPU 上实时运行的优化网络提取目标语音。为此,研究者探索了各种模型和系统级优化,实现了在嵌入式设备上实时运行的轻量级目标语音听觉网络。

推广到现实世界的多径、HRTF 和移动性。作者提出了一种训练方法,仅使用合成数据,也可以保证系统不会被现实世界中未见过的目标干扰。

此外,该研究明确使用多路径进行训练,以推广到室内和室外环境。作者还引入了一种微调机制,可以解决移动源和听众头部方向的突然变化(高达 90°/s 的角速度),并允许系统在注册期间处理听者头部方向多至 18° 的误差。

图片

具有噪声消除功能的端到端目标语音听力系统。(b)一对 Sony WH-1000XM4 耳机在各个频率下启用和不启用主动噪声消除的噪声隔离性能。低频下较大的值是由于入耳式麦克风拾取了佩戴者的声音。(c)模型推理时间的 CDF 图,包括和不包括从输出到输入的缓存缓冲区副本。

「如今,很多人把人工智能等同于基于网络的聊天机器人,可以回答问题,」华盛顿大学保罗・G・艾伦计算机科学与工程学院教授、该研究主要作者 Shyam Gollakota 说道。「但在这个项目中,我们开发的 AI 可根据佩戴耳机的人的偏好来改变他们的听觉感知。有了我们的设备,即使身处嘈杂的环境中,有很多人在说话,你现在也可以清楚地听到单个说话人的声音。」

该团队对 21 名志愿者测试了该系统,受试者对已注册说话者声音清晰度的评分平均几乎是未过滤音频的两倍。

据介绍,这项研究建立在华盛顿大学之前的「Semantic Hearing」研究的基础上(论文《Semantic Hearing: Programming Acoustic Scenes with Binaural Hearables》),该研究允许用户选择他们想听到的特定声音类别(例如鸟叫声或声音),并消除环境中的其他声音。

目前 TSH 系统一次只能注册一个对话人,且只有在没有其他巨大声音从目标说话人相同方向传来时才能注册说话人。如果用户对音质不满意,则可以对说话者进行另一次注册以提高清晰度。

该团队表示,在未来这样的系统可以扩展到耳塞和助听器等更多设备上。

参考内容:

https://www.washington.edu/news/2024/05/23/ai-headphones-noise-cancelling-target-speech-hearing/

相关资讯

实测最新AI语音模型:让特朗普、丁真说绕口令堪称以假乱真,但断句整得稀碎

机器之能报道编辑:杨文这款新AI语音模型Fish Speech,模仿音色一绝。近来,AI 语音赛道突然热闹起来。一个多月前,一个号称「开源语音 TTS 天花板级别」的 ChatTTS 爆火。火到什么程度呢?仅三天时间就在 GitHub 狂揽 9.2k Star 量,还一度登顶 GitHub Trending 榜首并连续霸榜。没多久,字节也推出一款类似项目 Seed-TTS,喊出的口号同样是「生成自然真实的语音」。这几天,这一赛道又闯进新玩家 ——Fish Speech。据悉,该模型经过 15 万小时的数据训练,已熟

AI能理解自己生成的东西吗? 在GPT-4、Midjourney上实验后,有人破案了

没有「理解」,「创造」也就无从谈起。从 ChatGPT 到 GPT4,从 DALL・E 2/3 到 Midjourney,生成式 AI 引发了前所未有的全球关注。强大的潜力让人们对 AI 产生了许多期待,但是强大的智能也会引发人们的恐惧和担忧。近期大牛们针对该问题还上演了一场激烈的论战。先是图灵得奖主们「混战」,后有吴恩达下场加入。在语言和视觉领域,目前的生成模型只需要几秒钟就可输出,甚至能够挑战具有多年技能和知识的专家。这似乎为模型已经超越人类智能的说法提供了令人信服的动机。但是,同样需要注意到的是,模型输出中常

47年前经典影片另类重制,从宇宙到原子皆是生成

从广角视图到微距拍摄,每一步由你来决定。以躺在草坪上的男人为中心,将镜头画面按照 10 倍的比例不断扩展,你将看到一亿光年外的场景。以躺在草坪上的男人为中心,每次画面镜头缩减 90%,单个质子将充满整个镜头。让人震惊的是,这两组画面来自 1977 年的经典短片《Powers of Ten》。在评论区中,有人表示这个视频在 2022 年依然被当做经典出现在课堂中。有网友对于这个视频的制作表示无法想象。从银河系外层直达细胞内部,这样的跨度让人更加直观地感受到了宇宙中存在的巨大尺度。原视频观看地址:,制作类似的动画或互动