推动多语言语音科技迈向新高度:INTERSPEECH 2025 ML-SUPERB 2.0 挑战赛

随着语音技术在各领域应用的迅速扩展,全球语言与口音的多样性成为技术进一步突破的重大挑战。 为了应对这一难题,来自卡内基梅隆大学(CMU)、斯坦福大学(Stanford University)、乔治梅森大学(George Mason University)、台湾大学与芝加哥丰田技术学院(TTIC)的研究团队连手,在即将举行的 INTERSPEECH 2025 国际会议上推出了 ML-SUPERB 2.0 挑战赛(Multilingual SUPERB 2.0 Challenge)。 该挑战旨在推动多语言语音技术迈向新高度,为语音科技的全球化应用奠定坚实基础。

推动多语言语音科技迈向新高度:INTERSPEECH 2025 ML-SUPERB 2.0 挑战赛

随着语音技术在各领域应用的迅速扩展,全球语言与口音的多样性成为技术进一步突破的重大挑战。为了应对这一难题,来自卡内基梅隆大学(CMU)、斯坦福大学(Stanford University)、乔治梅森大学(George Mason University)、台湾大学与芝加哥丰田技术学院(TTIC)的研究团队连手,在即将举行的 INTERSPEECH 2025 国际会议上推出了 ML-SUPERB 2.0 挑战赛(Multilingual SUPERB 2.0 Challenge)。该挑战旨在推动多语言语音技术迈向新高度,为语音科技的全球化应用奠定坚实基础。

ML-SUPERB 2.0 提供了包含大量不同语言的语音数据集。

●训练集:涵盖 141 种语言的丰富语音数据,从主流语言到稀有方言,为参赛者提供多元化的语言资源以训练模型。

●开发集:包含训练集中的141种语言,和另外的56 种方言与口音,为模型性能的全面评估提供支持。

这些数据反映了全球语言的多样性,确保技术不仅服务于主流语言,更覆盖小众语言。

新型估机制

ML-SUPERB 2.0 在评估机制上进行了创新,模型评估指针除了传统的语音识别和语言识别错误率外,还强调模型在每种语言上都具备稳定性能,真正做到对所有语言的友好支持,激励研究者关注小众语言与弱势语言的平等支持,最终实现“No Language Left Behind”。

方提供算力行推

为提升参赛体验,降低参赛门坎,挑战赛引入了在线实时排名系统。参赛者只需提交模型,即可由主办单位提供算力进行推论,实现快速评估与实时反馈。

领语音科技的未

ML-SUPERB 2.0 挑战赛不仅是一场技术比拼,更是推动语音科技迈向新纪元的重要一步。通过凝聚全球研究者与开发者的力量,挑战赛将加速多语言语音技术的创新与普及,为语音技术的应用场景带来更多可能性。参赛者可前往官方网站 (https://multilingual.superbbenchmark.org/) 获取详细信息,并在 2025 年 2 月 7 日前提交结果。让我们携手参与这场语音技术的盛会,见证语音科技未来的开启!

相关资讯

《语音识别基础:(一)语音是什么》

从最起初的一声巨响,到梵音天籁,到耳旁的窃窃私语,到妈妈喊我回家吃饭,总离不开声音。声音是这个世界存在并运动着的证据。

Meta用《圣经》训练超多语言模型:识别1107种、辨认4017种语言

在《圣经》中有一个巴别塔的故事,说是人类联合起来计划兴建一座高塔,希望能通往天堂,但神扰乱了人类的语言,计划也就因此失败。到了今天,AI 技术有望拆除人类语言之间的藩篱,帮助人类造出文明的巴别塔。

阿里云通义千问开源两款语音基座模型,识别效果优于 OpenAI Whisper

阿里云通义千问开源了两款语音基座模型 SenseVoice(用于语音识别)和 CosyVoice(用于语音生成)。SenseVoice 专注于高精度多语言语音识别、情感辨识和音频事件检测,有以下特点:多语言识别:采用超过 40 万小时数据训练,支持超过 50 种语言,识别效果上优于 Whisper 模型富文本识别:具备优秀的情感识别,能够在测试数据上达到和超过目前最佳情感识别模型的效果;支持声音事件检测能力,支持音乐、掌声、笑声、哭声、咳嗽、喷嚏等多种常见人机交互事件进行检测高效推理: SenseVoice-Sma