伴随着生成式深度学习模型的飞速发展,自然语言处理(NLP)和计算机视觉(CV)已经经历了根本性的转变,从有监督训练的专门模型,转变为只需有限的明确指令就能完成各种任务的通用模型。
在语音处理和文本到语音(TTS)领域,这样的转变也正在发生,模型能够利用数千小时的数据,使合成结果越来越接近类人语音。
在最近的一项研究中,亚马逊正式推出了 BASE TTS,将 TTS 模型的参数规模提升到了前所未有的 10 亿级别。
论文标题:BASE TTS: Lessons from building a billion-parameter Text-to-Speech model on 100K hours of data
论文链接:https://arxiv.org/pdf/2402.08093.pdf
BASE TTS 是一个多语言、多措辞人的大型 TTS(LTTS)系统,在约 10 万小时的公共领域语音数据上举行了训练,比此前的训练数据量最高者 VALL-E 翻了一番。受 LLM 成功经验的启发,BASE TTS 将 TTS 视为下一个 token 预测的问题。这种步骤通常与大量训练数据结合使用,以实现强大的多语言和多措辞人能力。
本文的主要贡献概述如下:
1、提出了 BASE TTS,这是迄今为止最大的 TTS 模型,具有 10 亿参数,并在由 10 万小时公共领域语音数据组成的数据集上举行了训练。在主观评价中,BASE TTS 的表现优于公开的 LTTS 基线模型。
2、展示了如何将 BASE TTS 扩展到更大的数据集和模型规模,以提高其为复杂文本呈现适当韵律的能力。为此,研究者开发并提供了一个「涌现能力」测试集,可作为大规模 TTS 模型文本理解和渲染的主观评价基准。本文报告了 BASE TTS 的不同变体在该基准上的表现,结果显示,随着数据集规模和参数量的增加,质量也在单调提升。
3、提出了建立在 WavLM SSL 模型之上的新型团圆语音表示法,旨在只捕捉语音信号的音位和韵律信息。这些表示法优于基准量化步骤,尽管压缩水平很高(仅 400 比特 / 秒),但仍能通过简单、快速和流式解码器将其解码为高质量的波形。
接下来,让我们看看论文细节。
BASE TTS 模型
与近期的语音建模工作类似,研究者采用了鉴于 LLM 的步骤来处理 TTS 任务。文本被输出到鉴于 Transformer 的自返回模型,该模型可预测团圆音频表示(称为语音编码),再通过由线性层和卷积层组成的单独训练的解码器将它们解码为波形。
BASE TTS 设计的目的是模拟文本 token 的联合分布,然后是团圆的语音表示,研究者称之为语音编码。通过音频编解码器对语音举行团圆化是设计的核心,因为这样就能直接应用为 LLM 开发的步骤,而 LLM 正是 LTTS 最新研究成果的基础。具体来说,研究者使用具有交叉熵训练目标的解码自返回 Transformer 对语音编码举行建模。尽管简单,但这一目标可以捕捉到表达性语音的复杂概率分布,从而缓解早期神经 TTS 系统中出现的过度平滑问题。作为一种隐式语言模型,一旦在足够多的数据上训练出足够大的变体,BASE TTS 在韵律渲染方面也会有质的飞跃。
团圆语言表示
团圆表示法是 LLM 取得成功的基础,但在语音中识别紧凑且信息丰富的表示不如在文本中那么明显,此前的探索也较少。对于 BASE TTS,研究者首先尝试使用 VQ-VAE 基线(第 2.2.1 节),该基线鉴于自动编码器架构,通过团圆瓶颈重构 mel 频谱图。VQ-VAE 已成为语音和图像表征的成功范例,尤其是作为 TTS 的建模单元。
研究者还介绍了一种通过鉴于 WavLM 的语音编码学习语音表示的新步骤(第 2.2.2 节)。在这种步骤中,研究者将从 WavLM SSL 模型中提取的特征团圆化,以重建 mel 频谱图。研究者应用了额外的损失函数来促进措辞人的分离,并使用字节对编码(BPE,Byte-Pair Encoding)压缩生成的语音代码,以减少序列长度,从而使得能够使用 Transformer 对较长的音频举行建模。
与流行的音频编解码器相比,这两种表示法都经过了压缩(分别为 325 bits/s 和 400 bits/s),以实现更高效的自返回建模。鉴于这种压缩水平,接下来的目标是去除语音编码中可在解码过程中重建的信息(措辞人、音频噪声等),以确保语音编码的容量主要用于编码语音和韵律信息。
自返回语音建模(SpeechGPT)
研究者训练了一个 GPT-2 架构的自返回模型「SpeechGPT」,用于预测以文本和参考语音为条件的语音编码。参考语音条件包括从同一措辞人随机选择的语句,该语句被编码为固定大小的嵌入。参考语音嵌入、文本和语音编码被串联成一个序列,该序列由一个鉴于 Transformer 的自返回模型建模。研究者对文本和语音使用单独的位置嵌入和单独的预测头。他们从头开始训练了自返回模型,而不对文本举行预训练。为了保留文本信息以指导拟声,还对 SpeechGPT 举行了训练,目的是预测输出序列文本部分的下一个 token,因此 SpeechGPT 部分是纯文本 LM。与语音损失相比,此处对文本损失采用了较低的权重。
波形生成
此外,研究者指定了一个单独的语音编码到波形解码器(称为「语音编码解码器」),负责重建措辞人身份和录音条件。为了使模型更具可扩展性,他们用卷积层代替了 LSTM 层,对中间表示举行解码。研究表明,这种鉴于卷积的语音编码解码器计算效率高,与鉴于集中的基线解码器相比,整个系统的合成时间减少了 70% 以上。
研究者同时指出,实际上语音编码解码器的输出并不是语音编码,而是自返回 Transformer 的最后一个隐藏状态。之所以这样做,是因为此前 TortoiseTTS 步骤中密集的潜在表征提供了比单一语音代码更丰富的信息。在训练过程中,研究者将文本和目标代码输出训练好的 SpeechGPT(参数冻结),然后根据最后的隐藏状态对解码器举行调节。输出 SpeechGPT 的最后隐藏状态有助于提高语音的分段和声学质量,但也会将解码器与特定版本的 SpeechGPT 联系起来。这使实验变得复杂,因为它迫使两个组件总是按顺序构建。这一限制需要在今后的工作中加以解决。
实验评价
研究者探索了缩放如何影响模型针对具有挑战性的文本输出产生适当的韵律和表达的能力,这与 LLM 通过数据和参数缩放「涌现」新能力的方式类似。为了验证这一假设是否同样适用于 LTTS,研究者提出了一个评价方案来评价 TTS 中潜在的涌现能力,确定了七个具有挑战性的类别:复合名词、情感、外来词、副语言、标点符号、问题和句法复杂性。
多项实验验证了 BASE TTS 的结构及其质量、功能和计算性能:
首先,研究者比较了鉴于自动编码器和鉴于 WavLM 的语音编码所达到的模型质量。
然后,研究者评价了对语音编码举行声学解码的两种步骤:鉴于集中的解码器和语音编码解码器。
在完成这些结构消融后,研究者评价了 BASE TTS 在数据集大小和模型参数的 3 种变体中的涌现能力,并由语言专家举行了评价。
此外,研究者还举行了主观的 MUSHRA 测试以衡量自然度,以及自动可懂度和措辞人相似度测量,还报告了与其他开源文本到语音模型的语音质量比较。
VQ-VAE 语音编码 vs. WavLM 语音编码
为了全面测试两种语音 token 化步骤的质量和通用性,研究者对 6 位美式英语和 4 位西班牙语措辞人举行了 MUSHRA 评价。就英语的平均 MUSHRA 分数而言,鉴于 VQ-VAE 和 WavLM 的系统不相上下(VQ-VAE:74.8 vs WavLM:74.7)。然而,对于西班牙语,鉴于 WavLM 的模型在统计学上显著优于 VQ-VAE 模型(VQ-VAE:73.3 vs WavLM:74.7)。请注意,英语数据约占数据集的 90%,而西班牙语数据仅占 2%。
表 3 显示了按措辞人分类的结果:
由于鉴于 WavLM 的系统表现至少与 VQ-VAE 基线相当或更好,因此研究者在进一步的实验中使用它来表示 BASE TTS。
鉴于集中的解码器 vs. 语音代码解码器
如上文所述,BASE TTS 通过提出端到端语音编码解码器,简化了鉴于集中的基线解码器。该步骤具有流畅性,推理速度提高了 3 倍。为了确保这种步骤不会降低质量,研究者对所提出的语音编码解码器与基线举行了评价。表 4 列出了对 4 位说英语的美国人和 2 位说西班牙语的人举行的 MUSHRA 评价结果:
结果显示,语音编码解码器是首选步骤,因为它不会降低质量,而且对大多数语音而言,它能提高质量,同时提供更快的推理。研究者同时表示,结合两个强大的生成模型举行语音建模是多余的,可以通过放弃集中解码器来简化。
涌现能力:数据和模型规模的消融
表 1 按 BASE-small、BASE-medium 和 BASE-large 系统报告了所有参数:
三个系统的语言专家判断结果以及每个类别的平均得分如图 4 所示:
在表 5 的 MUSHRA 结果中,可以注意到语音自然度从 BASE-small 到 BASE-medium 有明显改善,但从 BASE-medium 到 BASE-large 的改善幅度较小:
BASE TTS vs. 行业 baseline
总体来说,BASE TTS 生成的语音最自然,与输出文本的错位最少,与参考措辞人的语音最相似,相关结果如表 6 和表 7 所示:
语音编码解码器带来的合成效率提升
语音编码解码器能够举行流式处理,即以增量方式生成语音。将这一功能与自返回 SpeechGPT 相结合,该系统的首字节延迟可低至 100 毫秒 —— 只需几个解码语音代码就足以产生可懂的语音。
这种最低延迟与鉴于集中的解码器形成了鲜明对比,后者需要一次性生成整个语音序列(一个或多个句子),而首字节延迟等于总生成时间。
此外,研究者还观察到,与集中基线相比,语音编码解码器使整个系统的计算效率提高了 3 倍。他们运行了一个基准测试,在 NVIDIA® V100 GPU 上生成 1000 个持续时间约为 20 秒的语句,批大小为 1。平均而言,使用集中解码器的十亿参数 SpeechGPT 需要 69.1 秒才能完成合成,而使用语音编码解码器的相同 SpeechGPT 只需要 17.8 秒。
更多研究细节,可参考原论文。