前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >百度语音合成模型Deep Voice3

百度语音合成模型Deep Voice3

作者头像
mathor
发布2020-08-24 17:18:08
2.4K0
发布2020-08-24 17:18:08
举报
文章被收录于专栏:mathormathormathor

INTRODUCTION

Deep Voice3是由百度提出的一个全新的全卷积TTS架构。百度的主要工作分为如下五个方面:

  1. 提出了一个全卷积的 character-to-spectrogram 架构,它能并行计算,并且比使用循环单元的架构快
  2. Deep Voice3训练非常快,并且可以扩展到LibriSpeech语音数据集,该数据集包含来自2484个说话人的820小时音频数据
  3. 可以产生单调的注意力行为 (monotonic attention behavior),避免了seq2seq语音合成中常见的错误
  4. 比较了几种波形合成方法的质量,包括WORLD、Griffin-Lim以及WaveNet
  5. 描述了Deep Voice3推理内核的实现,它可以在单个GPU上提供高达每天一千万次推理

ARCHITECTURE

Deep Voice3能够将各种文本特征(如字符、音素、重音)转换为各种声码器参数,如梅尔谱、线性对数谱、基频、频谱包络等。这些声码器参数可用作波形合成模型的输入

Deep Voice3架构包括3个组件:

  • 编码器:完全由卷积构成,用于提取文本特征
  • 解码器:也是完全由卷积构成,利用多跳卷积注意力机制 (multi-hop convolutional attention mechanism) 将提取的文本特征,以一种自回归的方式解码成低维的音频特征
  • 转换器:同样是完全由卷积构成,它从解码器隐藏状态预测最终声码器的参数(取决于声码器选择)。与解码器不同,转换器是非因果的,因此它可以依赖未来的上下文信息

优化的目标是解码器转换器损失的线性组合。作者将解码器和转换器分开并应用于多任务训练,因为这样可以使得实践中注意力更好的学习。具体来说的话,梅尔谱预测的损失指导了注意力机制的训练,因为注意力的训练利用了梅尔谱预测以及声码器参数预测的梯度

TEXT PREPROCESSING

  1. 字母全部转大写
  2. 删除所有标点符号
  3. 每句话的结尾由且仅由句号或问号组成
  4. 使用特殊的分隔符替换单词之间的空格,这些分隔符表示说话人在单词之间停顿的时长。共有四种特殊的分隔符,它们表示的含义分别是:含糊不清的单词、标准发音和空格字符、单词之间的短时停顿、单词之间的长时停顿。例如句子"Either way, you should shoot very slowly," 在way后带有长时停顿,在shoot后带有短时停顿,可以写成"Either way%you should shoot/very slowly%." 其中%表示长时停顿,/表示短时停顿。停顿时长可以通过手工标记或文本音频对齐器

CONVOLUTION BLOCKS

该卷积块包含一个一维卷积滤波器,一个门控可学习的非线性单元,一个残差连接,以及一个缩放因子\sqrt{0.5}。为了引入说话人的相关特征,在经过softsign激活函数之后,将说话人特征作为偏置添加到卷积滤波器的输出。卷积块中使用标准正态分布初始化卷积滤波器的权重

Softsign函数:

y=F(x)=\frac{x}{1+|x|}.

ENCODER

编码器网络首先从文本编码开始,将字符或音素转换为可训练的向量表示h_e。然后将h_e送入全连接层以投影到目标维度。PreNet得到的输出再送入一系列卷积块,以提取时间相关的文本信息。最后,它们被投影回Text Embedding维度以创建注意力键向量h_k。从注意力键向量和文本嵌入计算注意力值向量h_v=\sqrt{0.5}(h_k+h_e),以联合考虑h_e中的局部信息和h_k中的长时上下文信息。键向量h_k被各个注意力块用来计算注意力权重,而最终的上下文向量被计算为值向量h_v的加权平均

DECODER

解码器以自回归的模式预测接下来的r (r>1) 帧梅尔谱。由于不能利用后面时刻的数据,所以解码器采用的是causal convolution或者也叫做masked convolution

梅尔谱数据先经过PreNet,然后通过casual convolution层将其变为query矩阵。再与Encoder的输出的Key和Value矩阵进行attention运算。如此积累多层,最后经过全连接层预测接下来的r帧梅尔谱,并且还会预测是否该停止预测(类似于Tacotron2)。损失函数是L1 Loss及交叉熵

ATTENTION BLOCK

Attention模块就是大家熟知的传统点积计算方法,先用query矩阵与key矩阵计算attention权重,然后再对value矩阵加权求和,得到context向量。此外,attention block还引入了位置编码h_p(i)帮助文本和频谱进行对齐

$$ h_p(i)=sin(w_si/10000^{k/d})\ ,i=0,2,4,...\\ h_p(i)=cos(w_si/10000^{k/d})\ ,i=1,3,5,... $$

其中,i是时间步索引,k是位置编码中的通道索引,d是位置编码中所有通道的数量,w_s是编码的位置率。位置率决定了注意力分布中线的平均斜率,大致对应于语速。对于单说话人,query中的w_s被固定为1,key中的w_s被固定为输入时间步与输出时间步之比;对于多说话人,w_s通过每个说话人嵌入进行计算(下图左边)

详细流程如下图所示

在翻译场景中,源语言句子和目标语言句子中词的对应顺序并不是严格单调的,而在语音合成中,语音是按照文本顺序读出来的,所以对齐关系会更严格

CONVERTER

转换器网络将解码器的最后隐藏层的输出作为输入,转换器包含若干非因果卷积块,然后预测下游声码器的参数。与解码器不同,转换器是非因果和非自回归的,因此它可以使用解码器的未来信息进行预测。转换器有很多种,可以使用Griffin-fim或者wavenet等,当然,采用wavenet的效果会好一些。整个模型框架如下

RESULTS

Deep Voice3模型由于采用全卷积而非GRU来提取文本及频谱特征,可以大幅提高训练时GPU的利用率,相同的batch size下,速度是Tacotron的10倍。并且达到收敛所需的步数也只是Tacotron的1/4。在加入monotonic attention后,合成语音的自然语也有所提高

REFERENCE

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • INTRODUCTION
  • ARCHITECTURE
  • TEXT PREPROCESSING
  • CONVOLUTION BLOCKS
  • ENCODER
  • DECODER
  • ATTENTION BLOCK
  • CONVERTER
  • RESULTS
  • REFERENCE
相关产品与服务
语音合成
语音合成(Text To Speech,TTS)满足将文本转化成拟人化语音的需求,打通人机交互闭环。提供多场景、多语言的音色选择,支持 SSML 标记语言,支持自定义音量、语速等参数,让发音更专业、更符合场景需求。语音合成广泛适用于智能客服、有声阅读、新闻播报、人机交互等业务场景。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档