前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >语音合成学习(一)综述

语音合成学习(一)综述

作者头像
全栈程序员站长
发布2022-09-13 15:17:35
2.1K0
发布2022-09-13 15:17:35
举报

大家好,又见面了,我是你们的朋友全栈君。

一、资料推荐

爱丁堡大学课程(全英文,有能力的推荐学习一遍):https://speech.zone/courses/speech-synthesis/

TensorflowTTS(比较系统的开源项目):https://github.com/TensorSpeech/TensorFlowTTS

二、基础概念介绍

1、时域:波形的振幅、频率;

2、频域:

  • 傅里叶变换:每个复杂的波形都可以由不同频率的正弦波组成;
  • 语谱(spectrum):描述了信号包含的频率成分和它们的幅度;
  • 语谱图(spectrogram):语谱随时间的变化,也称为频谱图;

推荐使用Adobe Audiotion工具来查看音频信息:

在这里插入图片描述
在这里插入图片描述

三、语音基本信息

思考一下,一段语音中包含了什么信息呢?

TSDFrn.png
TSDFrn.png

语音信息:发音人身份、语种、文本、情感、环境;

语音任务:身份识别、语种识别、语音识别、情感识别、语音增强分离等;

四、语音生成

一段语音的生成其实是音素的构成,下面介绍关于音素的一些概念:

1、音素:一种语言中语音的”最小”单元,在声学上也称为Phone;

2、IPA:国际音标,统一一套体系标注标准;

3、音节:元音和辅音结合构成一个音节;

4、协同发音:音素在声学上的实现和上下文强相关,往往我们需要采用上下文模型;

5、音素抄本:一段语音对应的音素列表(带或不带时间边界),时间边界可由人工标注或自动对齐获得,用于声学与时长模型,这里也是一种标注信息;

五、语音合成简述

1、热门研究方向

  • 语音转换:说话人转换、语音到歌唱转换、情感转换、口音转换等;
  • 歌唱合成:文本到歌唱的转换;
  • AI虚拟人:可视化语音合成的技术,现在热门的元宇宙就依赖语音合成技术;

2、应用方向

  • 语音交互:机器人领域、智能车;
  • 内容生成:有声读物,微信听书等;
  • 辅助功能:对障碍人士起到辅助功能,能够让他们发声;

3、难点

文字—>波形:

  • 一到多且不等长的映射;
  • 局部+全局依赖性;

评价指标:

  • 只能根据听感来判断,有比较明显的主观性;

实际应用:

  • 小样本(数据量少)
  • 语音质量低,有噪声;
  • 实时性和效果的平衡;
  • 需要具有可控性且有表现力;
  • 具备多语种、跨语言的能力(中英混合);

4、现代语音合成技术

端到端级的语音合成架构:

在这里插入图片描述
在这里插入图片描述

上述描述了当前主流的一些端到端级的语音合成方法组合,

当前的TTS主要架构:NLP + Speech Generation(文本分析到波形生成)

六、文本分析

主要有以下几个方面处理:

  • 断句:基于规则或基于模型来断句;
  • 文本归一化(TN):消除非标准词在读音上的歧义,例如数字、缩写、符号等(基于规则或模型)
  • 分词和词性标注:有时候分词错误会造成歧义;
  • 注音:Grapheme to phoneme(G2P)也就是文本转音素,解决多音字、儿化音、变调问题;
  • 韵律分析:Prosody(反映在能量、基频、时长上),句调、重读、韵律边界预测(停顿);

具体例子如下:

在这里插入图片描述
在这里插入图片描述

七、语音合成方法

1、波形拼接合成(单元选择合成)

在这里插入图片描述
在这里插入图片描述

优点:高质量、高自然度;

缺点:需要大音库,一致性差,可控性差,通常只能在线使用;

原理:从音库中选择”最佳”路径上的单元进行拼接,使得目标代价和连接代价最低;

2、基于轨迹指导的拼接合成

方法:基于参数语音合成的轨迹指导单元合成;

优点:相对平滑和稳定的参数轨迹,又能保证比较自然的音质;

3、统计参数语音合成(SPSS)

在这里插入图片描述
在这里插入图片描述

第一步是帧级的建模:

  • 时长模型:音素序列 ——> 帧级文本特征;
  • 声学模型:帧级文本特征 ——> 帧级语音输出;

第二步是训练数据:

  • 利用语音识别强制对齐,得到音素帧级对应关系;

最常见的模型是基于HMM的SPSS:

优点:系统存储空间小,灵活度高(可参数调节),语音平滑流畅,适合离线、嵌入式设备;

缺点:合成语音音质受限,合成的韵律平淡;

实现步骤:

提参——训练数据帧级对齐——单音素HMM——三音素HMM——决策树聚类——优化

4、基于神经网络的语音合成

HMM存在问题:

利用上下文信息不足,决策树聚类对模型来说不够精细;

DNN优点:

神经网络能够拟合任何的函数映射,替代决策树模型,增加语音合成的表现力;

方案:将HMM替换为DNN,自然都得到一定的提升;

5、声码器

功能:提取语音参数,合成还原语音波形;

常见传统声码器:HTS、World等;

在这里插入图片描述
在这里插入图片描述

像一些基于神经网络的声码器将在后续进行介绍,相对来说传统声码器会造成一定损失,神经网络的声码器效果会好一些,但大小和耗时会更大;

6、端到端神经网络

定义:并不是完全端到端,是一套序列到序列(seq2seq)模型;

编码器——解码器架构:解决了对齐问题,但信息过度压缩;(M—>1—>N)

编码器——注意力机制——解码器架构:保留了全部编码信息,注意力机制是一种查表工具(M—>M—>N)

主流模型:Tacotron、Tacotron2、Transformer TTS

7、神经声码器

定义:利用神经网络强大的非线性拟合能力从语音特征转换为语音波形(采样点)

目前有两种主流方案:

① DSP+NN:传统信号处理和神经网络结合;

② GAN:生成效率很高,并且质量也不错;

在这里插入图片描述
在这里插入图片描述

左边一列表示合成质量,右边一列表示合成成本,从图中来看,采用GAN的声码器效果和性能上比较好;

八、语音合成前沿探索

有以下几个热门研究方向:

1、小样本训练;

2、增加对情感等信息的可控性;

3、完全端到端;

4、抗噪;

5、语音转换;

6、唱歌合成;

九、语音合成评估

1、文本分析(前端)模块

主要关注以下一些客观指标

在这里插入图片描述
在这里插入图片描述

2、声学模型模型及声码器(后端)模块

主观指标:

  • 从测试集考察语音的”还原度”;
  • 从集外数据考察泛化能力,以及对场景的覆盖能力;
  • MOS打分;

客观指标:

  • 时间等长:用原始语音的单元时长,计算差异;
  • 时间不等长:时间对齐,对局部差异求和;

十、语音合成语料库

对常见语料库总结如下图:

在这里插入图片描述
在这里插入图片描述

图中网址不太清楚,如有需要的可直接私信我;

总结

本篇是对语音合成的一个综述,实际上对于刚接触TTS领域的来说,对很多概念并不能完全理解;并且搜索引擎中对于语音合成的总结并不多,也由于TTS是比较小众的一个技术;通过本篇希望读者对于常见的概念,以及TTS的具体任务和发展有一定掌握;

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/153128.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一、资料推荐
  • 二、基础概念介绍
  • 三、语音基本信息
  • 四、语音生成
  • 五、语音合成简述
    • 1、热门研究方向
      • 2、应用方向
        • 3、难点
          • 4、现代语音合成技术
          • 六、文本分析
          • 七、语音合成方法
            • 1、波形拼接合成(单元选择合成)
              • 2、基于轨迹指导的拼接合成
                • 3、统计参数语音合成(SPSS)
                  • 4、基于神经网络的语音合成
                    • 5、声码器
                      • 6、端到端神经网络
                        • 7、神经声码器
                        • 八、语音合成前沿探索
                        • 九、语音合成评估
                          • 1、文本分析(前端)模块
                            • 2、声学模型模型及声码器(后端)模块
                            • 十、语音合成语料库
                            • 总结
                            相关产品与服务
                            语音识别
                            腾讯云语音识别(Automatic Speech Recognition,ASR)是将语音转化成文字的PaaS产品,为企业提供精准而极具性价比的识别服务。被微信、王者荣耀、腾讯视频等大量业务使用,适用于录音质检、会议实时转写、语音输入法等多个场景。
                            领券
                            问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档