前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >语音合成论文和英伟达撞车,韩国小哥紧急放出全部草稿代码和样本 | 资源帖

语音合成论文和英伟达撞车,韩国小哥紧急放出全部草稿代码和样本 | 资源帖

作者头像
量子位
发布2018-12-07 15:56:03
8270
发布2018-12-07 15:56:03
举报
文章被收录于专栏:量子位量子位
晓查 发自 凹非寺 量子位 报道 | 公众号 QbitAI

由于和英伟达研究撞车,韩国一位研究语音合成的作者已经哭晕了。

10月31日,英伟达在arXiv网站上传了一篇论文——WaveFlow:一个用于音频合成基于流的生成网络。

英伟达论文地址: https://arxiv.org/abs/1811.00002

而一位韩国首尔大学的学生发现,自己的研究成果竟然和英伟达高度相似,为了和英伟达抢时间,他们在11月6日赶紧也向arXiv上传了论文。

论文第二作者昨晚还在reddit发帖,并抢时间放出源代码,以此安慰在角落哭泣的第一作者。

FloWaveNet项目

这位韩国学生公布的FloWaveNet,是一种基于流生成模型的原始音频合成方法,只需要一个最大似然损失,不需要其他额外的损失函数。该模型可以实时高效地采样原始音频,而且合成音频的清晰度已经能和WaveNet相媲美。

英伟达也公布了自己的WaveGlow:一种基于流的网络,能够从梅尔频谱图(mel-spectrograms)中合成高质量的语音。 它借鉴了OpenAI的生成网络Glow和DeepMind的WaveNet,能够提供快速,高效和高质量的音频合成,而无需自动回归(auto-regression)。 WaveGlow仅由单一成本函数进行训练,使用单一网络实现,使得训练过程简单而稳定。

源代码与合成音频样品

作者已经在GitHub上公布了FloWaveNet源代码,并和百度研究院数月前发布的语音合成项目ClariNet进行对比。

FloWaveNet项目地址: https://github.com/ksw0306/FloWaveNet

ClariNet项目地址: https://github.com/ksw0306/ClariNet

这两个项目都是基于PyTorch实现,此外用户还需要安装音频分析包librosa

为了展示效果,作者还放出了与原始音频、WaveNet合成音频样品的对比(第一段为原始音频、第二段为FloWaveNet合成,第三段为WaveNet合成):

另外,英伟达也放出了自己的WaveGlow的项目和多段音频对比,但是却没有提供源代码: https://nv-adlr.github.io/WaveGlow

不过,有英伟达论文的第三方PyTorch实现可用: https://github.com/npuichigo/waveglow

因祸得福

帖子发出后2个小时内,获得了热烈讨论。有人分享了类似“撞车”经验,表示单枪匹马很难与大公司众多工程师竞争,自己开始某项研究数月后,就被DeepMind抢发了论文。

不过还是有人鼓励作者,英伟达的WaveGlow目前仅仅是提交到arXiv,还未正式发表,希望作者不要担心。

很快帖子就吸引来了行业大咖。英伟达WaveGlow作者之一、负责应用深度学习的副总裁Bryan Catanzaro在回帖中点赞,并且抛出了橄榄枝,希望发帖者能够去英伟达实习。

不知道这算不算因祸得福呢?

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-11-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 量子位 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • FloWaveNet项目
  • 源代码与合成音频样品
  • 因祸得福
相关产品与服务
语音合成
语音合成(Text To Speech,TTS)满足将文本转化成拟人化语音的需求,打通人机交互闭环。提供多场景、多语言的音色选择,支持 SSML 标记语言,支持自定义音量、语速等参数,让发音更专业、更符合场景需求。语音合成广泛适用于智能客服、有声阅读、新闻播报、人机交互等业务场景。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档