歌唱声和伴奏分离算法主观测试

一个月前我们发了这个主观测试邀请大家来做。现在这个博士生想进行第二次实验。原先做过这个测试的人也可以再做一遍。谢谢大家。这是最后一次实验。

这个是帮MTG一个博士发的。他设计了一套奇怪的系统用于从混缩好的音频里面提取歌唱声的各种参数,比如音高,频谱包络,然后使用这些参数重新合成歌唱声。算法包含有数个神经网络,可以间接达到分离歌唱声和伴奏的目的。

每套这样的系统都需要一个主观实验来验证算法的好坏(写出的论文才不会因为缺少这么个实验被拒)。由于实验的素材是中文歌曲,还需要测试对歌词的可懂度,最后他找到了我帮忙扩散一下这个实验。

总之大家想知道这个算法的效果如何,就去做一下这个实验吧。链接:http://mtg.upf.edu/sourcesepeval/ 或者点击原文

实验有三个部分,(1)歌词的可懂度,(2)分离歌唱声的音质,(3)分离的是否干净。每个部分都有中文的解释。大家看好解释再下手,否则可能收上来的答案是无效的,还浪费大家的时间。

另外作者还放上来源代码的github: https://github.com/pc2752/ss_synthesis 就是还没有整理和放上文档。另外作者之前还有一个基于CNN的声源分离的算法,代码再这里:https://github.com/MTG/DeepConvSep

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180914G1YUS100?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

同媒体快讯

扫码关注腾讯云开发者

领取腾讯云代金券