一个月前我们发了这个主观测试邀请大家来做。现在这个博士生想进行第二次实验。原先做过这个测试的人也可以再做一遍。谢谢大家。这是最后一次实验。
这个是帮MTG一个博士发的。他设计了一套奇怪的系统用于从混缩好的音频里面提取歌唱声的各种参数,比如音高,频谱包络,然后使用这些参数重新合成歌唱声。算法包含有数个神经网络,可以间接达到分离歌唱声和伴奏的目的。
每套这样的系统都需要一个主观实验来验证算法的好坏(写出的论文才不会因为缺少这么个实验被拒)。由于实验的素材是中文歌曲,还需要测试对歌词的可懂度,最后他找到了我帮忙扩散一下这个实验。
总之大家想知道这个算法的效果如何,就去做一下这个实验吧。链接:http://mtg.upf.edu/sourcesepeval/ 或者点击原文
实验有三个部分,(1)歌词的可懂度,(2)分离歌唱声的音质,(3)分离的是否干净。每个部分都有中文的解释。大家看好解释再下手,否则可能收上来的答案是无效的,还浪费大家的时间。
另外作者还放上来源代码的github: https://github.com/pc2752/ss_synthesis 就是还没有整理和放上文档。另外作者之前还有一个基于CNN的声源分离的算法,代码再这里:https://github.com/MTG/DeepConvSep
领取专属 10元无门槛券
私享最新 技术干货