我正计划制作一个AI歌曲作曲家,它会吸收一组乐器的歌曲,从声波中提取音符(比如ABCDEFG)和某些特征,预制板机器学习(很可能是通过递归神经网络),并输出一系列ABCDEFG音符(也就是产生自己的歌曲/音乐)。
我认为这将是一个没有监督的学习问题,但我不太确定。
我想我会使用递归神经网络,但我有几个关于如何处理这个问题的问题:
此外,我还有几个问题
发布于 2015-07-16 06:44:56
我曾经做过类似的事情(在matlab上做了一个类似于shazam的应用程序),我认为你可以用FFT(快速傅立叶变换)把它分解成组成频率和它们相应的振幅.Then,你可以用不同仪器的频率范围从整串中选择它们并进行分类。
发布于 2015-07-20 02:57:11
我已经尝试过类似的RNN (递归神经网络)。尝试使用LSTM网络(长期短期内存),它们比RNN更适合于这种类型的数据处理,因为它们不受“消失梯度问题”的影响。
Chris Thaliyath说的是关于如何训练特征检测器的一个很好的提示。
https://stackoverflow.com/questions/31418602
复制相似问题