前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >谷歌机器学习模型新进展:生成时长更长且连贯的音乐

谷歌机器学习模型新进展:生成时长更长且连贯的音乐

作者头像
AiTechYun
发布2018-12-29 15:21:58
8320
发布2018-12-29 15:21:58
举报
文章被收录于专栏:ATYUN订阅号ATYUN订阅号

编译:chux

出品:ATYUN订阅号

谷歌的歌曲创作AI虽然还无法与莫扎特或李斯特相提并论,但它最近取得了令人印象深刻的进展。作为Google Brain“探索机器学习作为创作过程中的工具的角色”的Magenta项目的一部分,在博客文章和随附的论文“Music Transformer”中,研究者介绍了Musical Transformer,这是一种机器学习模型,能够产生具有可识别的,重复的,且相对连贯的曲调。

论文作者写道,“Transformer是一种基于自我注意的序列模型,在许多需要保持长时程一致性的生成任务中取得了令人瞩目的成果,这表明自我注意也可能非常适合音乐建模。”

正如团队解释的那样,由于其结构复杂性,制作长时程的音乐对于AI仍是不小的挑战; 大多数歌曲包含多个主题,短语和重复,神经网络很难接受。虽然以前的工作设法引导了一些由人类组成的作品中的自我参考可观测量,但它依赖于绝对定时信号,使其不适合跟踪基于相对距离和重复间隔的主题。

该团队的解决方案就是Music Transformer,基于注意的神经网络,可直接创建“富有表现力”的表演而无需先生成乐谱。通过使用基于事件的表征和相对注意的技术,Music Transformer不仅能够更多地关注关系特征,而且能够超出训练样本的长度。而且由于它的内存密集程度较低,因此它还能够生成更长的音乐序列。

在测试中,当使用肖邦的Black Key Etude进行准备时,Music Transformer制作了一首风格一致的歌曲,其中包含多个来自该主题的短语。相比之下,Performance RNN和Transformer这两种过去的算法,要么完全缺乏可辨别结构,要么无法保持结构一致。

但该团队也承认Music Transformer还达不到完美,它有时会重复次数过多,部分又过于稀疏,但他们希望它能成为音乐家需要灵感时的帮手斯。

该团队表示,这为用户提供了一种可能性,他们可以指定开头,并将模型作为一种创造性工具来探索一系列可能的延续。

另外,训练和生成Music Transformer的代码,以及预先训练的检查点即将放出。

博客:magenta.tensorflow.org/music-transformer

论文:arxiv.org/abs/1809.04281

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-12-17,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 ATYUN订阅号 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档