首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

谷歌发布 Brain2Music 模型,可基于人类大脑活动生成音乐

IT之家 7 月 26 日消息,谷歌近日发布了名为 Brain2Music 的论文,可以利用人工智能读取、分析你的功能性磁共振成像(fMRI)数据,然后再基于你的大脑活动自动生成音乐。

研究人员招募了 5 名志愿者,先让其听蓝调,古典,乡村,迪斯科,嘻哈,爵士乐,金属,流行,雷鬼和摇滚等不同音乐类型的 15 秒音乐片段,然后记录志愿者的 fMRI 数据。

谷歌使用这些数据训练出一个深度神经网络,以了解大脑活动模式与音乐节奏和情感等不同元素之间的关系。

Brain2Music 基于谷歌此前推出的 MusicLM 模型(基于文本生成音乐片段),基于 fMRI 生成 15 秒音乐片段。

研究结果显示 Brain2Music 生成的 15 秒音乐片段,其中一段内容“Oops!...I Did It Again”和测试听到的原版音乐基本相同。

IT之家在此附上论文 ,感兴趣的用户可以深入阅读。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OAujS9xLvnpZyXUsiKgKZHeg0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券