用 TensorFlow 让你的机器人唱首原创给你听

AI 研习社按:这篇文章会用一个简单的模型在 TensorFlow 上来实现一个音频生成器,GitHub 代码链接详见文末“阅读原文”。原文作者杨熹,载于作者的个人博客,雷锋网 AI 研习社经授权发布。

今天想来看看 AI 是怎样作曲的。

本文会用 TensorFlow 来写一个音乐生成器。

当你对一个机器人说:我想要一种能够表达出希望和奇迹的歌曲时,发生了什么呢?

计算机会首先把你的语音转化成文字,并且提取出关键字,转化成词向量。

然后会用一些打过标签的音乐的数据,这些标签就是人类的各种情感。接着通过在这些数据上面训练一个模型,模型训练好后就可以生成符合要求关键词的音乐。

程序最终的输出结果就是一些和弦,他会选择最贴近主人所要求的情感关键词的一些和弦来输出。

当然你不只是可以听,也可以作为创作的参考,这样就可以很容易地创作音乐,即使你还没有做到刻意练习1万小时。

机器学习其实是为了扩展我们的大脑,扩展我们的能力。

DeepMind 发表了一篇论文,叫做 WaveNet, 这篇论文介绍了音乐生成和文字转语音的艺术。

通常来讲,语音生成模型是串联。这意味着如果我们想从一些文字的样本中来生成语音的话,是需要非常大量的语音片段的数据库,通过截取它们的一部分,并且再重新组装到一起,来组成一个完整的句子。

生成音乐也是同样的道理,但是它有一个很大的难点:就是当你把一些静止的组件组合到一起的时候,生成声音需要很自然,并且还要有情感,这一点是非常难的。

一种理想的方式是,我们可以把所有生成音乐所需要的信息存到模型的参数里面。也就是那篇论文里讲的事情。

我们并不需要把输出结果传给信号处理算法来得到语音信号,而是直接处理语音信号的波。

他们用的模型是 CNN。这个模型的每一个隐藏层中,每个扩张因子,可以互联,并呈指数型的增长。每一步生成的样本,都会被重新投入网络中,并且用于产生下一步。

我们可以来看一下这个模型的图。输入的数据,是一个单独的节点,它作为粗糙的音波,首先需要进行一下预处理,以便于进行下面的操作。

接着我们对它进行编码,来产生一个 Tensor,这个 Tensor 有一些 sample 和 channel。

然后把它投入到 CNN 网络的第一层中。这一层会产生 channel 的数量,为了进行更简单地处理。

然后把所有输出的结果组合在一起,并且增加它的维度。再把维度增加到原来的 channel 的数量。

把这个结果投入到损失函数中,来衡量我们的模型训练的如何。

最后,这个结果会被再次投入到网络中,来生成下一个时间点所需要的音波数据。

重复这个过程就可以生成更多的语音。

这个网络很大,在他们的 GPU 集群上需要花费九十分钟,并且仅仅只能生成一秒的音频。

接下来我们会用一个更简单的模型在 TensorFlow 上来实现一个音频生成器。

1.引入packages:

数据科学包 Numpy ,数据分析包 Pandas,tqdm 可以生成一个进度条,显示训练时的进度。

import numpy as np
import pandas as pd
import msgpackimport glob
import tensorflow as tf 
from tensorflow.python.ops import control_flow_ops
from tqdm import tqdm
import midi_manipulation

我们会用到一种神经网络的模型 RBM-Restricted Boltzmann Machine 作为生成模型。

它是一个两层网络:第一层是可见的,第二层是隐藏层。同一层的节点之间没有联系,不同层之间的节点相互连接。每一个节点都要决定它是否需要将已经接收到的数据发送到下一层,而这个决定是随机的。

2.定义超参数:

先定义需要模型生成的 note 的 range

lowest_note = midi_manipulation.lowerBound #the indexof the lowest note on the piano roll
highest_note = midi_manipulation.upperBound #the indexof the highest note on the piano roll
note_range = highest_note-lowest_note #the note range

接着需要定义 timestep ,可见层和隐藏层的大小。

num_timesteps = 15 #This is the number of timesteps that we will createat a time n_visible = 2*note_range*num_timesteps #This is the sizeof the visible layer. n_hidden = 50 #This is the sizeof the hidden layer123123

训练次数,批量处理的大小,还有学习率。

num_epochs = 200 #The number of training epochs that we are going to run. For each epoch we go through the entire data set. batch_size = 100 #The numberof training examples that we are going to send through the RBM at a time. lr = tf.constant(0.005, tf.float32) #The learning rate of our model

3.定义变量:

x 是投入网络的数据 w 用来存储权重矩阵,或者叫做两层之间的关系 此外还需要两种 bias,一个是隐藏层的 bh,一个是可见层的 bv

x  = tf.placeholder(tf.float32, [None, n_visible], name="x") #The placeholder variable that holds our data
W  = tf.Variable(tf.random_normal([n_visible, n_hidden], 0.01), name="W") #The weight matrix that stores the edge weights
bh = tf.Variable(tf.zeros([1, n_hidden],  tf.float32, name="bh")) #The bias vector for the hidden layer
bv = tf.Variable(tf.zeros([1, n_visible],  tf.float32, name="bv")) #The bias vector for the visible layer

接着,用辅助方法 gibbs_sample 从输入数据 x 中建立样本,以及隐藏层的样本:

gibbs_sample 是一种可以从多重概率分布中提取样本的算法。

它可以生成一个统计模型,其中,每一个状态都依赖于前一个状态,并且随机地生成符合分布的样本。

#The sample of x
x_sample = gibbs_sample(1)
#The sample of the hidden nodes, starting from the visible state of x
h = sample(tf.sigmoid(tf.matmul(x, W) + bh)) 
#The sample of the hidden nodes, starting from the visible state of x_sample
h_sample = sample(tf.sigmoid(tf.matmul(x_sample, W) + bh))

4.更新变量:

size_bt = tf.cast(tf.shape(x)[0], tf.float32) W_adder = tf.mul(lr/size_bt, tf.sub(tf.matmul(tf.transpose(x), h), tf.matmul(tf.transpose(x_sample), h_sample))) bv_adder = tf.mul(lr/size_bt, tf.reduce_sum(tf.sub(x, x_sample), 0, True)) bh_adder = tf.mul(lr/size_bt, tf.reduce_sum(tf.sub(h, h_sample), 0, True)) #When we do sess.run(updt), TensorFlow will run all 3 update steps updt = [W.assign_add(W_adder), bv.assign_add(bv_adder), bh.assign_add(bh_adder)]

5.接下来,运行 Graph 算法图:

5.1先初始化变量

with tf.Session() as sess:    
    #First, we train the model
    #initialize the variables of the model    
    init = tf.initialize_all_variables()    
    sess.run(init)

首先需要 reshape 每首歌,以便于相应的向量表示可以更好地被用于训练模型。

for epoch in tqdm(range(num_epochs)):        
    for song in songs:            
        #The songs are stored in a time x notes format. The size of each song is timesteps_in_song x 2*note_range            
        #Here we reshape the songs so that each training example is a vector with num_timesteps x 2*note_range elements            
        song = np.array(song)            
        song = song[:np.floor(song.shape[0]/num_timesteps)*num_timesteps]            
        song = np.reshape(song, [song.shape[0]/num_timesteps, song.shape[1]*num_timesteps])
5.2接下来就来训练 RBM 模型,一次训练一个样本

for i in range(1, len(song), batch_size):                 
    tr_x = song[i:i+batch_size]                
    sess.run(updt, feed_dict={x: tr_x})

模型完全训练好后,就可以用来生成 music 了。

5.3需要训练 Gibbs chain

其中的 visible nodes 先初始化为0,来生成一些样本。 然后把向量 reshape 成更好的格式来 playback。

sample = gibbs_sample(1).eval(session=sess, feed_dict={x: np.zeros((10, n_visible))})    
for i in range(sample.shape[0]):        
    if not any(sample[i,:]):           
        continue
    #Here we reshape the vector to be time x notes, and then save the vector as a midi file        
     S = np.reshape(sample[i,:], (num_timesteps, 2*note_range))
5.4最后,打印出生成的和弦

midi_manipulation.noteStateMatrixToMidi(S, "generated_chord_{}".format(i))

综上,就是用 CNN 来参数化地生成音波, 用 RBM 可以很容易地根据训练数据生成音频样本, Gibbs 算法可以基于概率分布帮我们得到训练样本。

本文基于Siraj 的视频编写,原视频链接:

http://t.cn/RKSbhYm

Github 源码链接:

http://t.cn/RKSbZl1

原文发布于微信公众号 - AI研习社(okweiwu)

原文发表时间:2017-07-13

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏杨熹的专栏

用 TensorFlow 让你的机器人唱首原创给你听

Siraj 的视频 源码 今天想来看看 AI 是怎样作曲的。 本文会用 TensorFlow 来写一个音乐生成器。 当你对一个机器人说:我想要一种能够表达出希...

35660
来自专栏小鹏的专栏

深度学习这些坑你都遇到过吗?

原文地址:My Neural Network isn't working! What should I do? 如果你的神经网络不工作,该怎么办?本文作者列举...

21350
来自专栏人工智能

机器学习教程:最大熵文本分类器

在本教程中,我们将讨论最大熵文本分类器,也称为MaxEnt分类器。最大熵分类器是自然语言处理,语音和信息检索问题中常用的判别分类器。使用像JAVA...

1K80
来自专栏智能算法

机器学习三人行(系列十)----机器学习降压神器(附代码)

系列九我们从算法组合的角度一起实战学习了一下组合算法方面的知识,详情戳下链接: 机器学习三人行(系列九)----千变万化的组合算法(附代码) 但是,我们也知道算...

42290
来自专栏机器之心

CVPR2018 | CMU&谷歌Spotlight论文:超越卷积的视觉推理框架

选自arXiv 作者:陈鑫磊等 机器之心编译 参与:张倩、李泽南 人类在看到图像时可以进行合理的推理与预测,而目前的神经网络系统却还难以做到。近日,来自卡耐基梅...

36780
来自专栏机器之心

教程 | 从超参数到架构,一文简述模型优化策略

模型可以在训练过程中通过修正超参数而逐步建立。这在迁移学习中最为常见,在这种环境中,我们试图将现有模型的知识应用到新领域或新任务中。这是持续学习中更常见的问题,...

9630
来自专栏目标检测和深度学习

深度学习之基础网络演进、分类与定位的权衡|牛喀技研

深度学习,目标检测,图像,智能驾驶 编译:牛喀网-钱伟 前言 本篇关注基础网络架构的演进和处理分类、定位这一矛盾问题上的进展。 基础网络结构的演进 基础网络(...

93170
来自专栏目标检测和深度学习

CVPR2018 | CMU&谷歌Spotlight论文:超越卷积的视觉推理框架

选自arXiv 作者:陈鑫磊等 机器之心编译 参与:张倩、李泽南 人类在看到图像时可以进行合理的推理与预测,而目前的神经网络系统却还难以做到。近日,来自卡耐基梅...

30860
来自专栏IT派

用 TensorFlow 让机器人唱首歌给你听

然后会用一些打过标签的音乐的数据,这些标签就是人类的各种情感。接着通过在这些数据上面训练一个模型,模型训练好后就可以生成符合要求关键词的音乐。

13320
来自专栏大数据挖掘DT机器学习

数据挖掘18大算法实现以及其他相关经典DM算法

算法使用方法在每个算法中给出了3大类型,主算法程序,调用程序,输入数据,调用方法如下: 将需要数据的测试数据转化成与给定的输入格式相同,然后以Client类...

41890

扫码关注云+社区

领取腾讯云代金券