前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >深度学习——RNN(3)

深度学习——RNN(3)

作者头像
DC童生
发布2018-06-06 14:43:29
5160
发布2018-06-06 14:43:29
举报
文章被收录于专栏:机器学习原理机器学习原理

前言:在语言结构中,由于词语之间是存在时序关系的,所以RNN在语言处理方面发挥着很大的优势,下面构建一个最简单的RNN结构来实现一个给定几个单词预测下一个单词是什么。实现的关键是对单词和数字之间的相互转换。 详细代码可见:https://github.com/dctongsheng/vocab_predict_rnn 读取数据:

代码语言:javascript
复制
def read_data(filename):
    with open(filename) as f:
        content = f.readlines()
        #去掉空格
        content = [x.strip() for x in content]
        #得到单词
        content_size = len(content)
        print(content_size)
        words = [content[i].split() for i in range(content_size)]
        words = np.array(words)
        # 将格式转换,认为一行一个样本,一个样本中的序列长度未知,每个时刻一个对应的单词或者符号
        words = np.reshape(words,[-1,])

将单词转化为字典的形式

代码语言:javascript
复制
def build_dataset(words):
    count = collections.Counter(words).most_common()
    print(count)
    dicts = {}
    k=0
    # return count
    for word,_ in count:
        dicts[word] = k
        k+=1
    reves_dict = dict(zip(dicts.values(),dicts.keys()))
    return dicts,reves_dict

构建网络结构,采用深层的rnn结构,静态加载数据

代码语言:javascript
复制
def rnn(x):
    x = tf.reshape(x,[-1,n_inputs])
    x = tf.split(x,n_inputs,1)
    rnn_cell = tf.nn.rnn_cell.MultiRNNCell(cells=[tf.nn.rnn_cell.LSTMCell(num_units=n_hidden1),
                                                  tf.nn.rnn_cell.GRUCell(num_units=n_hidden2),
                                                  tf.nn.rnn_cell.BasicRNNCell(num_units=n_hidden3)])
    output,state = tf.nn.static_rnn(rnn_cell,x,dtype=tf.float32)
    output=output[-1]
    return tf.matmul(output, weights['out']) + biases['out']

定义损失函数

代码语言:javascript
复制
pred = rnn(x)
cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=pred,labels=y))
train = tf.train.RMSPropOptimizer(learning_rate=learn_rate).minimize(cost)

定义准确率

代码语言:javascript
复制
cp = tf.equal(tf.argmax(pred,1),tf.argmax(y,1))
accury = tf.reduce_mean(tf.cast(cp,tf.float32))

运行模型,运行模型过程中,对x,y的构造如下

代码语言:javascript
复制
        keys = [dicts[str(train_data[i])] for i in range(offset,offset+n_inputs)]
        keys = np.reshape(np.array(keys), [-1, n_inputs, 1])
        #构建y
        out_one_hot = np.zeros([vocab_size],dtype=np.float32)
        out_one_hot[dicts[str(train_data[offset+n_inputs])]] =1.0
        out_one_hot = np.reshape(out_one_hot,[1,-1])
        # 训练
        _,_acc,_cost,_pred=sess.run([train,accury,cost,pred],feed_dict={x:keys,y:out_one_hot})

输出结构如下:

可以看到当运行到10000词的时候准确率已经上来了,并且连续的三次输出的结果都预测正确了

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018.06.05 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档