前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >回顾——keras电影评价预测

回顾——keras电影评价预测

作者头像
润森
发布2019-10-12 15:57:32
6380
发布2019-10-12 15:57:32
举报
文章被收录于专栏:毛利学Python毛利学Python

学习一时爽,一直学习一直爽

回顾以前的笔记 (于3月份记录的)

在keras中,内置了imdb电影评分数据集,来进行评价预测

安装keras

代码语言:javascript
复制
conda install keras

conda就帮依赖全部搞定,记得加源

导入imdb

代码语言:javascript
复制
from keras.datasets import imdb

数据集简要说明

  • 一个长长的英文句子,有的有几千单词,有的有几十,分类成好的评价和不好的评价

在数据中不是单词,而是单词的索引 一共就5万句子

代码语言:javascript
复制
import keras
from keras import layers
import matplotlib.pyplot as plt
%matplotlib inline
data = keras.datasets.imdb
max_word = 10000
# 加载前10000个单词 最大不超过10000
(x_train, y_train), (x_test, y_test) = data.load_data(num_words=max_word)

查看数据

代码语言:javascript
复制
x_train.shape, y_train.shape
OUT:
((25000,), (25000,))
x_train[0]
y_train[0]
OUT:
输出的是
词汇的index
输出的是 
array([1, 0, 0, ..., 0, 1, 0], dtype=int64)
1 代表 正面评价 0 代表负面怕评价

加载index和词汇的对应关系

代码语言:javascript
复制
#加载词汇
word_index = data.get_word_index()
#将index和value 互换
index_word = dict((value, key) for key,value in word_index.items())

在这里插入图片描述 打印第一个评论

代码语言:javascript
复制
# 在index_word中前三个不是需要的单词 ,去除
[index_word.get(index-3, '?') for index in x_train[0]]
OUT:
['?','this','film','was','just','brilliant','casting','location','scenery','story','direction',"everyone's", 'really', ……]

查看数据的长度

代码语言:javascript
复制
[len(seq) for seq in x_train]
max([max(seq) for seq in x_train])
OUT:
[218,189,141,550,147,……] #每条评论的单词量为这么多
9999

果然最长的不超过10000

文本的向量化(下次用pad_sequences)

代码语言:javascript
复制
# 将x_train 中的25000条评论 25000*10000的矩阵
# 该词出现为1 ,不出现为0 
def k_hot(seqs, dim=10000):
    result = np.zeros((len(seqs), dim))
    for i, seq in enumerate(seqs):
        result[i, seq] = 1
    return result
x_train = k_hot(x_train)

可以看下x_train 和y_train 数据

在这里插入图片描述

模型的训练

补充模型

  • input_dim 就是x_trian 的数量10000
  • relu激活
  • 二分类sigmoid
  • 优化adam
  • 损失函数二分类binary_crossentropy
代码语言:javascript
复制
model = keras.Sequential()
model.add(layers.Dense(32, input_dim=10000, activation='relu'))
model.add(layers.Dense(32, activation='relu'))
model.add(layers.Dense(1, activation='sigmoid'))
model.compile(optimizer='adam',
              loss='binary_crossentropy',
              metrics=['acc']
)
history = model.fit(x_train, y_train, epochs=15, batch_size=256, validation_data=(x_test, y_test))
plt.plot(history.epoch, history.history.get('loss'), c='r', label='loss')
plt.plot(history.epoch, history.history.get('val_loss'), c='b', label='val_loss')
plt.legend()
plt.plot(history.epoch, history.history.get('acc'), c='r', label='acc')
plt.plot(history.epoch, history.history.get('val_acc'), c='b', label='val_acc')
plt.legend()

在这里插入图片描述

不用看了过拟合,加dropout,下文继续

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-10-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 小刘IT教程 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档