前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Tensorflow:基于LSTM轻松生成各种古诗

Tensorflow:基于LSTM轻松生成各种古诗

作者头像
机器学习AI算法工程
发布2018-03-15 14:49:11
1.9K0
发布2018-03-15 14:49:11
举报

RNN不像传统的神经网络-它们的输出输出是固定的,而RNN允许我们输入输出向量序列。RNN是为了对序列数据进行建模而产生的。

样本序列性:样本间存在顺序关系,每个样本和它之前的样本存在关联。比如说,在文本中,一个词和它前面的词是有关联的;在气象数据中,一天的气温和前几天的气温是有关联的。

例如本帖要使用RNN生成古诗,你给它输入一堆古诗词,它会学着生成和前面相关联的字词。如果你给它输入一堆姓名,它会学着生成姓名;给它输入一堆古典乐/歌词,它会学着生成古典乐/歌词,甚至可以给它输入源代码。

关于RNN:

  • TensorFlow练习3: RNN, Recurrent Neural Networks
  • http://karpathy.github.io/2015/05/21/rnn-effectiveness/

本帖代码移植自char-rnn,https://github.com/karpathy/char-rnn

它是基于Torch的洋文模型,稍加修改即可应用于中文。char-rnn使用文本文件做为输入、训练RNN模型,然后使用它生成和训练数据类似的文本。

使用的数据集:全唐诗(43030首):

本文代码在公众号 datadw 里 回复 古诗 即可获取。

模型生成

首先我们要训练好模型。这里采用的是2层的LSTM框架,每层有128个隐藏层节点,batch_size设为64。训练数据来源于全唐诗(可在上面百度云资源分享当中找到)。特别注意到的一点是这里每训练完一次就对训练数据做shuffle。 源代码如下:

使用该代码会将训练好的模型参数保存在 “model” 文件夹下。经过100个epoch之后,平均loss会降到2.6左右。训练好的模型在公众号 datadw 里 回复 古诗 即可获取。

生成古诗

使用训练好的模型可以轻松生成各种古诗。 下面就是几个例子:

生成藏头诗

上代码:

最后从函数接口可以看到,除了可以自己定义诗的头外,还可以定义是五言绝句还是七言绝句。 来看几个五言绝句的例子:

再来看几个七言绝句的例子:

那么是不是可以用它来写情诗呢? 当然可以啦!

via http://blog.csdn.net/u014232627/article/details/71189078

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-01-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 大数据挖掘DT数据分析 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 模型生成
  • 生成古诗
  • 生成藏头诗
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档