基于Attention机制的深度学习模型在文本分类中的应用

Attention机制在2016年被大量应用在nlp中,这里简单介绍Attention在AS任务上的应用。在对AS任务建模时,采用问题和答案对的形式建模,因此可以根据问题和答案的关系设计Attention机制。而文本分类任务中则稍有不同,文本分类建模方式为问题和标签。因此Attention机制的设计一般被应用于时序模型中,通过时序状态设计Attention。

本文参考《Hierarchical Attention Networks for Document Classification》,该论文介绍了Attention机制在英文文本分类中的应用。本文采用document级分类,即document由sentence组成,而sentence由word组成,因此天然的具有层级关系。以word为粒度输入网络抽取word级特征得到表示sentence的特征向量;然后将sentence级向量输入网络抽取sentence级特征得到最终的document级特征,然后将document特征通过一个线性表示和softmax。为了给与不同的word和不同的sentence分配不同的权重,论文设计一个层级架构的attention机制用于提升模型的性能。

Hierarchical Attention Network

本文借鉴论文中设计Attention的方式,设计了基于单字的Attention模型。

本文Attention网络结构

实验步骤

1:本次实验采用单句问题和对应的标签作为输入。实验之前首先对问题按字切词,然后采用word2vec对问题进行预训练(这里采用按字切词的方式避免的切词的麻烦,并且同样能获得较高的准确率)。

2:由于本次实验采用固定长度的GRU/LSTM,因此需要对问题和答案进行截断(过长)或补充(过短)。

3:实验建模Input。本次实验单句问题和标签进行建模(q,l),q代表问题,l代表标签。

4:将问题进行Embedding(batch_size, seq_len, embedding_size)表示。

5:对问题采用GRU/LSTM模型计算特征(seq_len, batch_size, rnn_size)。

6:GRU/LSTM模型输出向量为(batch_size, seq_len,rnn_size),因此需要对输出特征向量进行特征抽取。常用的特征抽取方式为取模型最后一步的输出为下一层的特征,但是该特征抽取方式只取了最后一步的特征,丢弃了其他的特征信息,所以本次实验采用Attention机制计算每一步特征的权值,然后进行加权平均。

7:对模型输出的特征进行线性变换。

8:针对多类文本分类,需要将线性变换的输出通过softmax

参数设置

1:、这里优化函数采用论文中使用的Adam(尝试过SGD,学习速率0.1,效果不佳)。

2、学习速率为1e-4。

3:、训练100轮。

4、embedding_size为150维。

5、attention为100维。

6、batch_size这里采用128。

7、问题长度限制为80字。

8、rnn_size为201。

9、模型采用单层网络,多层网络速度相对更慢,性能没有明显的提升。

10、dropout为0.5(在输入和输出时均执行dropout,单次dropout实验时效果不佳)

实验效果对比

BIGRU :93%

BILSTM :91.43%

BIGRU_ATTENTION :95.4%

BILSTM_ATTENTION :96.2%

实验总结:本次实验语料为5W,根据结果分析GRU稍胜LSTM,这也证明了前面博客的观点(在语料数量相对较少时,GRU可能会获得更优的性能)。将Attention机制应用在GRU和LSTM上,都取得了较好的性能提升,基于Attention的LSTM模型性能稍胜GRU模型。

附录

words.txt

train.txt

cateAndQuest.txt

vectors.txt

由于部分朋友评论不知道文件格式,因此这里举例列出各个文件的格式。words.txt和train.txt都是空格分开,cateAndQuest.txt是tab键分开,vectors.txt一行是一个词向量,和words.txt一一对应。

原文发布于微信公众号 - 人工智能LeadAI(atleadai)

原文发表时间:2017-08-31

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏机器之心

教程 | 初学者入门:如何用Python和SciKit Learn 0.18实现神经网络?

选自Springboard 作者:Jose Portilla 机器之心编译 参与:Jane W、吴攀 本教程的代码和数据来自于 Springboard 的博客...

32411
来自专栏数据派THU

独家 | 手把手教TensorFlow(附代码)

上一期我们发布了“一文读懂TensorFlow(附代码、学习资料)”,带领大家对TensorFlow进行了全面了解,并分享了入门所需的网站、图书、视频等资料,本...

3085
来自专栏杨熹的专栏

Machine Learning Notes-Linear Regression-Udacity

什么是 Regression? Regression 就是想找到因变量和自变量之间的关系,用一个函数来表示,并且可用这个函数来预测任意一个新的 x 会有怎样的 ...

3484
来自专栏张俊红

Sklearn参数详解—聚类算法

聚类是一种非监督学习,是将一份给定数据集划分成k类,这一份数据集可能是某公司的一批用户,也可能是某媒体网站的一系列文章,如果是某公司的一批用户,那么k-mean...

1213
来自专栏书山有路勤为径

卡尔曼滤波器(Kalman Filters)

卡尔曼滤波器,这是一种使用噪声传感器测量(和贝叶斯规则)来生成未知量的可靠估计的算法(例如车辆可能在3秒内的位置)。

2312
来自专栏个人分享

C4.5决策树算法概念学习

•分类(Classification)就是按照某种标准给对象贴标签,再根据标签来区分归类,类别数不变。

1172
来自专栏人工智能头条

基于Python的卷积神经网络和特征提取

3534
来自专栏杨熹的专栏

5 分钟入门 Google 最强NLP模型:BERT

BERT (Bidirectional Encoder Representations from Transformers)

2793
来自专栏ATYUN订阅号

使用TensorFlow动手实现的简单的股价预测模型

本文是一个通过模拟预测股票,教会大家如何动手操作TensorFlow的教程,结果不具有权威性。因为股票价格的实际预测是一项非常复杂的任务,尤其是像本文这种按分钟...

3356
来自专栏Coding迪斯尼

启动网络的自我训练流程,展示网络数字图片识别效果

1274

扫码关注云+社区