前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >自然语言处理之基于biLSTM的pytorch立场检测实现

自然语言处理之基于biLSTM的pytorch立场检测实现

作者头像
zenRRan
发布2018-04-10 11:09:00
1.6K2
发布2018-04-10 11:09:00
举报
文章被收录于专栏:深度学习自然语言处理

前面我已经讲过了LSTM的原理,想要了解的看上一篇就行。

LSTM理解了,biLSTM其实也就很容易理解了。这个实验,我是根据黑龙家大学nlp实验室的冯志,王潜升师兄的指导以及一篇基于biLSTM的paper实现的,如果想要这个paper的pdf,可以私聊我,一起进步。

biLSTM是双向循环神经网络,简单的理解就是LSTM正向走一遍,又反向走了一遍而已。而对于立场检测这个实验,在这里我借用此论文的图片:

Stance Detection with Bidirectional Conditional Encoding

先说数据文本格式:

数据截图

前面是topic(图里的target),中间是针对这个topic的谈论文本,最后是这个文本在这个topic下的立场,格式简化为:

sentence = topic + text + label

而这里的topic有5种,分别为:

'Atheism', 'Feminist Movement', 'Hillary Clinton', 'Legalization of Abortion', 'Climate Change is a Real Concern'

而上面biLSTM网络流程图就是选取的topic为Legalization of Abortion的例子。

现在我来结合代码详细解释下这个基于biLSTM网络的立场检测实验:

首先,把网络搭建好:

其中,LSTM的参数隐藏层大小hiddenSize和隐藏层数量hiddenNum,我用上面的图详细解释下:

hiddenSize是说LSTM一个cell的参数大小,hiddenNum是说这样大网络循环的个数。

网络搭建好了,数据开始在网络中流动:

假设EmbedSize = 100,hiddenSize = 50

topic,text分别过Embedding Layer,维度分别为:(1,1,100),(1,17,100)

然后分别经过biLSTM Layer,维度为:(1,1,200),(1,17,200)

因为一会要经过一个maxPooling,所以现在先转置下,维度为(1,200,1),(1,200,17):

然后经过一个激活函数tanh,维度不变为(1,200,1),(1,200,17):

在第三维上,分别经过maxPooling,之后的维度为(1, 200, 1),(1, 200, 1):

然后cat在一起,维度为(1, 400, 1):

一会要经过线性层,可以先将没用的第三维扔掉,维度为(1, 400):

然后经过第一个线性层(400->100),维度为(1,100):

然后再经过一个tanh,维度不变(1,100):

最后,经过最后一个线性层(100->3),维度为(1,3):

你或许有疑问,为什么不直接经过一个线性层呢?因为我们要直接从400->3的话,信息会损失很多,如果分别经过两个400->100, 100->3,这样就不会损失那么多信息了,如果你想用三个线性层也可以,自己感觉调到最佳就好。

这个整体的数据流图为:

整个也就算讲完了,其实也想把实验结果摆上来的,可是我的电脑是4G的。。太慢了。。但是如果想要源代码的话,可以留言给我,共同进步。


本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-01-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 深度学习自然语言处理 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档