自然语言处理之基于biLSTM的pytorch立场检测实现

前面我已经讲过了LSTM的原理,想要了解的看上一篇就行。

LSTM理解了,biLSTM其实也就很容易理解了。这个实验,我是根据黑龙家大学nlp实验室的冯志,王潜升师兄的指导以及一篇基于biLSTM的paper实现的,如果想要这个paper的pdf,可以私聊我,一起进步。

biLSTM是双向循环神经网络,简单的理解就是LSTM正向走一遍,又反向走了一遍而已。而对于立场检测这个实验,在这里我借用此论文的图片:

Stance Detection with Bidirectional Conditional Encoding

先说数据文本格式:

数据截图

前面是topic(图里的target),中间是针对这个topic的谈论文本,最后是这个文本在这个topic下的立场,格式简化为:

sentence = topic + text + label

而这里的topic有5种,分别为:

'Atheism', 'Feminist Movement', 'Hillary Clinton', 'Legalization of Abortion', 'Climate Change is a Real Concern'

而上面biLSTM网络流程图就是选取的topic为Legalization of Abortion的例子。

现在我来结合代码详细解释下这个基于biLSTM网络的立场检测实验:

首先,把网络搭建好:

其中,LSTM的参数隐藏层大小hiddenSize和隐藏层数量hiddenNum,我用上面的图详细解释下:

hiddenSize是说LSTM一个cell的参数大小,hiddenNum是说这样大网络循环的个数。

网络搭建好了,数据开始在网络中流动:

假设EmbedSize= 100,hiddenSize= 50

topic,text分别过Embedding Layer,维度分别为:(1,1,100),(1,17,100)

然后分别经过biLSTM Layer,维度为:(1,1,200),(1,17,200)

因为一会要经过一个maxPooling,所以现在先转置下,维度为(1,200,1),(1,200,17):

然后经过一个激活函数tanh,维度不变为(1,200,1),(1,200,17):

在第三维上,分别经过maxPooling,之后的维度为(1, 200, 1),(1, 200, 1):

然后cat在一起,维度为(1, 400, 1):

一会要经过线性层,可以先将没用的第三维扔掉,维度为(1, 400):

然后经过第一个线性层(400->100),维度为(1,100):

然后再经过一个tanh,维度不变(1,100):

最后,经过最后一个线性层(100->3),维度为(1,3):

你或许有疑问,为什么不直接经过一个线性层呢?因为我们要直接从400->3的话,信息会损失很多,如果分别经过两个400->100, 100->3,这样就不会损失那么多信息了,如果你想用三个线性层也可以,自己感觉调到最佳就好。

这个整体的数据流图为:

整个也就算讲完了,其实也想把实验结果摆上来的,可是我的电脑是4G的。。太慢了。。但是如果想要源代码的话,可以留言给我,共同进步。

欢迎关注深度学习自然语言处理公众号

  • 发表于:
  • 原文链接:http://kuaibao.qq.com/s/20180118G0WUE200?refer=cp_1026

相关快讯

扫码关注云+社区