选中自然语言处理任务的连续表达 | 微软IJCAI2016演讲PPT

微软研究院在IJCAI2016的Tutorial上讲述了自己将深度学习、深度神经网络应用于不同场景的情况,之前第二部分提到了深度学习在统计机器翻译和会话中的应用,本文为第三部分—选中自然语言处理任务的连续表达。

选中自然语言处理任务的连续表达

l 针对信息检索和个人排序的深度语义相似模型(DSSM) l 在连续语义自然语言处理任务环境中进行深度强化学习 l 针对字幕与视觉问题回答的多元语义学习&推理

对自然语言学习连续语义表达,例如:从原始语句到一个抽象语义矢量

在许多自然语言处理任务中Sent2Vec非常重要,它可以处理包括网页搜索、广告选取、文本排序、在线推荐、机器翻译、知识架构、问题回答、个性化推荐、图片搜索、图标注释等问题。

监督问题:

虽然

l 需要学习的文本语义是隐藏的 l 且没有明确的目标学习模型 l 另外不知如何反向传播?

但是幸运的是

l 我们一般知道俩个文本是否“相似” l 这就是语义表达学习的信号

深度架构语义模型

深度架构语义模型/深度语义相似模型,将整个句子转换成连续语义空间。例如:句子变成矢量 DSSM基于字符(非词汇)建立实为了其可拓展性和普适性 DSSM被训练来优化相似驱动对象

在字符级别进行编码,即词汇散列。

在字符级别建立的DSSM,将任意词汇分解成一系列相关字符,倾向于处理大规模自然语言任务。

DSSM:一个相似驱动Sent2Vec模型

初始化:神经网络使用随机权重进行初始化

训练:在语义矢量之间计算余弦相似度

运行时间

训练目标:基于余弦相似度的损失

使用网页搜索作为示例:

查询q与一系列文档D 目标:给定查询后点击文档的可能性

在DSSM中使用卷曲神经网络

在卷曲层对本地文本进行建模 在汇聚层对全局文本进行建模

模型在卷曲层捕捉本地本文相关词的意义,并学习了每个本地文本相关词的嵌入矢量。

CDSSM:在最大汇聚层发生了什么?

将本地主题聚集起来形成全局化 识别最大聚集层的主要词汇/短语 在最大聚集层获得最活跃的神经元词汇

针对学习检索的DSSM,训练数据组搜索记录中的语义相关文本组。

实验设定

卷曲深度语义模型取得最佳结果。

语义匹配示例

卷积DSSM:

在卷积隐层一个接一个就行编码 隐层在最后一个词汇对整句进行语义编码 通过余弦相似驱动目标来训练模型

使用长短期记忆(LSTM)结果:

LSTM比常规RNN学得快得多 LSTM能有效代表使用矢量句子的语义信息

DSSM与Seq2Seq对比

给出一个特别用户的文章跨度代表利益实体,并寻找实体的补充文件。

学习DSSM的语境实体次序

从网页浏览日志提取标签对,超链接指向维基百科P`时,P`中的H的锚文本,环境词汇,文本

语境实体搜索——实验设置:

1.训练/验证数据是维基页面中18M的用户点击量 2.评估数据:首先采样10k的网页文件作为源文件,然后使用文档中被命名的实体作为查询;第三保留100个返回文件作为目标文件,最后手动标记是否每一个目标文件都可以完好的描述实体。其中总共有870k标签对。

语境实体搜索的结果

一些相关的工作:

深度CNN文本输入(文章中主要的分级任务) 序列到序列的学习;段落矢量(学习段落的矢量) 递归NN(树状结构如分解) 张量积代表(树状代表) 树状结构LSTM网络(树状结构LSTM)

强化学习的模型——包括环境状态设置S;行动设置A,以及状态之间的转换规则;状态转换的即时奖励规则和代理观察规则。

Q-learning用于学习RL的政策(代理在给定的当前状态选择行动时必须遵循的规则)。其目的是找到MDP的最优政策,方法是:学习一个行动-价值函数,a.k.a。Q-函数:用于计算在训练收敛之后的状态上,所采取行动的期待效用。

最近的成就:深度Q网络在玩五个Atari游戏时,达到了人类级别的性能。其中使用了卷积神经网络计算Q(s,a),并利用大的行动空间,忽略小的行动空间。

最近的成就(续):机器人AlphaGO打败了世界围棋冠军。它与深度Q网络设置类似,忽略小的行动空间,它的模型中建立了两个CNNs网络(policy网络和value网络)。

语言理解的强化学习:以文本串的形式描述状态和行动,代理通过文本串做出相应正确的行动(正确指最大化长期奖励)。然后,环境状态转换到新的状态,代理也得到即时奖励。

行动空间和状态空间都非常的巨大,而且行动的特征由无界神经语言描述确定。

在NLP任务中,行动空间的特征由神经语言决定,它是离散的且近乎于无边界。我们提出了深度强化相关网络,将状态和空间都规划到连续的空间中,其中Q-函数是状态矢量和行为矢量的相关函数。

学习连续空间的视觉化,图2表示了:嵌入状态矢量和相关行动矢量后200,400,600训练片段的文本PCA项目。状态指:当你向前移动时。你周围的人脸上露出了恐怖的表情,并逃离街道。行动1(好的选择):向上看,行动2(不好的选择):无视他人的警告继续前进。

DRRN和DQN在两个文本游戏上的测试结果(学习曲线)

表展示了聚集后Q函数的示例值,且DRNN很好的概括了无法看见的行为。

人类学习处理文本,图像和联合的信息。

图像侧卷积网络实现过程

语言侧卷积网络实现过程

图像说明,通过深度学习模式检测图像中的关键概念,MELE从图像检测中产生解释。检测单词后,对其进行重新排列组成句子。

CaptionBot示例

说明到回答问题的过程

堆积注意模式推理工程:问题模式,图像模式,多水平注意模式,回答预测器。

SAN图像模式

SAN中问题模式

回答示例

总结:

本部分主要介绍通过DSSM学习Sent2Vec,在连续空间内对NLP任务进行强化学习以及视觉语言联合表达学习等概念。具体包括:

通过DSSM学习Sent2Vec:

DSSM把整个句子放在连续的空间内 基于特征字符级别建立DSSM DSSM直接优化目标函数的语义相似度

在连续空间内对NLP任务进行强化学习:

使用深度神经网络把状态和行动(无边界NL决定)放入连续语义空间 在连续语义空间计算Q函数

视觉语言联合表达学习:

图像解释——CaptopnBot示例 视觉问题回答——关键在于推理

原文发布于微信公众号 - AI科技评论(aitechtalk)

原文发表时间:2016-07-18

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏IT派

资源 | Chinese Word Vectors:目前最全的中文预训练词向量集合

项目链接:https://github.com/Embedding/Chinese-Word-Vectors

1306
来自专栏机器之心

深度 | 使用三重损失网络学习位置嵌入:让位置数据也能进行算术运算

我们 Sentiance 开发了一款能接收加速度计、陀螺仪和位置信息等智能手机传感器数据并从中提取出行为见解的平台。我们的人工智能平台能学习用户的模式,并能预测...

1141
来自专栏新智元

谷歌发布迄今最大注释图像数据集,190万图像目标检测挑战赛启动

2089
来自专栏机器之心

深度 | 从数据结构到Python实现:如何使用深度学习分析医学影像

选自Medium 作者:Taposh Dutta-Roy 机器之心编译 运用深度学习技术进行图像和视频分析,并将它们用于自动驾驶汽车、无人机等多种应用场景中已成...

6599
来自专栏AI研习社

小白学CNN以及Keras的速成

为何要用Keras 如今在深度学习大火的时候,第三方工具也层出不穷,比较出名的有Tensorflow,Caffe,Theano,MXNet,在如此多的第三方...

2894
来自专栏大数据文摘

手把手,74行代码实现手写数字识别

2884
来自专栏PPV课数据科学社区

【学习】机器学习中的数据清洗与特征处理综述

背景 随着美团交易规模的逐步增大,积累下来的业务数据和交易数据越来越多,这些数据是美团做为一个团购平台最宝贵的财富。通过对这些数据的分析和挖掘,不仅能给美团业务...

3225
来自专栏AI研习社

一文带你读懂 OCR

OCR,或光学字符识别,是最早的计算机视觉任务之一,因为在某些方面它不需要用到深度学习。因此,早在2012年深度学习热潮之前,OCR就有了各种不同的应用,有些甚...

1602
来自专栏机器之心

专访 | 基于LSTM与TensorFlow Lite,kika输入法是如何造就的

机器之心原创 作者:思源 近日,机器之心采访了 kika 的高级技术总监黄康,他向我们讲述了 kika 开发输入法 AI 引擎(项目代号:Alps)所采用的深度...

3265
来自专栏机器之心

资源 | textgenrnn:只需几行代码即可训练文本生成网络

选自GitHub 作者:minimaxir 机器之心编译 参与:Geek AI、路 本文是一个 GitHub 项目,介绍了 textgenrnn,一个基于 K...

2806

扫码关注云+社区