前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >近期必读 ICLR 2021 【NLP】相关论文

近期必读 ICLR 2021 【NLP】相关论文

作者头像
Houye
发布2020-11-10 10:34:14
9390
发布2020-11-10 10:34:14
举报
文章被收录于专栏:图与推荐图与推荐

导读

上一期我们精选了ICLR2021中【图神经网络】话题的论文,为大家带来了论文解读。

本期的关注焦点是NLP的6篇论文。接下来我们还将精选模型压缩、预训练等热点领域,为大家带来系列论文解读,敬请关注。点击文末“阅读原文”,获取正在接受盲审的论文列表。

NLP

CoDA: Contrast-enhanced and Diversity-promoting Data Augmentation for Natural Language Understanding

本文设计了提出对当前在NLP领域下针对数据增广场景下如何生成更多高质量和更多样的数据及如何提升模型效果提出统一的模型,首先提出利用统一的组合策略对已有生成策略融合,另一方面借用对比思想,将生成的数据与训练中全局的数据做对比以更好提升训练质量。

论文链接:https://openreview.net/forum?id=Ozk9MrX1hvA

Contrastive Learning with Stronger Augmentations

文章指出现有的对比学习方法中,一些数据增强的操作可能会导致变换后的图像与原图的差异过大,强行让网络提取出相似的特征反而会减弱自监督学习的效果。作者在文中提出的解决方法是,将数据的增广操作划分为两大类,一类是不会显著改变图像视觉效果,叫做Weaker Augmentations;另一类是可能使图像发生非常大的变化的,叫做Strongerer Augmentations。在训练网络的时候,增加了一个新的损失函数,不是直接限制变换图像与原图的特征,而是通过优化原图与弱变换图像、弱变换图像与强变换图像之间的分布,达到特征学习的目的,消除上述的影响。

论文链接:https://openreview.net/forum?id=KJSC_AsN14

Improving Abstractive Dialogue Summarization with Conversational Structure and Factual Knowledge

在对话抽象摘要任务中,对长距离跨句关系进行捕获是必要的。此外,生成的摘要会受到虚假事实的影响。本文提出了一种知识图增强的双拷贝网络(KGEDC),它是一种基于会话结构和事实知识的抽象对话和化框架。采用序列编码器提取局部特征,用图编码器通过稀疏关系图自注意网络整合全局特征,相互补充。此外,在解码过程中还设计了一种双重复制机制,从原文本和事实中共同生成摘要。

论文链接:https://openreview.net/forum?id=uFk038O5wZ

CorDial: Coarse-to-fine Abstractive Dialogue Summarization with Controllable Granularity

本文提出一种由coarse-to-fine的对话抽象摘要生成策略,首先生成摘要草稿,然后生成最终摘要。本文也提出了控制最终摘要粒度的简单策略,可以通过预测和突出显示源文本中不同的文本跨度来自动控制给定对话生成的摘要语句的数量。

论文链接:https://openreview.net/forum?id=Uf_WNt41tUA

Learning Contextualized Knowledge Graph Structures for Commonsense Reasoning

为了解决外部知识图中缺少 facts 和上下文知识图中存在冗余 facts 的问题,本文提出了一种常识推理的神经符号框架 HGN。HGN 可以联合生成新边的特征,优化图结构,并学习图网络的参数,实现动态图推理。实验结果和用户研究证明了该模型的有效性。

论文链接:https://openreview.net/forum?id=lJuOUWlAC8i

Deep Encoder, Shallow Decoder: Reevaluating Non-autoregressive Machine Translation

本文通过理论研究和实验证明,通过简单的层分配策略(深层编码器-浅层解码器)可以大大加快自回归神经机器翻译的速度。与强非自回归模型相比,深-浅自回归模型以近似的速度实现了翻译质量的显着提高。另外,深层编码器-浅层解码器的模型可以用于任何序列到序列任务,包括大规模预训练。

论文链接:https://openreview.net/forum?id=KpfasTaLUpq

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-10-30,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 图神经网络与推荐系统 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档