收藏 | 精选11篇AI领域论文(附代码、数据集链接)

本文带你快速get近期精选论文的亮点和痛点,时刻紧跟AI前沿成果。

01

Large Scaled Relation Extraction with Reinforcement Learning

@theodoric008 推荐

#Relation Extraction

本文是中科院自动化所发表于 AAAI 2018 的工作。论文提供了一种利用强化学习进行实体关系抽取的思路,近几年做 RE 的,有基于 Supervised 数据集的:2015 Xu CNN,2016 Zhou LSTM;有基于远程监督数据集的:2015 Zeng PCNN,2016 Lin PCNN + ATT 等等。

本文也是基于远程监督数据集,但是与前面提到的不同的是,本文模型可以对句子分类,而不仅仅对 Bag (Entity pair)。

论文链接: https://www.paperweekly.site/papers/1783

02

Demystifying Core Ranking in Pinterest Image Search

@Ttssxuan 推荐

#Content-based Image Retrieval

本文是 Pinterest 试验的图片检索算法,本文从:training data,user/image featurization 和 ranking models 等角度进行解读,并做了性能和质量方面的测试。

论文链接: https://www.paperweekly.site/papers/1798

03

Group Normalization

@chlr1995 推荐

#Normalization

本文为 Kaiming He 新作。Batch-Norm 在深度学习中一直扮演着重要的角色,但 BN 也存在着明显的问题——需要足够大的 Batch Size,大大增加了训练的成本。本文提出了一种新的归一化——Group Norm 替代 BN,并且通过实验证明,在较小的 Batch Size 下,使用 GN 的网络最终得到的结果,要比使用BN的结果更好。

论文链接: https://www.paperweekly.site/papers/1765 代码链接: https://github.com/shaohua0116/Group-Normalization-Tensorflow

04

CliCR: A Dataset of Clinical Case Reports for Machine Reading Comprehension

@paperweekly 推荐

#Machine Reading Comprehension

本文提出了一个医疗领域的机器理解数据集。该数据集基于大量临床病例报告,对病例进行了约100,000次间隙填充查询。

论文链接: https://www.paperweekly.site/papers/1790 数据集链接: https://github.com/clips/clicr

05

Single-Shot Bidirectional Pyramid Networks for High-Quality Object Detection

@chlr1995 推荐

#Object Detection

虽然现在利用 DL 的方法在实体检测方面取得了显著的成果,但是这些方法往往都是面向低精度的检测,即设定 IoU 为 0.5 提取粗精度的候选框,这样就导致了精度低甚至会检测出噪声。

本文提出了一种双向金字塔网络结构,在不牺牲检测效率的情况下,达到高精度检测(如,IoU>0.5)。而且在实验中,COCO 和 Pascal 数据集都取得了 state-of-the-art 的结果。

论文链接: https://www.paperweekly.site/papers/1766

06

Averaging Weights Leads to Wider Optima and Better Generalization

@paperweekly 推荐

#Deep Neural Networks

本文提出了一种简单的 DNN 训练方法 SWA,作为 SGD 的替代。SWA 具备更好的泛化能力、更快的收敛速度,并且几乎没有任何计算开销。

论文链接: https://www.paperweekly.site/papers/1789 代码链接: https://github.com/timgaripov/swa

07

Deep Semantic Role Labeling with Self-Attention

@robertdlut 推荐

#Self-Attention

本文来自 AAAI2018,厦门大学 Tan 等人的工作。他们将 Self-Attention 应用到了语义角色标注任务(SRL)上,并取得了先进的结果。这篇论文中,作者将 SRL 作为一个序列标注问题,使用 BIO 标签进行标注,然后提出使用深度注意力网络(Deep Attentional Neural Network)进行标注。

在每一个网络块中,有一个 RNN/CNN/FNN 子层和一个 Self-Attention 子层组成。最后直接利用 softmax 当成标签分类进行序列标注。

论文链接: https://www.paperweekly.site/papers/1786 代码链接: https://github.com/XMUNLP/Tagger

08

YOLOv3: An Incremental Improvement

@chlr1995 推荐

#Object Detection

YOLO 网络 V3 版本,比 SSD 速度提升了 3 倍,比 RetinaNet 速度提高近 4 倍。本文使用 DarkNet 作为底层网络,通过优化模型细节,进一步加快了 YOLO 的速度。

论文链接: https://www.paperweekly.site/papers/1782 代码链接: https://pjreddie.com/darknet/yolo/

09

CapsuleGAN: Generative Adversarial Capsule Network

@williamking5 推荐

#GAN

本文将 Hinton 大神最新提出的胶囊网络 CapsNet 取代 CNN,作为判别器应用到了生成对抗网络当中。

论文链接: https://www.paperweekly.site/papers/1770

10

Deep Matrix Factorization Models for Recommender Systems

@somtian 推荐

#Recommender System

本文在利用深度学习做推荐时,考虑了推荐的显式反馈和隐式反馈,将其融合构建成一个矩阵,从而将用户和产品的不同向量输入到两个并行的深层网络中去。最后,设计了一种新型的损失函数以同时考虑评分和交互两种不同类型的反馈数据。

论文链接: https://www.paperweekly.site/papers/1799

11

Deep Learning using Rectified Linear Units (ReLU)

@chlr1995 推荐

#Gated Recurrent Unit

在深度神经网络中,ReLU 往往被用作激活函数,而使用 softmax 作为分类器。本文受到近来使用其他分类器方法启发,尝试了使用 ReLU 作为 DNN 的分类器。

论文链接: https://www.paperweekly.site/papers/1768

原文发布于微信公众号 - 数据派THU(DatapiTHU)

原文发表时间:2018-03-31

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏IT派

深度学习基础+网络模型

文中的链接请点击网址:http://yerevann.com/a-guide-to-deep-learning/ 预备知识 ? 你必须有大学数学知识。你可以在深...

3468
来自专栏人工智能

词向量fasttext,CNN is All,强化学习,自回归生成模型,可视化神经网络损失函数

【导读】专知内容组整理出最近arXiv放出的五篇论文,包括《Tomas Mikolov新作词向量表示,CNN Is All You Need,强化学习库, 自回...

2155
来自专栏Pytorch实践

Pytorch实现基于skip-gram的word2vec

对于词语的表示,最开始采用one-hot编码,用于判断文本中是否具有该词语;后来发展使用Bag-of-Words,使用词频信息对词语进行表示;再后来使用TF-I...

88816
来自专栏量子位

主流的深度学习模型有哪些?

作者:阿萨姆 | 普华永道 数据科学家 量子位 已获授权编辑发布 转载请联系原作者 深度学习大热以后各种模型层出不穷,很多朋友都在问到底什么是DNN、CNN和R...

3304
来自专栏量子位

一个神经网络学习一切!谷歌又放了个大卫星(附论文)

李林 问耕 编译自 Arxiv 量子位 出品 | 公众号 QbitAI 最近,Google又在论文题目上口出狂言:One Model To Learn The...

36111
来自专栏机器之心

业界 | 谷歌最新语义图像分割模型DeepLab-v3+今日开源

选自Google Research Blog 作者:Liang-Chieh Chen、Yukun Zhu 机器之心编译 参与:刘晓坤、路雪 刚刚,谷歌开源了语义...

2816
来自专栏专知

【论文笔记】ICLR 2018 Wasserstein自编码器

表示学习领域最初是由监督方法驱动的,大规模标记数据集为这种方法带来了令人印象深刻的结果。相比之下,无监督生成模型,致力于使用概率的方法对低维数据建模。近年来,这...

1043
来自专栏机器之心

学界 | 稳定、表征丰富的球面变分自编码器

近期的研究为 NLP 的一系列任务建立了深度生成模型的有效性,包括文本生成(Hu et al., 2017; Yu et al., 2017)、机器翻译(Zha...

885
来自专栏AI科技评论

动态 | 何恺明团队最新力作:群组归一化(Group Normalization)

AI科技评论按:近日,FAIR 研究工程师吴育昕和研究科学家何恺明联名著作的一篇论文 Group Normalization 提到了一种新的训练神经网络的方法。...

2422
来自专栏Data Analysis & Viz

Text-CNN、Word2Vec、RNN、NLP、Keras、fast.ai-20180504

本文集仅为收录自己感兴趣、感觉不错的文章与资源,方便日后查找和阅读,所以排版可能会让人觉得乱。内容会不断更新与调整。文中涉及公众号的文章链接可以会失效,知道如何...

1262

扫码关注云+社区