专栏首页AI科技评论经典回顾!Github 上打星超过 1 万的可复现顶会论文项目

经典回顾!Github 上打星超过 1 万的可复现顶会论文项目

AI 科技评论按:Zaur Fataliyev 是在 LG 电子的一名机器学习工程师,为了方便大家对带有复现代码的经典顶会论文进行查询,他在 GitHub 上将这些论文进行了统一打包:https://github.com/zziz/pwc,该名单将每周更新一次。

AI 科技评论将当中用户打星数超过 1w 的论文进行简要编译,以飨读者。

2017 年

1)Bridging the Gap Between Value and Policy Based Reinforcement Learning

缩小价值与强化学习政策差距的方法

打星数:46593

收录顶会:NIPS

论文链接:

http://papers.nips.cc/paper/6870-bridging-the-gap-between-value-and-policy-based-reinforcement-learning.pdf

复现代码:

https://github.com/tensorflow/models

简介:论文基于熵正则化下的 softmax 时间值一致性与策略最优性之间的关系,为价值和强化学习政策建立新的联系。具体而言,作者证明了对应任意动作序列的最优熵正则化策略概率的 softmax 一致动作值——在无视出处的基础上。据此,论文提出了一种全新的强化学习算法 - 路径一致性学习(PCL),它可以最大限度减少从一致性与非策略性迹线中提取多步动作序列的一致性错误概念。作者研究了 PCL 在不同场景下的表现,且证明 PCL 可以被看作涵盖了 actor-critic 以及 Q-learning algorithms 的优点。用于表示策略和相应 softmax 状态值的模型深化了这种关系,从而消除了单独评论的需求。实验结果表明,PCL 的几个基准测试结果明显优于强大的 actor-critic 以及 Q-learning algorithms。

2)REBAR: Low-variance, unbiased gradient estimates for discrete latent variable models

REBAR:针对离散潜变量模型的低方差、无偏梯度估计

打星数:46593

收录顶会:NIPS

论文链接

http://papers.nips.cc/paper/6856-rebar-low-variance-unbiased-gradient-estimates-for-discrete-latent-variable-models.pdf

复现代码

https://github.com/tensorflow/models

简介:由于高方差梯度估计的存在,因此通过带有离散潜变量的模型进行学习是非常具有挑战性的。业内的做法一般是通过控制变量来减少 REINFORCE 估计的方差。近期的工作(Jang et al,2016; Maddi- son et al,2016)采用了不同的方法,其中包括引入持续松弛的离散变量,以产生低方差、但有偏差的梯度估计结果。论文通过一个新的控制变量将两者结合起来,以产生低方差、且无偏差的梯度估计。最后,论文介绍了对连续松弛的修正方法,证明了松弛的紧密度是可以通过在线调整的,主要将其作为超参数进行去除。模型最终在几个基准生成建模任务中获得了先进的方差减少结果,可以更快地进行收敛并达到更好的最终对数似然结果。

3)Focal Loss for Dense Object Detection

针对密集物体检测的焦点损失方案

打星数:18356

收录顶会:ICCV

论文链接:

http://openaccess.thecvf.com/content_iccv_2017/html/Lin_Focal_Loss_for_ICCV_2017_paper.html

复现代码:

https://github.com/facebookresearch/Detectron

简介:这是迄今为止精度最高的基于 R-CNN 的两步式检测器,其分类器可应用于稀疏的候选对象位置集。与此相对的是,应用于常规、密集采样的一步式探测器具在精度上已落后于两步式探测器。论文对此作出了解释——在训练过程中遇到极端前景 - 背景类不平衡现象是其核心原因。作者建议通过重塑标准交叉熵损失来解决这种不平衡的问题,核心方法是降低分配给分类例子的损失权重。论文提及的「焦点损失」将训练重点放在一组稀疏例子上,以防止否定因素在训练期间影响探测器。为了评估损失的有效性,作者设计并训练了一个被称作 RetinaNet 的密集检测器。最后的研究结果表明,当使用焦点损失进行训练时,RetinaNet 能够达到一步式探测器的速度,且在精度上超越所有的两步式探测器。

2016 年

1)R-FCN: Object Detection via Region-based Fully Convolutional Networks

R-FCN:基于区域完全卷积网络的对象检测

打星数:18356

收录顶会:NIPS

论文链接:

https://papers.nips.cc/paper/6465-r-fcn-object-detection-via-region-based-fully-convolutional-networks.pdf

复现代码:

https://github.com/facebookresearch/Detectron

简介:论文提出基于区域的完全卷积网络,以实现准确、有效的物体检测任务。与先前基于区域的检测器(如快速/更快速的 R-CNN [7,19])相比,该基于区域的检测器是完全卷积的。为了达到这一目标,作者提出基于位置的敏感得分图,以解决图像分类中存在的平移不变性与对象检测平移方差之间的两难问题。该方法可以采用完全卷积的主要图像分类器,例如最新的残余网络(ResNets)[10],以用于进行物体探测。该方法在基于 101 层 ResNet 的 PASCAL VOC 数据集(例如,2007 年的 83.6%mAP)上展现出有竞争力的结果。需要强调的是,模型最终实现了以每张图像 170 毫秒进行测试的时间速度,比快速 R-CNN 对要快上 2.5-20 倍。

2)Image Style Transfer Using Convolutional Neural Networks

基于卷积神经网络的图像样式转换

打星数:16435

收录顶会:CVPR

论文链接

http://openaccess.thecvf.com/content_cvpr_2016/html/Gatys_Image_Style_Transfer_CVPR_2016_paper.html

复现代码

https://github.com/jcjohnson/neural-style

简介:以不同样式呈现图像的语义内容是一项很困难的图像处理任务。可以说,先前的方法最大的限制是缺乏明确表示语义信息的图像表示,以允许将图像内容与样式进行分离。作者通过使用用于物体识别的卷积神经网络导出的图像表示,使高级图像的信息显式化。论文介绍了一种艺术风格的神经算法,该方法可以分离与重新组合图像内容。该算法允许我们产生高质量的新图像,其任意照片内容与众多知名艺术品外观进行结合。论文结果为卷积神经网络学习的深度图像表示提供了一种全新见解,并展示了它们对高级阶段的图像合成潜力。

2015 年

1)Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks

更快的 R-CNN:通过区域提议网络实现实时目标检测

打星数:18356

收录顶会:NIPS

论文链接

https://papers.nips.cc/paper/5638-faster-r-cnn-towards-real-time-object-detection-with-region-proposal-networks.pdf

复现代码:

https://github.com/facebookresearch/Detectron

简介:目前最先进的物体检测网络有赖区域提议算法来假设物体位置。类似 SPPnet [7] 和 Fast R-CNN [5] 这样进步网络的出现,有效减少了网络检测的运行时间,然而也使区域提议计算成为瓶颈。作者在本文中介绍了能与检测网络共享全图像卷积特征的区域提议网络(RPN),从而实现几乎无成本的区域提议检测。RPN 是一个完全卷积的网络,可同时预测每个位置的对象边界与对象分数。RPN 通过端到端的训练以生成高质量的区域提议,被快速 R-CNN 用于检测任务。通过简单的交替优化,还可以训练 RPN 和快速 R-CNN 以共享卷积特征。对于非常深的 VGG-16 模型 [19],该检测系统在 GPU 上的帧速率为 5fps(包含所有步骤),同时在 PASCAL VOC 上实现了最先进的物体检测精度(2007 年:73.2%mAP、2012 年:70.4%mAP),平均每张图片使用了 300 个提案。

2)Fast R-CNN

打星数:18356

收录顶会:ICCV

论文链接

http://openaccess.thecvf.com/content_iccv_2015/html/Girshick_Fast_R-CNN_ICCV_2015_paper.html

复现代码

https://github.com/facebookresearch/Detectron

简介:本文提出一种基于快速区域的卷积网络方法(Fast R-CNN)用于物体检测。快速 R-CNN 建立在先前工作基础上,通过使用深度卷积网络有效地对对象提议进行分类。与之前的工作相比,Fast R-CNN 采用了多项创新来提高训练和测试速度,同时有效提高了检测精度。快速 R-CNN 可以训练出非常深的 VGG16 网络,不止比 R-CNN 快 9 倍,同时在测试时间上快了近 213 倍,且能在 PASCAL VOC 2012 上实现更高的 mAP。与 SPPnet 相比,Fast R-CNN 训练出的 VGG16 要快上 3 倍,测试速度上要快上 10 倍,同时结果也更准确。

点击阅读原文,回看 GitHub 相关文章

https://www.yanxishe.com/blogDetail/10043

本文分享自微信公众号 - AI科技评论(aitechtalk)

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2019-02-24

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • IJCAI 2019 论文收录结果最新出炉!历年杰出论文带你重温 AI 发展轨迹

    论文收录结果出炉后,有人欢喜有人愁:一方面,各位落选者先后抒发了自己的遗憾;而另一方面,各位论文被收录的实力派也纷纷晒出了自己收到的论文收录通知。针对大家在 I...

    AI科技评论
  • ACL 2018 奖项全公布,北大、哈工大上榜,Mark Steedman 获终身成就奖

    AI 科技评论按:ACL 2018 于 7 月 15 日在墨尔本正式开幕,随着会议议程的推进,今天迎来大会的重头戏——ACL 奖项颁布仪式。

    AI科技评论
  • 视频 | 给正在读论文的你:如何高效阅读文献?

    原标题:How to Read a Research Paper 翻译 | 王飞 J叔 字幕 | 凡江 整理 | 林尤添 无论是对于机器学习,密码...

    AI科技评论
  • 经典回顾!Github 上打星超过 1 万的可复现顶会论文项目

    AI 科技评论按:Zaur Fataliyev 是在 LG 电子的一名机器学习工程师,为了方便大家对带有复现代码的经典顶会论文进行查询,他在 GitHub 上将...

    abs_zero
  • 经典回顾!Github 上打星超过 1 万的可复现顶会论文项目

    AI 科技评论按:Zaur Fataliyev 是在 LG 电子的一名机器学习工程师,为了方便大家对带有复现代码的经典顶会论文进行查询,他在 GitHub 上将...

    AI研习社
  • [Github推荐]CVPR2019录用论文下载及可视化论文网站

    CVPR 是 IEEE Conference on Computer Vision and Pattern Recognition 的缩写,即 IEEE 国际计...

    材ccc
  • ICLR 2018接收论文公布—“GANs 之父”Goodfellow四篇论文被接受为Poster Papers。

    ICLR,全称为「International Conference on Learning Representations」(国际学习表征会议),2013 年才...

    WZEARW
  • 7 papers | NeurIPS 2019获奖论文揭晓;OpenAI刀塔2论文公布

    论文 1:Distribution-Independent PAC Learning of Halfspaces with Massart Noise

    机器之心
  • 卷积神经网络改进想法初探(上篇)

    最近一直在看卷积神经网络,想改进改进弄出点新东西来,看了好多论文,写了一篇综述,对深度学习中卷积神经网络有了一些新认识,和大家分享下。

    深度学习思考者
  • 这几年chromium都更新了什么

    信息来源汇总: https://www.chromestatus.com/features/5630760492990464 https://develop...

    龙泉寺扫地僧

扫码关注云+社区

领取腾讯云代金券