机器学习人工学weekly-2018/1/28

注意下面很多链接需要科学上网,无奈国情如此

1. Google Brain年终总结part 2,总结2017年在医疗,机器人,文艺创作等等方面的成果,我个人对robotics很感兴趣,这个以后前景无限,只是困难多多,看CoRL最后那部分就知道有多难了

链接:https://research.googleblog.com/2018/01/the-google-brain-team-looking-back-on_12.html

2. 移动端加速一直是一个关注点,虽然我不太能看懂TVM到底在做什么,但是这篇blog还是应该读读

链接:http://tvmlang.org/2018/01/16/opt-mali-gpu.html

另外就是旷视的ShuffleNet(虽然这个已经不算新了),用pointwise group convolution和channel shuffle提高速度

链接:https://arxiv.org/pdf/1707.01083.pdf

3. PyTorch 1岁了,发了一篇blog总结一年的进展。我觉得PyTorch作为一个全新的框架,在跟TF等诸多框架正面竞争的时候能有这样的traction真是说明一些问题,确实是设计的好用,连TF都要出eager mode来对抗

链接:http://pytorch.org/2018/01/19/a-year-in.html

Facebook开源object detection工具detectron,一天之内github上就5000多个星

链接:https://github.com/facebookresearch/Detectron

Yann LeCun卸任FAIR director去做Chief AI Scientist,我觉得很合理,很多搞研究的人其实并不适合或者不喜欢管人,专心做科研挺好的,管人这种operations的东西扔给其他人就好

4. 亚马逊发的一篇论文eCommerceGAN,把wGAN用到了电商领域生成order,非常有创意的应用

链接:https://arxiv.org/pdf/1801.03244.pdf

PS: Amazon Go这周开业,肯定用了超多机器学习+CV,但是都没公开

5. 我自己比较关注RL,所以有好的RL工作都会加进来,这周有3篇

5.1 Pieter Abbeel组提出的soft actor-critic,用off-policy方法和max entropy来降低sample complexity,提高收敛的稳定性

链接:https://arxiv.org/pdf/1801.01290.pdf

5.2 还有一篇牛津的expected policy gradient论文,各种推数学啊,真心难

链接:https://arxiv.org/pdf/1801.03326.pdf

不想啃数学的就看作者Kamil自己写的摘要吧

5.3

用RL(应该是DQN,论文里没明确写,但是提到了experience replay)优化数据库index,这个其实没啥难度,只是应用领域有点新

链接:https://arxiv.org/pdf/1801.05643.pdf

6. CMU AP Graham Neubig教授的Neural Nets for NLP 2018开始了,YouTube上他有及时更新的,目前有2集,感觉比DeepMind在牛津讲的更细。2017年的视频也全部都还在

链接:https://www.youtube.com/watch?v=Q3Y1t9-O3M0&list=PL8PYTP1V4I8Ba7-rY4FoB4-jfuJ7VDKEE

7. 大炮Gary Marcus又发了篇文章,这次是怼DeepMind Alpha*系列,主要是说Alpha*并不是完全没有用human knowledge,而是用了innate knowledege,像cnn, MCTS等等,这一点上我还是认可的

Innateness, AlphaZero, and Artificial Intelligence

链接:https://arxiv.org/pdf/1801.05667.pdf

8. 安利两个做推荐系统的库,一个是surprise(算是scikit一部分?),一个是基于Pytorch的Spotlight,都是包装了各种FM, NN,sequence model算法的即用包,适用与implicit/explicit

surprise: http://surpriselib.com/

spotlight: https://maciejkula.github.io/spotlight/

9. (这个更适合搞机器学习理论的同学)印度神校IIT和MS的两个哥们往Arxiv上扔了篇ML非凸优化的文章介绍概念

Non-convex Optimization for Machine Learning

链接:https://arxiv.org/pdf/1712.07897.pdf

10. BAIR(Berkeley AI Research)的新文章,conditional covariance minimization选features。跟之前提到的Deep Feature Synthesis其实有点相通,都是从模型输入的角度改进模型

Kernel Feature Selection via Conditional Covariance Minimization

链接:http://bair.berkeley.edu/blog/2018/01/23/kernels/

原文发布于微信公众号 - 机器学习人工学weekly(MLandHuman)

原文发表时间:2018-01-28

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏量子位

吴恩达对话LeCun:神经网络跌宕四十年

最近,这位AI领域的传奇大牛,接受了另一位大牛吴恩达的视频专访。在这次对话中,LeCun回顾了卷积神经网络、反向传播的历史,以及他如何从一个默默无闻的“法国小孩...

822
来自专栏PaddlePaddle

前沿|PaddlePaddle开源项目DeepNav“无人船”炼成记(一)

前言:本系列将集中展示PaddlePaddle的开源项目,即PaddlePaddle研发团队在深度学习领域的前沿研究成果。首先展示DeepNav自动驾驶船项目,...

651
来自专栏新智元

AI算法透明不是必须,黑箱和可解释性可简化为优化问题

来源:nytimes、wired 作者:Vijay Pande、David Weinberger 【新智元导读】由于AI算法内部的运作往往是不透明的,AI的黑箱...

3298
来自专栏华章科技

17岁高中生都发AI论文了!OpenAI实习生提出分层强化学习新算法

OpenAI 成立近两年,发表了大量研究论文,而这周四的一篇论文却与众不同:其第一作者是名高中生。这位少年英才叫 Kevin Frans,就读于 Henry M...

743
来自专栏人工智能头条

李理:从Image Caption Generation理解深度学习(part I)

1814
来自专栏量子位

大限将至?Google先知

在古代,总有高人夜观天象,预测某人行将就木。个中玄学,无法解释,准确与否更无从得知。

723
来自专栏专知

AI与深度学习重点回顾:Denny Britz眼中的2017

【导读】近日,博客WILDML的作者Denny Britz把他眼中的2017年AI和深度学习的大事进行了一番梳理和总结:从AlphaGo的自主学习到AlphaG...

3195
来自专栏机器之心

GMIS 2017读懂机器智能前沿技术:这份技术清单助你做好准备

5 月 27 日至 28 日,机器之心 SYNCED 主办的 2017 全球智能机器峰会(GMIS 2017)将在北京正式举行。这是机器之心主办的第一届 GMI...

35111
来自专栏量子位

新年快乐!这是份值得收藏的2017年AI与深度学习要点大全

若朴 夏乙 编译自 WILDML 量子位 出品 | 公众号 QbitAI 2017已经正式离我们远去。 过去的一年里,有很多值得梳理记录的内容。博客WILDML...

2295
来自专栏大数据文摘

AI测谎仪:通过微表情在法庭检测谎言,性能已优于人类

1002

扫描关注云+社区