首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >机器学习人工学weekly-2018/1/28

机器学习人工学weekly-2018/1/28

作者头像
windmaple
发布2018-03-07 10:25:04
7710
发布2018-03-07 10:25:04
举报

注意下面很多链接需要访问外国网站,无奈国情如此

1. Google Brain年终总结part 2,总结2017年在医疗,机器人,文艺创作等等方面的成果,我个人对robotics很感兴趣,这个以后前景无限,只是困难多多,看CoRL最后那部分就知道有多难了

链接:https://research.googleblog.com/2018/01/the-google-brain-team-looking-back-on_12.html

2. 移动端加速一直是一个关注点,虽然我不太能看懂TVM到底在做什么,但是这篇blog还是应该读读

链接:http://tvmlang.org/2018/01/16/opt-mali-gpu.html

另外就是旷视的ShuffleNet(虽然这个已经不算新了),用pointwise group convolution和channel shuffle提高速度

链接:https://arxiv.org/pdf/1707.01083.pdf

3. PyTorch 1岁了,发了一篇blog总结一年的进展。我觉得PyTorch作为一个全新的框架,在跟TF等诸多框架正面竞争的时候能有这样的traction真是说明一些问题,确实是设计的好用,连TF都要出eager mode来对抗

链接:http://pytorch.org/2018/01/19/a-year-in.html

Facebook开源object detection工具detectron,一天之内github上就5000多个星

链接:https://github.com/facebookresearch/Detectron

Yann LeCun卸任FAIR director去做Chief AI Scientist,我觉得很合理,很多搞研究的人其实并不适合或者不喜欢管人,专心做科研挺好的,管人这种operations的东西扔给其他人就好

4. 亚马逊发的一篇论文eCommerceGAN,把wGAN用到了电商领域生成order,非常有创意的应用

链接:https://arxiv.org/pdf/1801.03244.pdf

PS: Amazon Go这周开业,肯定用了超多机器学习+CV,但是都没公开

5. 我自己比较关注RL,所以有好的RL工作都会加进来,这周有3篇

5.1 Pieter Abbeel组提出的soft actor-critic,用off-policy方法和max entropy来降低sample complexity,提高收敛的稳定性

链接:https://arxiv.org/pdf/1801.01290.pdf

5.2 还有一篇牛津的expected policy gradient论文,各种推数学啊,真心难

链接:https://arxiv.org/pdf/1801.03326.pdf

不想啃数学的就看作者Kamil自己写的摘要吧

5.3

用RL(应该是DQN,论文里没明确写,但是提到了experience replay)优化数据库index,这个其实没啥难度,只是应用领域有点新

链接:https://arxiv.org/pdf/1801.05643.pdf

6. CMU AP Graham Neubig教授的Neural Nets for NLP 2018开始了,YouTube上他有及时更新的,目前有2集,感觉比DeepMind在牛津讲的更细。2017年的视频也全部都还在

链接:https://www.youtube.com/watch?v=Q3Y1t9-O3M0&list=PL8PYTP1V4I8Ba7-rY4FoB4-jfuJ7VDKEE

7. 大炮Gary Marcus又发了篇文章,这次是怼DeepMind Alpha*系列,主要是说Alpha*并不是完全没有用human knowledge,而是用了innate knowledege,像cnn, MCTS等等,这一点上我还是认可的

Innateness, AlphaZero, and Artificial Intelligence

链接:https://arxiv.org/pdf/1801.05667.pdf

8. 安利两个做推荐系统的库,一个是surprise(算是scikit一部分?),一个是基于Pytorch的Spotlight,都是包装了各种FM, NN,sequence model算法的即用包,适用与implicit/explicit

surprise: http://surpriselib.com/

spotlight: https://maciejkula.github.io/spotlight/

9. (这个更适合搞机器学习理论的同学)印度神校IIT和MS的两个哥们往Arxiv上扔了篇ML非凸优化的文章介绍概念

Non-convex Optimization for Machine Learning

链接:https://arxiv.org/pdf/1712.07897.pdf

10. BAIR(Berkeley AI Research)的新文章,conditional covariance minimization选features。跟之前提到的Deep Feature Synthesis其实有点相通,都是从模型输入的角度改进模型

Kernel Feature Selection via Conditional Covariance Minimization

链接:http://bair.berkeley.edu/blog/2018/01/23/kernels/

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-01-28,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习人工学weekly 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档