新年快乐!
注意下面很多链接都需要访问外国网站,无奈国情如此。
1. RL相关
1.1 DeepMind发布IMPALA算法和新的RL测试环境DMLab-30
IMPALA主要是利用了新提出的V-trace operator进行off-policy学习,还针对TF/cuDNN做了很多优化,最后效果是实现了在Atari 57个游戏任务里面一定程度上的transfer learning
DMLab-30里面有30个新的任务,有些要测试long term memory,有些要测试自然语言理解
IMPALA: Scalable Distributed DeepRL in DMLab-30
blog链接:https://deepmind.com/blog/impala-scalable-distributed-deeprl-dmlab-30/
1.2 这里有一篇讲RL bias/variance tradeoff的文章,我觉得写的非常好,这个题目以前从来没有看到有人谈到过。Arthur Juliani这个人的medium blog值得follow一下,他之前也写过一系列RL的文章都很不错,原来去了Unity实习
链接:https://medium.com/mlreview/making-sense-of-the-bias-variance-trade-off-in-deep-reinforcement-learning-79cf1e83d565
1.3 RL批判长文(作者在Google Brain,年轻有为,他的blog很不错),其实也不是批判了,就是指出RL现在的各种问题,比如sample efficiency地下,reward设计难度搞,容易陷入奇怪local optima,generalization很难等等问题,写的非常好,强烈推荐
链接:https://www.alexirpan.com/2018/02/14/rl-hard.html
1.4 地平线发的一篇RL开自驾车的论文,用的DQN,虽然我不太懂自驾车,但是这个蛮有意思的
链接:https://arxiv.org/pdf/1802.00332.pdf
2. keras blog上的guest post,用keras+flask搭建一个简单的图像识别服务器教程,非常简单,当然有链接到一个更复杂适合生产系统的文章。作者的书Deep learning for computer vision with python看着也不错
Building a simple Keras + deep learning REST API
链接:https://blog.keras.io/building-a-simple-keras-deep-learning-rest-api.html?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=Deep%20Learning%20Weekly
3. 魔高一尺,道高一丈,魔再高一尺。这个就是针对深度学习的defense to adversarial attacks。这篇ICLR文章就是针对ICLR接受的8篇defense文章的反击,ICLR还没开就已经攻破了其中7个防御 :)
链接:https://arxiv.org/pdf/1802.00420.pdf
4. 新提出的nested LSTM,即在LSTM里面嵌入另一个LSTM,比stack起来的多层LSTM效果还好
链接:https://arxiv.org/pdf/1801.10308.pdf
扩展阅读
链接:https://medium.com/intuitionmachine/neurons-are-more-complex-than-what-we-have-imagined-b3dd00a1dcd3
5. Creative Applications of Deep Learning with TensorFlow一门免费的MOOC课,教用TF搞创作
课程链接:https://www.kadenze.com/courses/creative-applications-of-deep-learning-with-tensorflow/info
作业及课件:https://github.com/pkmital/CADL
6. 用keras做一个简单的啤酒推荐引擎(老美最喜欢这种东西),看各种embedding之类,分3个部分,可以看看
链接:https://medium.com/data-from-the-trenches/deep-beers-playing-with-deep-recommendation-engines-using-keras-part-1-1efc4779568f
7. datastream.io,开源的异常检测工具包,可以自己定义报异常的检测规则,看起来还行
blog链接:https://medium.com/@ment_at/datastream-io-open-source-anomaly-detection-64db282735e0
repo链接:https://github.com/MentatInnovations/datastream.io
8. neural program synthesis用神经网络写程序的survey文章,主要还是靠RNN/attention/memory/pointer network这些工作
链接:https://arxiv.org/pdf/1802.02353.pdf
9. UCSF给想学深度学习的人准备了一个小的数学教程,内容是比较高级的matrix calculus,应该读读
链接:https://arxiv.org/pdf/1802.01528.pdf
顺便提一句,这个教程的二作Jeremy Howard搞的fast.ai第二期又开始了,fast.ai也是很好的学习资源(我认为仅次于CS231,实战操作性较强,今年应该用的最潮的PyTorch。去年有个女生Sara Hooker就从那个课上去了Google Brain Resident),有视频作业等等,可以看一下下面这个人的介绍
链接:http://course.fast.ai/
10. 小短文介绍不用eyeballing loss graph来自动停止运算的方法,这个也是dlib这个框架自带的方法
链接:http://blog.dlib.net/2018/02/automatic-learning-rate-scheduling-that.html
*bonus: UCLA数学系搞的一个workshop,有视频
New Deep Learning Techniques
链接:http://www.ipam.ucla.edu/programs/workshops/new-deep-learning-techniques/?tab=schedule
本文分享自 机器学习人工学weekly 微信公众号,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文参与 腾讯云自媒体同步曝光计划 ,欢迎热爱写作的你一起参与!