机器学习人工学2018/1/7

新年快乐!

注意下面很多链接需要科学上网,无奈国情如此

1. Berkeley AI Research blog上发了篇文章讲physical adversarial attack,这个应该就是Dawn Song那个组做的,去年夏天宋教授在上海也讲过类似的工作(我记得当时还有对RL的攻击)。

链接:http://bair.berkeley.edu/blog/2017/12/30/yolo-attack/

adversarial其实蛮重要的,尤其现在各种人脸识别认证的东西。Ian Goodfellow大神除了GAN以外,现在也主攻这个方向。不过国内好像没人搞这个方向。这里还有一篇综述的blog:

链接:https://blog.kjamistan.com/adversarial-learning-for-good-my-talk-at-34c3-on-deep-learning-blindspots/

2. WildML作者(之前是Google Brain resident)写了一篇2017的回顾文,总结了各个方向的进展,写的很好

链接:http://www.wildml.com/2017/12/ai-and-deep-learning-in-2017-a-year-in-review/

其中提到Tensorflow Agents(增强学习用的),之前都没注意这个。 TF Agents在并行化上做了优化,而且提出了BatchPPo

链接:https://arxiv.org/pdf/1709.02878.pdf

顺便提一句上周说到的Berkeley的Ray项目,上周又放出了Ray RLLib论文,在Ray上面搭建的强化学习库,主要强调并行化执行

链接:https://arxiv.org/abs/1712.09381

文档:http://ray.readthedocs.io/en/latest/rllib.html

3. Facebook发布了基于torch的convnet语音识别ASR工具wav2letter,同时带有基于Librispeech数据集的训练好的模型,拿来即可用。

链接:https://github.com/facebookresearch/wav2letter

同时Facebook还发布了MUSE,基于fastText的多语言词向量,监督学习和无监督学习的两种方法都有使用

链接:https://github.com/facebookresearch/MUSE

同时Tomas Mikolov大神(word2vec发明人,现在也在Facebook)写了一篇word embedding最新进展综述文,很值得一读

链接:https://arxiv.org/pdf/1712.09405.pdf

4. Google Research博客上发布了NIMA,用来评价图片美观质量的神经网络。其实我觉得这个工作并没有特别大的创新,只是把loss从一般人用的高低质量classification变成了earth moving distance来优化评分的distribution(regression据论文说效果也不好),but看起来效果还行,这玩意儿美图那些修图app应该可以用用

链接:https://research.googleblog.com/2017/12/introducing-nima-neural-image-assessment.html?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=Deep%20Learning%20Weekly

5. Stanford Dan Jurafsky(NLP大神)组发布了HistWords,其中的亮点是可以看到单词意义的变化,即同一个单词在不同年代意思也变的不一样,很有意思

链接:https://nlp.stanford.edu/projects/histwords/?utm_campaign=Revue%20newsletter&utm_medium=Newsletter&utm_source=Deep%20Learning%20Weekly

这里有一个视频也是Dan Jurafsky谈这个词义变化:

视频:https://vimeo.com/193477678

6. DeepMind发布了dm_control测试环境专门用来测试连续型控制类任务,可以作为gym的补充。tehnical report里面提到的D4PG好像是个新算法

链接:https://github.com/deepmind/dm_control

7. 看到一篇Gaussian Process的文章,讲的还算比较清楚。GP现在其实没有那么火,但是有一个很有用的地方,就是自动调超参,而不用随机搜索或者grid搜索,这个是Google Vizier在用的,Amazon SageMaker应该也是用的这个。这文章有一部分就是讲这个,其实也算meta-learning或者AutoML

链接:http://efavdb.com/gaussian-processes/

8. 给产品经理的AI培训资料,技术上比较浅,PM也不用懂那么多细节,主要是思维方式上的一些改变,可以看看

链接:https://docs.google.com/presentation/d/e/2PACX-1vTto5lnplKqjoGEWU-HMw0HjDjwPd6s97fRc_SrDdjiYvKOurrdgkII4aXExid_ZzztYhQouM-qvYmG/pub?start=false&loop=false&delayms=3000&slide=id.p

9. 看到一篇机器学习有意思的开源项目总结,有一些确实之前没听过,比如那个voice style transfer,非常好玩

链接:https://medium.mybridge.co/30-amazing-machine-learning-projects-for-the-past-year-v-2018-b853b8621ac7

这里的AIBlock这个项目还有点意思,可视化机器学习,降低门槛,提高效率

链接:https://github.com/MrNothing/AI-Blocks

10. 从小就喜欢五子棋,最近香港科技大学的一个学生放出来的AlphaZero玩五子棋,准备去尝试一下

链接:https://github.com/junxiaosong/AlphaZero_Gomoku

原文发布于微信公众号 - 机器学习人工学weekly(MLandHuman)

原文发表时间:2018-01-07

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏PPV课数据科学社区

【观点】统计学的七大支柱

? JSM上统计界的老帮主Stephen Stigler做了一个主题演讲,讲“统计学的七大支柱”,好心又认真的Rick Wicklin同学记了笔记,彼时估计还...

3438
来自专栏专知

24页PPT概览 ICML2018 关键信息(附下载)

【导读】一年一度的国际机器学习会议( ICML ),于7月15日在瑞典斯德哥尔摩闭幕,ICML 的会议日程之紧凑,会议内容之丰富,令人目不暇接。专知分享的这个P...

1175
来自专栏人工智能快报

谷歌科研人员提出单样本机器学习技术

在看到某个物体一到两次之后,我们大多数人都能认出来。但支持计算机视觉和语音识别功能的算法却需要接触数千个例子,才能对新的图像或词语变得熟悉。 现在,谷歌Deep...

2755
来自专栏深度学习自然语言处理

谈谈我在自然语言处理入门的一些个人拙见

因为最近在准备本科毕设的论文部分,所以最近原创的相对比较少,但是为了坚持每天学点新知识,我也逼着自己每天抽出晚上的1小时左右把自己想到的并且自己还没理解的小知识...

812
来自专栏iOSDevLog

人工智能-总结

1616
来自专栏PPV课数据科学社区

【思维导图】机器学习基础之「统计篇」

本文用一系列「思维导图」由浅入深的总结了「统计学」领域的基础知识,是对之前系列文章做的一次完整的梳理,也是我至今为止所有与统计有关的学习笔记。众所周知,「统计学...

3166
来自专栏机器学习人工学weekly

机器学习人工学weekly-2018/1/28

注意下面很多链接需要科学上网,无奈国情如此 1. Google Brain年终总结part 2,总结2017年在医疗,机器人,文艺创作等等方面的成果,我个人对r...

36010
来自专栏新智元

【盘点】掌握机器学习的5条必由之路(附学习资料推荐)

【新智元导读】作者在本文提出一种5步入门并应用机器学习的方法。它不是传统的方法。传统的机器学习方法提倡从下往上学,先从理论和数学开始,然后是算法实现,最后让你去...

40510
来自专栏专知

基于TensorFlow的机器学习速成课程25讲视频全集(21-22讲)

1413
来自专栏AI科技大本营的专栏

视频教程 | 如何用Python搭建可以画风迁移的人工智能

艺术源于生活,它诠释了我们在生活中的经历与情感。那么我们能搭建一个AI艺术家吗?答案是肯定的。这听起来很不可思议,我们可以使用一个艺术家的风格来训练出一个神经网...

3276

扫描关注云+社区