【业界】谷歌 DeepMind 的可微分神经计算机 DNC 怎么样?看 Facebook AI 研究员田渊栋、贾扬清怎么说

田渊栋,卡耐基梅隆大学机器人系博士学位、上海交通大学硕士学位和学士学位,前谷歌无人车项目组成员,现任 Facebook 人工智能组研究员,主要负责 Facebook 的智能围棋项目 Dark Forest。

贾扬清,拥有加州大学伯克利分校计算机科学博士学位、清华大学硕士学位和学士学位,曾于新加坡国立大学、微软亚洲研究院、NEC美国实验室、Google Brain工作,现任 Facebook 研究科学家,主要负责前沿AI 平台的开发以及前沿的深度学习研究。

近日,谷歌的 AI 部门 DeepMind 开发了一种叫做可微分神经计算机(DNC)的神经网络模型,相关论文发表于 10 月 12 日在线出版的《自然》杂志上,题为《 利用神经网络与外部动态存储器进行混合计算》。这种新模型将神经网络与可读写的外部存储器结合,既能像神经网络那样通过试错和样本训练进行深度学习,又能像传统计算机一样处理数据。即使没有先验知识,DNC 也可以解决规划最佳路线、拼图任务等小规模问题。

德国研究者 Herbert Jaeger 评论称,这是目前最接近数字计算机的神经计算系统,该成果有望解决神经系统符号处理难题。

斯坦福大学心智、大脑和计算中心主任 Jay McClelland 称,这项研究将成为人工智能领域“有趣且重要的里程碑”。

那么我们究竟该如何看待谷歌 Deepmind 团队最新发布的可微分神经计算机 DNC 呢?果然,已经有人在知乎上提出这个问题。

编者注:该知乎提问中“谷歌deeplearning团队”实际上应该指的是“谷歌Deepmind团队”。

截止发稿前,该问题有两个回答,Facebook 人工智能组研究员田渊栋的回答获得了 44 人赞同。

他认为“革命性突破”言过其实,总的来说不及前两篇 Nature。

这篇文章模型复杂,手工设计太多,实验相对简单,没有在大规模数据集上测试性能,能成功地应用于小规模搜索,但通用化还需要很久。

田渊栋在知乎上的回答,贾扬清进行了回复

贾扬清认为以前主要是手调 feature(特征),而这次的 DNC 实际上是手调网络,他在评论中提到的 Jitendra 应该是加州大学伯克利分校的电气工程与计算机科学系教授 Jitendra Malik

在田渊栋的英文博客上,可以看到更多他对这篇论文的看法,我们首先来看看这篇题为《 Notes on DeepMind's 3rd Nature paper 》的文章。

以下为博文内容:

最近 Deepmind 发表了他们在《自然》杂志上的第三篇论文《 利用神经网络与外部动态存储器进行混合计算》。他们设计了一个递归神经网络结构(深度 LSTM),反复发送新的读/写命令到外部存储器,以及基于先前读取存储器和当前输入得到的动作输出。他们称它为 DNC(可微分神经计算机)。这里希望网络能够基于给定的信息进行推理。他们用实验模型来处理 bAbI 推理任务,网络遍历/最短路径预测,家庭树的关系推理和拼图游戏推理,其性能远远优于没有外部存储器的 LSTM。

这里给出一些评价:

1、总体而言,他们是隐含地学到了基于搜索推理的启发式函数(heuristic function)。正如他们在文章中提到的:“一个基于最短路径训练的 DNC 的可视化结果显示,它会逐步探索从开始到结束的每个节点辐射出的关系,直到找到整个连接路径(补充视频 1)。”我们也可以在伦敦地铁任务(图3)中看到类似的情况。这在小规模搜索的实验中可能是有效的,但在处理真正的问题时不一定是一个很好的策略。

2、似乎网络中的手工调整设计很多。该网络是给外部存储器的下一组操作。外部存储器上有许多类型的操作,组合了各种不同类型的 Attention 机制(基于内容的 Attention 模型,随之而来的写入 Attention 模型,和基于读写的“用法”机制)。不确定哪个组件更重要。理想情况下,应该有一个更自动或更规律的方法。

3、几个有趣的细节:

(1)直接用实际情况的答案训练一个连续结构预测模型,这不是很好,因为当预测偏离了实际观测情况,该模型可能会很容易失败。在本文中,他们在结构预测时使用了混合了实际观测情况分布与当前预测分布 DAgger。这使得预测的鲁棒性很好。

(2)对于拼图游戏来说,他们使用了 actor-critic-like 模型。在这种情况下,DNC 的输出策略和价值功能取决于一开始作为输入的游戏规则。这符合我们训练 Doom AI 的经验,actor-critic-like 模型的收敛速度比Q-learning 快。

(3)课程训练(例如,先从简单的任务开始训练模式)起着重要的作用。这也符合我们训练 Doom AI 的经验(我们很快将发表相关论文)。

原文发布于微信公众号 - AI科技评论(aitechtalk)

原文发表时间:2016-10-14

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏新智元

OpenAI首届迁移学习竞赛,南大阿里团队夺冠,中科院第二

【新智元导读】OpenAI举行的首届迁移学习竞赛Retro Contest结束,各路AI玩《刺猬索尼克》游戏,在提交结果的229支队伍中,中国的团队获得了冠亚军...

850
来自专栏新智元

【无监督学习】我们如何教人类婴儿学习,也如何教AI

【新智元导读】这篇文章讨论了在深度学习中为什么高质量、有标签的数据如此重要,从哪里得到这些数据,以及如何有效使用它们。作者最后提出,解决训练数据缺乏的方法可以是...

3158
来自专栏大数据文摘

AI大事件丨OpenAI启动Research2.0,AI破译怪异古老手稿

1042
来自专栏大数据文摘

哥伦比亚大学数据科学课程笔记(2)

1949
来自专栏AI科技评论

独家 | 腾讯优图高级研究员沈小勇:ICCV 2017 一键卸妆 &视频超分辨率论文详解

AI 科技评论按:ICCV(The International Conferenceon Computer Vision)是计算机视觉领域的三大顶级会议之一,腾...

3215
来自专栏AI启蒙研究院

敲黑板!!!乐高测距传感器的思考

652
来自专栏大数据文摘

资源 | 从医疗语音到灾难响应,这八大优质数据集快抱走

1013
来自专栏人工智能头条

上海联通大数据与机器学习驱动的离网预测模型

1264
来自专栏数据科学与人工智能

【数据科学】数据科学能回答什么样的问题?

机器学习是数据科学的发动机。每种机器学习方法(也称为算法)获取数据,反复咀嚼,输出结果。机器学习算法负责数据科学里最难以解释又最有趣的部分。数学的魔法在此发生。...

2208
来自专栏WOLFRAM

Wolfram语言人工智能:图像识别项目(二)

1454

扫码关注云+社区