前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >专家解读DeepMind最新论文:深度学习模型复现大脑网格细胞

专家解读DeepMind最新论文:深度学习模型复现大脑网格细胞

作者头像
新智元
发布2018-05-29 16:20:35
8080
发布2018-05-29 16:20:35
举报
文章被收录于专栏:新智元

新智元专栏

作者:邓侃

【新智元导读】近日,DeepMind 在 Nature 上发表的一篇论文引起 AI 领域和神经科学领域的极大震撼:AI 展现出与人脑 “网格细胞” 高度一致的空间导航能力。甚至有些学者认为,凭着这篇论文,DeepMind 的作者有可能问鼎诺贝尔奖。本文作者邓侃博士对这篇突破性的论文进行了解读。

论文地址:https://www.nature.com/articles/s41586-018-0102-6

Google 麾下的 DeepMind 公司,不仅会下围棋,而且写的论文也顶呱呱。

2018/5/10,今天的微信朋友圈,被 DeepMind 一篇论文刷屏了。论文发表在最近一期 Nature 杂志上,题目是 Vector-based navigation using grid-like representations in artificial agents [1]。

有些学者认为,凭着这篇论文,DeepMind 的作者有可能问鼎诺贝尔奖 [2]。

重要意义:AI的定位和导航类似于大脑的位置细胞和网格细胞

其实这篇论文是 DeepMind 人工智能团队,与 University College of London(UCL) 的生物学家,合作的产物。

对空间的定位和导航能力,是生物的本能。早在 1971 年,UCL 的生理学教授 John O'Keefe 在大脑海马体中,发现了位置细胞(Place Cell)。随后 O'Keefe 的学生,Moser 夫妇于 2005 年发现,在大脑内嗅皮层,存在一种更为神奇的神经元,网格细胞(Grid Cell)。在运动过程中,生物的网格细胞,把空间分割为蜂窝那样的六边形,并且把运动轨迹记录在蜂窝状的网格上。

2014 年的诺贝尔生理学/医学奖,颁发给了 John O'Keefe 和 Moser 夫妇。

人工智能深度学习模型,经常被诟病的一大软肋,是缺乏生理学理论基础。深度学习模型中的隐节点的物理意义,也无法解释。

DeepMind 和 UCL 合著的 Nature 论文,发现深度学习模型中隐节点,与脑内的位置细胞和网格细胞,这两者的激活机制和数值分布,非常相似,几乎呈一一对应的关系。

Extended Data Fig 3.d:第一行,深度学习模型的隐节点的激活机制和数值分布。第二行,Moser 夫妇发现的网格细胞的蜂窝状数值分布。深度学习隐节点与网格细胞的数值分布,极为相似。第三行,数值分布所揭示的空间定位及运动方向。

这篇论文,之所以引起学界轰动,原因在于证明了,把深度学习模型用于空间的定位和导航,其隐节点的物理意义,类似于大脑的位置细胞和网格细胞。进一步猜想,深度学习模型的定位和导航的计算过程,很可能与大脑的定位和导航的生理机制,也极为相似

为什么 DeepMind 热衷于玩游戏?

面向空间定位和导航的深度学习模型,有哪些应用场景呢?DeepMind 把这个技术用于玩电子游戏,类似于 “反恐精英”(Counter Strike)那样的走迷宫射杀恐怖份子的游戏。

DeepMind 下完围棋以后,玩初级电子游戏,现在升级了,改玩高级游戏了。为什么 DeepMind 那么热衷于游戏呢?

游戏是仿真系统,一切尽在掌控之中,想要什么数据,就能获取什么数据。所以,每条数据,都很全面,不会有数据丢失。

同时,只要多雇一些玩家,多花一点时间,要多少训练数据,就有多少训练数据。

用游戏来验证深度学习模型,非常方便。这是 DeepMind 热衷于玩游戏的原因。同时,因为能够快速地获取数据,DeepMind 对于深度学习和强化学习研究,领先世界。

Figure 3. DeepMind 把基于深度学习的空间定位和导航技术,应用于反恐精英(Counter Strike)游戏。

问题是,把适用于游戏的深度学习模型,移用到真实世界,解决实际问题,是否仍然有效?

同是 Google 麾下兄弟,Google Brain 更注重解决实际问题,兄弟俩各有千秋。Google Brain 开发的 Tensorflow 成为工程利器,而 DeepMind 的论文,提供新方法,引领研究前沿。

深度学习仿真位置和网格细胞的论文,技术上有什么创新?

短的答案,没有独特的创新。

长的答案,得先讲讲马尔科夫和强化学习

强化学习(Reinforcement Learning)是机器学习的一个重要分支,它试图解决决策优化的问题。所谓决策优化,是指面对特定状态(State,S),采取什么行动方案(Action,A),才能使收益最大(Reward,R)。很多问题都与决策优化有关,从下棋,到投资,到课程安排,到驾车,到走迷宫等等。

AlphaGo 的核心算法,就是强化学习。AlphaGo 不仅稳超胜券地战胜了当今世界所有人类高手,而且甚至不需要学习人类棋手的棋谱,完全靠自己摸索,在短短几天内,发现并超越了一千多年来人类积累的全部围棋战略战术。

最简单的强化学习的数学模型,是马尔科夫决策过程(Markov Decision Process,MDP)。之所以说 MDP 是一个简单的模型,是因为它对问题做了很多限制。

1. 面对的状态 s_{t},数量 t = 1... T,T 是有限的。

2. 采取的行动方案 a_{t},数量 t = 1... T,T 也是有限的。

3. 对应于特定状态 s_{t},当下的收益 r_{t} 是明确的。

4. 在某一个时刻 t,采取了行动方案 a_{t},状态从当前的 s_{t} 转换成下一个状态 s_{t+1}。下一个状态 s_{t+1} 有多种可能,从当前状态 s_{t} 转换到下一个状态中的某一种状态的概率,称为转换概率。但是转换概率,只依赖于当前状态 s_{t},而与先前的状态,s_{t-1}, s_{t-2} ... 无关。

解决马尔科夫决策过程问题的常用的算法,是动态规划(Dynamic Programming)。

对马尔科夫决策过程的各项限制,不断放松,研究相应的算法,是强化学习的目标。

例如对状态 s_{t} 放松限制,

1. 假如状态 s_{t} 的数量 t = 1... T,T 虽然有限,但是数量巨大,或者有数量无限,如何改进算法?

2. 假如状态 s_{t} 不能完全确定,只能被部分观察到,剩余部分被遮挡或缺失,如何改进算法?

3. 假如转换概率,不仅依赖于当前状态,而且依赖于先前的运动轨迹,如何改进算法?

4. 假如遇到先前没有遇见过的新状态 s_{t},有没有可能在以往遇见过的状态中,找到相似状态,从而估算转换概率,估算收益?

Extended Data Fig 5. 用 Grid LSTM 来总结以往的运动轨迹,并加上神经网络 g 来判别当前的空间定位和运动方向。然后基于对当前的空间定位和导航的判断,用另一个 LSTM 来估算状态转换概率,从而决定导航策略。

这篇论文用深度学习模型,来仿真位置和网格细胞。具体来说,

1. 用 CNN 来处理图像,找到周边环境中的标志物,用于识别当前的空间位置。

2. 把图像处理的结果,与以往的运动轨迹相结合,用 Grid LSTM 来估算当前的状态

3. 把 Grid LSTM 估算出的当前状态,经过一个神经网络 g 的再加工,得到类似于位置细胞和网格细胞的隐节点

4. 把当前的位置和运动方向,以及目标的位置,作为第二个 LSTM 模型的输入,确定导航决策

上述所有模块,都是现成技术的集成,并无显著创新。

参考文献

[1] Vector-based navigation using grid-like representations in artificial agents.

[2] 今日Nature,AI已经替人搞定网格细胞,下面要抢诺贝尔奖?

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-05-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 新智元 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档