【大脑新解】像计算机一样学习?

大多数神经科学家相信大脑通过对自身重新布线,即不断改变脑细胞或神经元之间的联接强度,进行学习。但是瑞典的德隆大学在去年发布的实验结果,暗示我们应该改变做法。他们提出大脑以类似于计算机的方式进行学习:将信息加密在神经元内部的分子中,然后在计算的时候再进行信息读取。

GaryWaters/Getty Images(加里·沃特斯/盖蒂图片社)

我和计算机科学家,亚当.金在我们合著的《存储和计算的大脑,为什么认知科学将转变为神经科学》一书中提到:认知科学和计算机科学中完善的结果暗示,大脑中的计算必须是类似计算机的计算方式。理所当然的,我为他们发布的这些结果而感到着迷。

计算机并不会通过对自己重新布线进行学习,它通过将事实编码为‘0’或‘1’的序列组成的位串并将其存储在可寻址寄存器中进行学习。寄存器可视为微型开关的位串。当一个开关被设置为一种方式时表示‘1’;当设置为另外一种方式时则表示‘0’。计算机内存中的寄存器都是被编号过的,其编号值表示寄存器的地址。计算机通过选择一个可用地址并根据所要存储的位串设定开关从而对其进行存储。

大多数计算操作是组合两个位串以得到一个新的位串。这对于计算机的学习过程至关重要,因为很多情况下计算机得到的原始数据并不是计算机能够直接可用的事实。原始数据通过计算操作被转化为计算机行为上有用的事实。为执行一个计算操作,计算机首先使用地址列表在其内存中找到两个位串,对这两个位串进行一些操作并产生一个新的位串,然后将这个位串存储到一个新的地址。计算机学的越多,其内存中寄存器存储的从经验中获得的、能够利用计算操作进行检索和处理的事实就越多。以这种方式,计算机内存中逐渐填满其计算过的、可基于所学内容执行有效行为的位串。

说存储信息的某物不能存储数字是毫无道理的。

大多数神经学家承认大脑在某种程度上也会计算。然而,他们认为大脑通过调整突触,即神经元之间的连接,来实现这一点。其观念为,最初产生不连贯动作的原始感知输入会帮助大脑改变其连接结构,从而产生可更加适应经验性环境的行为。这种思想可追溯到经验主义哲学家洛克(Locke), 休谟(Hume)和伯克利(Berkeley)等人。神经元之间的新连接对应于经验主义哲学家所认为的关联,这种关联将所有原始感知连接在一起,形成由复杂概念组成的精神灰尘球。根据这种观点,经验不再将可按需检索的事实植入大脑;相反,经验塑造大脑从而使得大脑能够更好地适应更进一步的经验。这就是为什么神经科学中学习的术语为“可塑性”。大脑之所以学习是因为神经的塑造,而非由经验植入事实。

问题是,经验确实会向大脑中植入事实。我们都知道这点,因为我们整天都在检索并利用这点。例如,我们大多数人都可以针对身处的环境形成一张意象地图,并用它来确定我们的行为。我们可能会意识到,在从学校接孩子放学的路上,可以顺便去药店拿个处方,因为药店的距离并不是很远。即使是昆虫也可以做出这样的地图。蜜蜂能够使用地图找到其觅食领域中任意两点之间的路,并且当一个成功的觅食者返回到蜂巢的时候,它会通过跳一支舞来告诉其他觅食者食物源在他们所共享的地图上的位置。

从计算的角度来看,方向和距离都只是数字。而以二进制形式呈现的数字,仅仅是位串而已。计算机科学中有一个深刻的道理,没有任何所谓的信息在深层次上不是数值形式的。克劳德. 香农(Claude Shannon)1948年发表的、奠基了信息论领域基础的著名论文,使用了交响乐会作为信息传输问题可被数值化的一个例子。论证之一就是,如果说存储信息的某物不可存储数字是毫无道理的。

神经科学家还不能接受这一真理。我曾多次问满屋的同事,首先,他们是否相信,大脑通过改变突触连接来存储信息,他们都说是;然后问大脑如何改变突触连接的模式来存储一个数字,他们就被难倒了,或者拒绝回答。

学习可能涉及将类似于位串的东西放入个体神经元内部分子开关管理的银行中——而不是重新布置神经线路。

最近,我在麻省理工一个研讨会上向20余名主流神经科学家询问了上述问题。当时我们刚刚听了一项条形码技术,其工作涉及将数字写入DNA中。正如金和我在我们的书中解释的,细胞核中的DNA分子存储了从可编码寄存器——基因——中继承的信息,这与计算机内存中的可编程寄存器非常类似。我的同事们可以毫不费力的接收以这种方式存储数据的可能性。但当我问“一个人如何在神经元突触中存储数字”时,有些人就变得愤怒或通过提出新的问题如“什么是数字?”来转移讨论

大脑会例行的记住时间的间隔——如果有的话这也只是一条简单的数值信息。研究小脑中巨型浦肯野(Purkinje)细胞的瑞典团队学习了对于细胞的一个输入的突发刺激以及随后对于细胞的另外一个输入的短暂刺激之间的时间间隔。其结果强烈的暗示,时间间隔存储器是在浦肯野细胞之中,而非在其神经元突触的输入。到达神经元突触的输入使得存储于细胞内部的、学过的信息被读取到一个我们所知道的、能够控制一个简单学习行为的神经信号中。

神经元内部有很多分子。有些分子会成为很优秀的开关,并且在分子开关中存储信息比在突触中存储信息要节省能量的多。学习可能涉及将类似于位串的东西置入个体神经元内部的分子开关管理的银行中——而不是重新布置神经线路。这是一个与当前大众所普遍认为的截然不同的关于大脑学习和存储的设想。

读者评论

Rich Feldenberg

这似乎是两个完全不同的问题。一个是大脑怎样储存信息,另一个是意识是什么。对其中一个的理解不必然导向对于另一个的理解。大脑在存储信息这个层面的运转是否像计算机一样使用二进制仍然不明确。一些分子(可能是RNA)当然可能用两种状态存储信息,但是我不认为这已被证实。复杂的大脑是如何通往意识层面的?这只是某种复杂系统自然生成的属性还是大脑中存在某些分子专门生产主观的自我意识?有没有可能存在一种比人类更高级的意识?那又将意味着什么?

Milan Lajtoš

作者可能对长短期记忆(Long Short-TermMemory)感兴趣,递归人工神经网络(RNN)的特殊结构在这篇文章中被描述为有着相似性能。除了权重,LSTM有一个“存储单元”能够通过门控机制而实现读或写。考虑到序列问题时,LSTM是目前看来最具有解释力的神经网络结构。比如,谷歌、苹果、百度和其他公司都将长短期记忆应用于语音识别的产品和很多不同的任务中。

ClassyGuido

这个“分子-存储-数字-信息”的类比值得探讨。SF杂志研究过这个题目(DanSimmons在他的书中表明未来科技将用DNA细胞作为存储介质来提高我们的记忆力。)

但是我们要辩驳的重点是,这篇文章对于“信息被储存在神经元结构里”这个看法过于轻视了。比起简单谈论连接的力量,有很多非数字模型更加复杂。比如,脉冲神经网络也考虑了放电速率。在这个领域事情可以非常复杂,而不像这篇文章表述的那么简单。

我当然看到,有人认为所有都可能被简化成数字编码。很难想象5KM这个概念被神经元回路进行编码,但被想象成单纯的数字5进行数字性编码却很容易。然而,这个例子会使人误解,因为这取决于可任意测量的单位。事实上,我们的很多思想是非数字属性(所有的定性数据),即使是清晰的数字表达也是混杂在非数字性的概念当中的。

Panoptes

最使我困扰的是理解作者重视的理论中受其夸大并需求证据支撑的经验性证明。我同样也发现,作者对自己的大作的推崇令人不快且与文章毫不相干。文中的线索仅仅把读者指引到隆德大学相关出版物上,而作者自己的文章却没有正确展示隆德大学的研究成果。

查看这篇由瑞士研究团队发表于《美国科学院院报》上的论文,我们知道了这个团队事实上并没有测试在清醒、活动状态下的动物的瞬目反射,而是使用切除了大脑皮层的雪貂,固定头部并且通过电击使刺激直接传入到要测试的细胞当中(小脑中的浦肯野细胞)。

所以我们最多算是拥有部分神经回路的经典条件反射作为记忆模型来测试。抛开显而易见的局限不谈,这并非一个不同寻常的准备。不同寻常的是所有我们自认为了解的记忆完全被一个甚至没有测试细胞内分子计时机制的仅仅根据一些消极数据来做出可能性解释的假设所颠覆。一个貌似可信的机制、原始数据,甚至一个可作候选的“记忆分子”都是完全缺失的。

并且,我们仅仅只是把特定条件下的反应进行了计时,并不是如大家所想的情节性的记忆。

这个文章的题目只是空谈家的攻击。

Farren Noel Hayden

"I have repeatedly asked roomfuls ofmy colleagues, first, whether they believe that the brain stores information bychanging synaptic connections—they all say, yes—and then how the brain mightstore a number in an altered pattern of synaptic connections. They are stumped,or refuse to answer."

不管作者的同事能否就这个问题作出回答,我都不认为回答这个问题存在任何的困难,并且我也为如此之多的神经科学家无法对这个问题作出回答感到吃惊。我作为一个软件开发者,却对人工智能和神经科学保持着终身兴趣,而且作为一个目前正处理人工神经网络相关工作的人,这个问题的答案对于我来说简直是显而易见。

通过使用由兴奋及抑制突触而连接在一起的模拟神经,你可以在电子设备中为所有基础逻辑门建立一个等价模型,与门,或门,非门,或非门以及与非门。通过仅仅两个或非门,你就可以建立一个可以储存单个比特信息的触发器电路。如果你可以储存比特,你就可以用二元的方式储存与检索数字。这就是我们如何在电脑中存储数字。

一个使用这种类型模拟神经的或非门被使用在人工神经网络中,对于同一个神经元可能包含两个激发性连接,其中一个即为一个神经与第二个神经存在着抑制连接,反之则是兴奋连接。

但为什么就这样戛然而止?你本来可以建立一个针对任何离散符号任意排列的记忆回路,和把这些离散符号进行转换的规则一起。我的直觉告诉我,我们大脑把数字或数字形式的理解进行二元编码这种说法是值得怀疑的。

所以除非我忽略了一些关于生物神经网络的基础性东西,而我认为这种情况是确实存在的,作者看起来在宣称某些事情完全是可能的,存在一种显而易见的使用简化版本的突触逻辑的解决之道是神秘或无法言传的?我的意思是,我意识到真实的神经网络远比模拟的要来的复杂,不要在一个离散的时钟循环上进行同步(尽管多年前读过浦肯野细胞的经历使我开始怀疑确实存在某种计时方式)并且针对突触输入可能遵循非线性反映曲线的回应(在这一点上,绝大多数人工神经网络中的模拟神经使用了各种各样的曲线,诸如S形生长曲线),但是包括冗余,没有能够排除上述形式中的某种映像出现的可能性。

David Barker

一个问题:我们怎样统一永恒不变的数学问题和一直在变的达尔文主义者?进化论模型可以支撑这样一种“电脑中心”式的思想吗?每个思想(本质主义)都会永恒地陷入连续变化的系统框架中?

我曾经有一段时间难以相信“事实”是真正存在的,我认为你在空白的绝对上表达:什么是错误记忆,对事件的合并记忆吗?

众所周知,在神经学家们看来,分子变化在神经元的处理过程中扮演着重要角色。这些分子过程是否包含那些难以捉摸的“印记”仍然有待论证。

我仍然认为真正关键的问题是世间万物如何作为客体而存在。大脑能够翻译信息,很好,但无论它是通过神经的多种连接还是一块处于大脑细胞中的“硬编码”来进行翻译,关键问题是“怎么做到的”。

但哲学的和不可回答的问题是我们如何体验这一切?我们如何从一件事对另一件事的反应,就像一个鼻涕虫的触角对触碰做出的反应,或者说一个海葵缩进外壳去,再到有能力说出:“这是4个某物,以及4个某物加4个某物等于8个某物。”

我们到底该如何思考?

正如海森堡的不确定原则告诉我们无法拥有认知……

电脑是处于特定状态的,每一个状态都是一种算法的快照,但是如果你在任何给定状态下冻结了电脑运行的过程,那么电脑除了一大串比特之外就什么都不是。

仅仅是长久以来针对众多过程的观察创造了图形用户界面,浏览器以及其他……

我们可以立刻体会与观察众多的状态……

一台电脑(如果可以思考的话)仅仅可以存在于某种状态下,所以我们该如何从瞬间走向整体?

原文发布于微信公众号 - 新智元(AI_era)

原文发表时间:2015-11-07

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏华章科技

为什么你的数据分析那么好,图表做得那么烂?

所有优秀的数据可视化依赖优异的设计,并非仅仅选择正确的图表模板那么简单。全在于以一种更加有助于理解和引导的方式去表达信息,尽可能减轻用户获取信息的成本。当然并非...

832
来自专栏PPV课数据科学社区

【必看工具】可视化图表表达的10个错误。

数据可视化是一个沟通复杂信息的强大武器。通过可视化信息,我们的大脑能够更好地抓取和保存有效信息,增加信息的印象。但如果数据可视化做的较弱,反而会带来负面效果。错...

2756
来自专栏大数据文摘

理解偏倚:可靠结果的先决条件

842
来自专栏华章科技

谷歌背后的数学原理

在如今这个互联网时代, 有一家公司家喻户晓——它自 1998 年问世以来, 在极短的时间内就声誉鹊起, 不仅超越了所有竞争对手, 而且彻底改观了整个互联网的生态...

703
来自专栏FreeBuf

浅析PRODIGAL:真实企业中的内部威胁检测系统

0x00 写在前面 2013年2月份美国白宫发布了一份总统备忘录,专门就当前面临的内部威胁(Insider Threats)进行了分析,并且督促行政部门紧急出台...

18810
来自专栏华章科技

【干货】为什么你的数据分析那么好,图表做得那么烂?

原文链接:http://blog.sina.com.cn/s/blog_691ac57d0102vmx8.html

321
来自专栏ATYUN订阅号

【行业】Fontcode算法可以找出隐藏在正常文本中的秘密消息

AiTechYun 编辑:nanan ? 无论是将秘密隐藏在信件的邮票下面还是用隐形墨水书写,人们总能找到一些巧妙的方法,利用他们懂得的技术来编写秘密信息。哥伦...

29711
来自专栏AI科技评论

ACL2016最佳论文:通过交互学习语言游戏

摘要 我们介绍了一种与构建适应性的自然语言接口有关的新型语言学习设置。它受到维特根斯坦语言游戏(Wittgenstein’s language games)的启...

2664
来自专栏AI研习社

为什么PyTorch这么火?一线开发者这样说

编者按:2017 年初,Facebook 在机器学习和科学计算工具 Torch 的基础上,针对 Python 语言发布了一个全新的机器学习工具包 PyTorch...

4104
来自专栏新智元

【脑研究】海马体发现“事件细胞”,神经重组反映时间顺序

【新智元导读】我们对于个体经验或情景记忆如何由神经元表示一直知之甚少。近日,日本 RIKEN 脑科学研究所的研究者在 Neuron 上发表论文,发现海马体可以按...

47816

扫码关注云+社区