前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >The Brain vs Deep Learning(三)

The Brain vs Deep Learning(三)

作者头像
哒呵呵
发布2018-08-06 17:29:31
3820
发布2018-08-06 17:29:31
举报
文章被收录于专栏:鸿的学习笔记鸿的学习笔记

--开始介绍生物信息处理的过程了,你可以把他想象成深度学习的处理过程。

Genetic manipulation

生物信息处理的复杂性不是以蛋白质信号传导级联为结束,100亿个蛋白质不是完成其任务的工人的随机汤,而是这些工作者被设计为具有特定数量以服务于与目前相关的特定功能。所有这些都由涉及辅助蛋白,DNA和信使RNA(mRNA)的紧密反馈环控制。

如果我们使用编程比喻来描述整个过程,那么DNA表示整个github网站及其所有公共包,而信使RNA是一个大库,其中包含许多具有不同功能的小库(类似于C ++ boost库)。

这一切都开始于你想解决的编程问题(检测到生物问题)。你使用google和stackoverflow来查找有关库的建议,你可以使用它来解决这个问题,很快你会发现一个帖子,建议你使用库X解决问题Y(问题Y被检测到在单元格中的本地水平与已知的解决方案的蛋白X;检测到该缺陷的蛋白质然后级联成蛋白信号链,导致可以产生蛋白X的基因G的上调;此处上调是“Hey!产生更多这种东西!”此信号发送给DNA所在的细胞核)。你下载库并编译它(基因G被复制(转录)为一个短字符串的mRNA从很长的DNA链)。然后,您可以配置安装(mRNA离开核心)与相应的配置(mRNA被翻译成一个蛋白质,蛋白质可以由其他蛋白质后调整),并将该库安装在全局“/ lib”目录(蛋白质折叠成其正确形式,之后它是完全功能性的)。安装库后,您需要将库的所需部分导入到程序中(折叠的蛋白质(随机)移动到需要的位置),并使用此库的某些功能来解决您的问题(蛋白质某种工作来解决问题))。

除此之外,神经元也可以动态地改变它们的基因组,即它们可以动态地改变它们的github仓库以添加或去除库。要进一步了解这一过程,您可能需要观看以下视频。 这个视频动画中描述的过程与神经元中的过程非常相似。为了使其更类似于神经元中的过程,假设HIV是一种神经递质,并且包含在HIV细胞中的一切都在神经元中。你所拥有的是如何神经元如何利用他们的基因和蛋白质的准确表示:

视频内容

你可能会问,你的身体中的每个细胞都有(几乎)相同的DNA,以便能够复制自己? 通常,这对于大多数细胞是真实的,但对于大多数神经元不是真的。神经元通常具有不同于你在出生时分配的原始基因组的基因组。 神经元可以具有额外的或更少的染色体并且具有从某些染色体去除或添加的信息序列。显示,这种行为对于信息处理是重要的,并且如果消失,这可能导致脑疾病,如抑郁症或阿尔茨海默氏病。神经元每天都在改变其基因组以改善信息处理需求。

所以,当你坐在你的办公桌五天,然后在周末决定去徒步旅行,这是对大脑适应这个新任务的神经元很有意义,因为在这种环境变化后需要完全不同的信息处理。同样,在进化的意义上,在村里有不同的“狩猎/聚会和社交活动的模式”是有益的- 似乎这个功能可能是这样的。 通常,生物信息处理装置对于响应于从几分钟到几小时的较慢的信息处理需求是非常有效的。

关于深度学习,等效功能将是以显着但基于规则的方式改变训练的卷积网的功能; 例如在从一个任务改变到另一个任务(识别街道号 - >变换参数 - >识别行人)时对所有参数应用变换。这种生物信息处理的任何内容都不是由LNP模型建模的。

回顾所有这一切,看起来很奇怪,这么多研究人员认为他们可以只通过集中电化学性质和神经元之间的相互作用复制大脑的行为。 想象一下,卷积网络中的每个单元都有自己的github,从中学习动态下载,编译和使用最好的库来解决某个任务。 从所有这些,你可以看到一个单一的神经元可能比整个卷积网更复杂,但我们从这里继续我们的电化学过程,看看它在哪里引领我们。

Back to the LNP model

在叙述完上述内容以后,我们模型的信息处理只有一个相关的步骤。 一旦达到临界水平的去极化,神经元将经常罢工,但并不总是存在防止神经元罢工的机制。例如,在神经元罢工后不久,其电位成为了正极而不能产生完全成熟的动作电位,因此它不能再次罢工。 即使当达到足够的电势时,这种堵塞也可能存在,因为这种阻塞是生物功能而不是物理开关。在LNP模型中,动作电位的这种阻塞被建模为具有泊松分布的不均匀泊松过程。 具有泊松分布作为模型的泊松过程意味着神经元具有非常高的发生其第一次或第二次达到其阈值电位的可能性,但是它也可以是(以指数性减小的概率)神经元不能罢工更多次。

A Poisson(0.5) distribution with a randomly drawn sample.Here 0,1,2,3 represents the waiting time until the neuron fires, thus 0 meansit fires without delay, while 2 means it will not fire for two cycles evenif it could fire physically.

这个规则存在例外,神经元会禁用这个机制,并以由物理学单独控制的速率连续地发射 - 但是这些是我在这一点上将忽略的特殊事件。通常,这个整个过程非常类似于使用均匀分布而不是泊松分布的深度学习中使用的dropout; 因此这个过程可以被看作是大脑使用而不是dropout的某种正则化方法。

在下一步中,如果神经元激发,它释放动作电位。动作电位在其幅度上具有非常小的差异,意味着由神经元产生的电位几乎总是具有相同的幅度,因此是可靠的信号。当这个信号沿着轴突向下传播时,它变得越来越弱。当它流入轴突终端的分支时,其最终强度将取决于这些分支的形状和长度;因此每个轴突端子将接收不同量的电势。然后将该空间信息与由于动作电位的尖峰模式的时间信息一起转换为电化学信息(显示它们被转换成神经递质本身的尖峰,持续约2ms)。为了调整输出信号,轴突终端可以移动,生长或收缩(空间),或者它可以改变其负责释放突触小泡(时间)的蛋白质组成。

现在我们回到开始:神经递质从轴突终端释放(其可以被建模为密集矩阵乘法),并且不断重复自身。

--未完待续

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2016-12-02,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 鸿的学习笔记 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档