由深度神经网络想到的人生意义和哲理

大数据文摘作品 转载具体要求见文末

选文 | Aileen 作者 | Nitin Pande

翻译 | 宇文 Valavalavava 校对 | 脸红

◆ ◆

导读

几周前,我经历工作项目的调动,恰好给了我空余时间重拾那些很久没有碰过的感兴趣的话题。机器学习是我兴趣列表中的第一项。这是一个已经广泛渗入科技领域的话题,但我对其一无所知。仅几周的泛读,已经让我相信我们正加速朝向一个通用人工智能的时代。随着物联网(IOT)设备的快速普及产生了极大量数据,在这方面深度挖掘的进步将会保证这一未来越来越近。

但是基于这篇文章的论述范围,我将把话题限制在讨论以下假设:围绕在我们周围的所有事情构成一张深度神经网络,以及这一观点带来的形而上学的意义。

◆ ◆

迁移学习

作为一个机器学习(ML)新手,我第一次接触到机器学习的经历是相当不可思议的。谷歌的新机器学习库(称为TensorFlow)让我有机会搭建一个深度神经网络(DNN)模型,它能在几个小时内通过从谷歌及我的MacBook Pro中抓取的图片来标记房子中不同房间的图像。我为这个全新的神奇力量感到惊喜,当夜兴奋到无法入睡。多读了一些这方面的资料后,我最初的兴奋渐渐平息下来,而一个关键词“迁移学习”这个有趣的概念留在了我的脑海里。如谷歌所说的那样——

迁移学习是指利用在解决另一个问题时搭建的模型的技术。我们将会保留对已有模型的某些层,从而让优化后的新模型可以完全解决当下的新问题。从头搭建深度学习可能需要数天,但迁移学习可以在比较短的时间内实现。”

“深度学习”其名来源于深层神经网络(DNNs)这个算法和应用的学习。之所以“深”,是因为神经网络有很多层。每层神经网络(或一组神经网络)创建的输出,可以作为下一层的搭建基础。因此,在我上述列举的情形中,谷歌预先设置的图像模型已经搭建了可以识别如边界、角等图像元素的低级层次,以及可以识别形状的中级层次。我通过多次迭代训练而得到一个创造最高价值的输出层,因为只有它能最终识别和标记给定的图片。

◆ ◆

我们的大脑好比深度神经网络

以上有趣事情发生的几天后,我看了Ray Kurzweil在“加速的未来 (The Acceleration Future)”中很棒的演讲,演讲中他提到,人类大脑就像深度神经网络(DNN)模型的识别者,并且我们大脑的某些部分与蜥蜴的大脑是完全一样的。

结合“迁移学习”的概念,所提出的深度神经网络(DNN)的概念作为一个重要的架构,可以解释物种内一代一代的迁移学习,以及物种间的迁移学习。(我知道神经网络的架构显然是由研究大脑本身而启发得出的,但是这里的关键概念是“深度”)。

因此我们的大脑是一个(或一系列)深度神经网络,这个网络基于我们进化而来的前一个物种的学习模式搭建而成。我们应该记住,这种学习模式从基因上来看是从我们的祖父和其他祖先那转移过来的。除了关于对世界的了解和生存秘诀,这些模式可能也包含了我们在超过几百万年的试验中不断调整而形成的是非观(道德层面)。

甚至,在一个人的一生中,学习看上去也是一个深度学习网络的创造过程。在学习阶段,我们的大脑努力运作,创造可以持续输出预期结果(如:弹好吉他)的正确模式(通过引发不同种类的神经模式)。一旦深度学习网络模式被创建,在实际生活场景下运用训练过的模型(如:用吉他上弹奏新的歌曲)将是更快的。这也能解释为什么学习过程本身是很难的,但一旦习得,技能很容易被运用出来。

于是,我们可以将经历看做我们众多的神经网络在深度上的发展。

创造力也有可能是“迁移学习”的结果。一种极大的可能性是,创意工作者们利用在其他领域训练过的基础模型,同时保持他们的“深度神经网络”的最顶层。从另一方面来说,某一特别领域的专家已经将他们的深度神经网络(DNN)训练得更加深入,就为了在极端的细节上处理一个特殊问题。

◆ ◆

什么让深度神经网络变得特别

我认为深度神经网络的一个重要特征是他们同时具有机器处理能力和数据存储能力。因此当能量流通过他们时,他们是活的机器,指引能量去创造动态的模式,从而为了达到预期的结果而不断优化。不仅如此,当能量停止流动时,他们变成静态的模式,我们称之为模型(深度神经网络模型)。

那么,我们也是深度神经网络(DNN)吗?

有一个有趣的概念是这样的,把种子(可以是植物的种子,或者动物的“种子”等)看做深度神经网络(DNN)模型。那么本质上,种子就是在代际之间传递训练过的模型(学习和存储了的DNN模式),其中每一代都尝试着在上一代模型的基础上,通过提供更多的训练和优化,从而使自身在所处的环境中繁荣兴旺,进而改善模型。

想得更远一步——如果种子是模型,那么我们或许就成了机器。

◆ ◆

模型(种子) + 最佳的环境 + 能量 = 一个基于深度神经网络(DNN)的机器

这样看来,从种子成长起来的植物就是训练模型的具体表现。这种物理的表现本质上是一个DNN深度学习机器,它进行新的试验,为了改进那个创造了自身的潜在模型而向当前环境学习。而后,如果机器发现了某些能够帮助下一代更好地适应环境的新信息,那么就会给神经网络增加新的层。

如果由此更深入探索,就有可能认为,围绕在我们身边的一切事物其实都是建立在空间和时间上的一个深度神经模型。实际上,整个宇宙有可能就是一个巨大的DNN机器。这些DNN机器虽然理论上是建立在彼此的基础上的(一层层地),但实际上可能也是从属于彼此的。我们是DNN里的DNN里的DNN。这个理论唯一的问题在于我们还不能明确宇宙这个巨大的DNN机器最终优化的目标是什么。因为如果可以找到这个目标,或许我们就可以借此对宇宙万物存在的目的有一个更清晰的理解。

◆ ◆

生命存在的意义

如果我们正是存在于其他DNN机器内部的DNN机器(就好比地球),那么我们存在的意义是什么?我觉得我们生命的意义可能不会跟我们大脑里的电信号的意义有什么太大的差异。这个目的就是流动,无论这个流动的方向是否会成为最后胜利的神经网络模式(或者说模型)的一部分。我们的目标也不会跟水流中的水珠有太大的差异。我们作为个体是没什么所谓的。有所谓的是我们所有人作为一个集体,在宇宙深度神经网络的这一个层面上所自然而然发生的行为(神经模式)。物种、社会结构、文化、宗教、国家、语言,像荒芜的沙漠和丰饶的雨林这样的环境,本质上都是一种自我优化的试验性动态模式,而且它们一起服务于一个自然发生的、超大的、全宇宙的、为了“某个目的”自我优化模式。我仍然不明确这“某个目的”究竟是什么。但是如果缺少了这个我们依存的巨大机器,我们每个个体的存在将是无意义的。

◆ ◆

展望

这是关于这个思路的第一份初稿,虽然距离清晰明确的答案还有很长的一段距离,但是现在有这样几个原理是跟这个紧密内嵌在这个思路当中的:

1.深度神经网络为解释我们存在的机制提供了一种可理解的框架

2.我们身边的所有事物(包括我们自己)是一种自身的试验或者是另一个试验的一部分。这种试验会持续直到找到所需优化问题的一个最优解。一旦试验成功,这个模型就被存储起来,等待下一代在此基础上进一步提升。

3.深度神经网络需要不断的试验和报错耗费大量的时间和精力来获得最优解。模型的使用本身是一个更高效的过程,因为数据只需要通过一个确定的路径即可,即使这个路径在结构上非常复杂,但因为这只是一条路径,所以可快速通过。

4.事物的错综复杂性来源于各个模型总是建立在彼此的基础上,而后形成其他模型的基础这一事实。复杂模型是更简单模型的分层集合。

5.行为是自然发生的。单个神经元/单位致力于某些后天取得的,来源于它们的内在模型的规则,但是不会意识到它们是在为一个怎样的总体目标做出贡献。

有了上述的这几个概念,我接下来将计划将这个模型应用到一些形而上学的概念上去,例如:因缘、生与死、道德等等,看看能否发现有一些有趣的事情。

待续哦!

References:

[1] Tensorflow for poets — https://codelabs.developers.google.com/codelabs/tensorflow-for-poets/index.html?index=..%2F..%2Findex#0

[2]Ray Kurzweil talk — “The Accelerating Future” — https://www.youtube.com/watch?v=DIIUNtUVDPI

[3]This is What Happens When Deep Learning Neural Networks Hallucinate — http://thenewstack.io/deep-learning-neural-networks-google-deep-dream/

本文来源:

https://medium.com/@nitin_pande/deep-neural-nets-and-the-purpose-of-life-d3d60a38d108#.wvbcx9riz

原文发布于微信公众号 - 大数据文摘(BigDataDigest)

原文发表时间:2016-10-24

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏机器人网

AI科学家李飞飞告诉我们:超越 ImageNet 的视觉智能

说起人工智能,孕育了卷积神经网络和深度学习算法的 ImageNet 挑战赛恐怕是世界上最著名的 AI 数据集。8 年来,在 ImageNet 数据集的训练下,人...

14940
来自专栏AI星球

吾爱NLP(3)—我对NLP的理解与学习建议

简单来说,NLP = Nature Language Process = 自然语言处理 ≈ 语言信息(文本/语音)+机器学习 。

26620
来自专栏AI科技大本营的专栏

首发|机器学习未来十年:你需要把握的趋势和热点

CSDN 出品的《2018-2019 中国人工智能产业路线图》V2.0 版即将重磅面世!

10710
来自专栏新智元

【PyTorch 挑战 TensorFlow】28303 篇 arXiv 论文看深度学习 6 大趋势

【新智元导读】本文由 Andrej Karpathy撰写,他前不久加入了特斯拉,担任AI 负责人。本文是他在 OpenAI 担任研究员期间所写,陈述了他通过分析...

38260
来自专栏木可大大

大数据是什么(续)

从亚马逊到Facebook,再到谷歌和微软,全球最顶尖、最有影响力的技术公司都将目光转向了人工智能(AI)。本文将介绍AI、机器学习以及深度学习,其中着重介绍深...

19120
来自专栏AI科技大本营的专栏

周末漫谈 | 都说想转型机器学习,到你真的有机会吗?机器学习下一个创新点到底在哪里?

本期话题 这个周六,让我们来聊聊当前火热的机器学习,它未来的机会在哪里呢? 机器学习、计算机视觉下一步的创新点在哪里? 随着硬件的迭代,神经网络的隐藏层可以...

36790
来自专栏AI科技评论

学界 | 全景照片不怕歪!Facebook 用神经网络矫正扭曲的地平线

AI科技评论按:最近微博上的全景照片很火呀,相比各位都已经在自己的iPhone或者iPad上品鉴了多家IT公司的办公室、游玩了多个旅游胜地、享受了被小猫小狗环绕...

39870
来自专栏数据科学与人工智能

【深度学习】深度学习趋势与框架

2015 年结束了,是时候看看 2016 年的技术趋势,尤其是关于深度学习方面。新智元在 2015 年底发过一篇文章《深度学习会让机器学习工程师失业吗?》,引起...

30550
来自专栏新智元

一文读懂量子机器学习:量子算法基石已经奠定

【新智元导读】在计算能力增加和算法进步的推动下,机器学习技术已成为从数据中寻找模式的强大工具。量子系统能生产出一些非典型(atypical)模式,而一般认为经典...

34060
来自专栏新智元

【干货】机器学习概览+模型可视化呈现

2016年10月18日, 世界人工智能大会技术论坛,特设“新智元智库院长圆桌会议”,重量级研究院院长 7 剑下天山,汇集了中国人工智能产学研三界最豪华院长阵容:...

44660

扫码关注云+社区

领取腾讯云代金券