首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

6段里程碑式Python代码,带你了解深度学习历史

“Hello 我 是 大 白,带 你 进 入 Python 世界”

welcome to the Python world

【导读】深度学习为什么会成为今天的样子?让我们用六段代码来刻画深度学习简史,用Python展现深度学习历史上关键的节点和核心要素,包括最小二乘法、梯度下降、线性回归、感知器、神经网络和深度神经网络。

最小二乘法

深度学习的一切都起源于这个数学片段(我把它用Python 写了出来):

这一方法是 1805 年巴黎数学家阿德利昂·玛利·埃·勒让德首次提出的(1805,Legendre),勒让德建立了许多重要的定理,尤其是在数论和椭圆积分(Elliptic Integrals)方面,提出了对素数定理(Prime Number Theorem)和二次互反律(Quadratic Reciprocity)的猜测并发表了初等几何教科书。他对预测彗星的未来位置特别痴迷。他找到了根据彗星此前的几个位置计算其轨迹的方法。

他尝试了几种方法,终于找到了一个让他满意的方法。勒让德先猜测彗星的未来位置,然后平方其误差,重新做出猜测,以减少平方误差的和。这是线性回归的种子。

上述代码中,m 是系数,b是预测中的常数,坐标是彗星的位置。我们的目标是找到m和b的组合,使其误差尽可能小。

这就是深度学习的核心理念:输入,然后设定期望的输出,找到二者的相关性。

梯度下降

勒让德手工降低误差率的方法很耗时。荷兰诺贝尔奖得主Peter Debye 在一个世纪后(1909年,Debye)正式确定了解决方案。

让我们想象一下,勒让德有一个参数需要担心——我们称之为X。Y轴表示每个X的误差值。勒让德寻找的是最低误差时X的位置。在这种图形化表示中,我们可以看到误差Y最小化时,X = 1.1。

彼得·德比(Peter Debye)注意到最低点左边的斜率是负的,而另一边则是正的。因此,如果知道任何给定X值的斜率值,就可以将Y 导向最小值。

这引出了梯度下降的方法。几乎每一个深度学习模型中都在使用这个原则。

写成Python:

这里要注意的是learning_rate。通过沿斜率相反方向接近最小值。此外,越接近最小值,斜率越小。每一步都会减少,因为斜率向零趋近。

num_iterations 是达到最小值前的预计迭代次数。

线性回归

通过组合最小二乘法和梯度下降法,就可以得到线性回归。 20世纪50年代和60年代,一批实验经济学家在早期的计算机上实现了这个想法。这个逻辑是在卡片计算机上实现的,那是真正的手工软件程序。当时需要几天的时间准备这些打孔卡,最多24小时才能通过计算机进行一次回归分析。

现在用不着打孔卡了,用Python 写出来是这样的:

将误差函数与梯度下降合并可能会有一点不好理解。可以运行代码试一试。

感知器

查查弗兰克·罗森布拉特(Frank Rosenblatt)这个人——他白天解剖大鼠的大脑,并在夜间寻找外星生命的迹象。1958 年,他造了一个模仿神经元的机器(1958,Rosenblatt ),登上了“纽约时报”的头版《新海军装备学习》。

如果你给Rosenblatt的机器看50组图像,每组中的一张标有“向左”,另一张标着“向右”,这台机器能够在没有预编程的情况下对它们进行区分。公众被机器真正能学习的这种可能性吸引了。

对于每个训练周期,您从左侧输入数据。初始随机权重添加到所有输入数据上。权重之和被计算出来。如果和为负,则被写为0,否则写为1。

如果预测是正确的,那么该循环中的权重就不做任何调整。如果有错误的,就将误差乘以学习率。这会相应地调整权重。

把感知器写成Python:

经过头一年的炒作,Marvin Minsky 和Seymour Papert 否定了这个想法(1969, Minsky& Papert)。当时,, Minsky 和 Papert 都在麻省理工学院的AI实验室工作。他们写了一本书,证明感知器只能解决线性问题。他们还驳斥了关于多层感知器的想法。不幸的是,弗兰克·罗森布拉特两年后遭遇了海难。

在, Minsky 和 Papert 专著出版一年之后,芬兰的一名大学生发现了解决多层感知器的非线性问题的理论(Linnainmaa,1970)。由于感知器遭受的批评,AI相关投资枯竭了十多年。这被称为AI 的第一个寒冬。

Minsky 和 Papert 的批评是XOR Problem。逻辑与OR逻辑相同,但有一个例外 - 当你有两个true语句(1&1)时,返回False(0)。

在 OR 逻辑中,可能将 true combination 从 false 中分离出来。但如你所见,你无法将 XOR 和一个线性函数分离。

人工神经网络

到1986年,几项实验证明了,神经网络可以解决复杂的非线性问题(Rumelhart等,1986)。当时的计算机比理论提出时快了一万倍。这时,Rumelhart提出了他们具有传奇色彩的论文:

我们描述了神经元式单元网络的新的学习过程,反向传播。该过程反复地调整网络中的连接权重,以便最小化网络的实际输出向量与期望的输出向量之间的差异。作为权重调整的结果,不属于输入或输出的内部“隐藏”单元代表了任务域的重要特征,并且任务中的规则由这些单元的交互捕获。创造有用的新函数的能力将反向传播与早期更简单的方法区分开来,例如感知器收敛过程“Nature 323,533-536(1986年10月9日)。

这一方法解决了XOR问题,解冻了第一个AI 寒冬。

请注意,X_XOR数据中添加的参数[1]是偏置神经元,它们与线性函数中的常量具有相同的行为。

反向传播、矩阵乘法和梯度下降组合可能很难包围你的头脑。这个过程的可视化通常是对发生事情的简化。请专注于理解背后的逻辑。

深度神经网络

深层神经网络是输入层和输出层之间具有很多层的神经网络。这个概念是由Rina Dechter(Dechter,1986)引入的,但在2012年获得了主流关注。不久之后就出现了IBM Watson 的Jeopardy 大胜和谷歌识猫的成功。

深度神经网络的核心结构保持不变,但现在应用于几个不同的问题。正则化也有很多改进。最初,这是一组数学函数,来简化嘈杂的数据(Tikhonov,A.N,1963)。它们现在用于神经网络,以提高其泛化能力。

创新的很大一部分是原因计算能力的飞跃。它改进了研究者的创新周期——80年代中期的超级计算机需要计算一年的东西,今天GPU 技术半秒就能算好。

计算方面的成本降低以及深度学习库的发展现在已经众所周知。我们来看一个普通的深度学习的例子,从底层开始:

GPU > Nvidia Tesla K80。硬件常用于图形处理。与CPU相比,深度学习平均速度要快50-200倍。

CUDA > GPU的低级编程语言

CuDNN > Nvidia 优化 CUDA的库

Tensorflow > Google 在 CuDNN 之上的深度学习框架

TFlearn > Tensorflow的前端框架

我们来看看MNIST图像分类,深度学习的入门任务。

用 TFlearn 执行:

如您在TFlearn示例中所看到的,深度学习的主要逻辑仍然类似于Rosenblatt的感知器。不使用二进制Heaviside step function,今天的网络大多使用Relu activition。在卷积神经网络的最后一层,损失等于categorical_crossentropy。这是勒让德最小二乘法的演变,是多类别的逻辑回归。优化器adam起源于 Debye 梯度下降的工作。 Tikhonov的正则化概念以停用层和正则化函数的形式得到广泛实施。

原文地址:http://blog.floydhub.com/coding-the-history-of-deep-learning/

喜欢的话转发给你身边的小伙伴

↓更多学习资料↓

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181118B0G2BF00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券