深度学习笔记3:手动搭建深度神经网络

在笔记 1 和 2 里笔者使用手动搭建了感知机单元与一个单隐层的神经网络,理解了神经网络的基本架构和传播原理,掌握了如何从零开始手写一个神经网络。但以上仅是神经网络和深度学习的基础内容,深度学习的一大特征就在于隐藏层之深。因而,我们就这前面的思路,继续利用工具,手动搭建一个 DNN 深度神经网络。

再次回顾一下之前我们在搭建神经网络时所秉持的思路和步骤:

定义网络结构

初始化模型参数

循环计算:前向传播/计算当前损失/反向传播/权值更新

神经网络的计算流程

初始化模型参数

对于一个包含L层的隐藏层深度神经网络,我们在初始化其模型参数的时候需要更灵活一点。我们可以将网络结构作为参数传入初始化函数里面:

以上代码中,我们将参数定义为一个包含网络各层维数的,使用随机数和归零操作来初始化权重和偏置。

比如说我们指定一个输入层大小为 5 ,隐藏层大小为 4 ,输出层大小为 3 的神经网络,调用上述参数初始化函数效果如下:

前向传播

前向传播的基本过程就是执行加权线性计算和对线性计算的结果进行激活函数处理的过程。除了此前常用的激活函数,这里我们引入另一种激活函数,那么这个又是个什么样的激活函数呢?

ReLU

全称为线性修正单元,其函数形式表示为 y = max(0, x).

从统计学本质上讲,其实是一种断线回归函数,其主要功能在于能在计算反向传播时缓解梯度消失的情形。相对书面一点就是,具有稀疏激活性的优点。关于的更多细节,这里暂且按下不表,我们继续定义深度神经网络的前向计算函数:

在上述代码中, 参数为前一步执行前向计算的结果,中间使用了一个激活函数判断,对两种不同激活函数下的结果分别进行了讨论。

对于一个包含L层采用作为激活函数,最后一层采用激活函数,前向计算流程如下图所示。

定义L层神经网络的前向计算函数为:

计算当前损失

有了前向传播的计算结果之后,就可以根据结果值计算当前的损失大小。定义计算损失函数为:

执行反向传播

执行反向传播的关键在于正确的写出关于权重和 偏置的链式求导公式,对于第 l层而言,其线性计算可表示为:

响应的第l层的和的梯度计算如下:

由上分析我们可定义线性反向传播函数和线性激活反向传播函数如下:

根据以上两个反向传播函数,我们可继续定义L层网络的反向传播函数:

反向传播涉及大量的复合函数求导计算,所以这一块需要一定的微积分基础。这也是为什么数学是深度学习人工智能的基石所在。

权值更新

反向传播计算完成后,即可根据反向计算结果对权值参数进行更新,定义参数更新函数如下:

封装搭建过程

到此一个包含$$层隐藏层的深度神经网络就搭建好了。当然了,跟前面保持统一,也需要的精神,我们继续对全过程的各个函数进行统一封装,定义一个封装函数:

这样一个深度神经网络计算完整的搭建完毕了。从两层网络推到$$层网络从原理上是一样的,几个难点在于激活函数的选择和处理、反向传播中的多层复杂链式求导等。多推导原理,多动手实践,相信你会自己搭建深度神经网络。

参考资料:

https://www.coursera.org/learn/machine-learning

https://www.deeplearning.ai/

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180610B0O7K900?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券