前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >神经网络–反向传播详细推导过程

神经网络–反向传播详细推导过程

作者头像
全栈程序员站长
发布2022-08-23 15:34:59
5100
发布2022-08-23 15:34:59
举报

大家好,又见面了,我是你们的朋友全栈君。

概述

以监督学习为例,假设我们有训练样本集

\textstyle (x(^ i),y(^ i))
\textstyle (x(^ i),y(^ i))

,那么神经网络算法能够提供一种复杂且非线性的假设模型

\textstyle h_{W,b}(x)
\textstyle h_{W,b}(x)

,它具有参数

\textstyle W, b
\textstyle W, b

,可以以此参数来拟合我们的数据。

为了描述神经网络,我们先从最简单的神经网络讲起,这个神经网络仅由一个“神经元”构成,以下即是这个“神经元”的图示:

SingleNeuron.png
SingleNeuron.png

这个“神经元”是一个以

\textstyle x_1, x_2, x_3
\textstyle x_1, x_2, x_3

及截距

\textstyle +1
\textstyle +1

为输入值的运算单元,其输出为

\textstyle  h_{W,b}(x) = f(W^Tx) = f(\sum_{i=1}^3 W_{i}x_i +b)
\textstyle h_{W,b}(x) = f(W^Tx) = f(\sum_{i=1}^3 W_{i}x_i +b)

,其中函数

\textstyle f : \Re \mapsto \Re
\textstyle f : \Re \mapsto \Re

被称为“激活函数”。在本教程中,我们选用sigmoid函数作为激活函数

\textstyle f(\cdot)
\textstyle f(\cdot)
f(z) = \frac{1}{1+\exp(-z)}.
f(z) = \frac{1}{1+\exp(-z)}.

可以看出,这个单一“神经元”的输入-输出映射关系其实就是一个逻辑回归(logistic regression)。

虽然本系列教程采用sigmoid函数,但你也可以选择双曲正切函数(tanh):

f(z) = \tanh(z) = \frac{e^z - e^{-z}}{e^z + e^{-z}},
f(z) = \tanh(z) = \frac{e^z - e^{-z}}{e^z + e^{-z}},

以下分别是sigmoid及tanh的函数图像

Sigmoid activation function.
Sigmoid activation function.
Tanh activation function.
Tanh activation function.
\textstyle \tanh(z)
\textstyle \tanh(z)

函数是sigmoid函数的一种变体,它的取值范围为

\textstyle [-1,1]
\textstyle [-1,1]

,而不是sigmoid函数的

\textstyle [0,1]
\textstyle [0,1]

注意,与其它地方(包括OpenClassroom公开课以及斯坦福大学CS229课程)不同的是,这里我们不再令

\textstyle x_0=1
\textstyle x_0=1

。取而代之,我们用单独的参数

\textstyle b
\textstyle b

来表示截距。

最后要说明的是,有一个等式我们以后会经常用到:如果选择

\textstyle f(z) = 1/(1+\exp(-z))
\textstyle f(z) = 1/(1+\exp(-z))

,也就是sigmoid函数,那么它的导数就是

\textstyle f'(z) = f(z) (1-f(z))
\textstyle f'(z) = f(z) (1-f(z))

(如果选择tanh函数,那它的导数就是

\textstyle f'(z) = 1- (f(z))^2
\textstyle f'(z) = 1- (f(z))^2

,你可以根据sigmoid(或tanh)函数的定义自行推导这个等式。

神经网络模型

所谓神经网络就是将许多个单一“神经元”联结在一起,这样,一个“神经元”的输出就可以是另一个“神经元”的输入。例如,下图就是一个简单的神经网络:

Network331.png
Network331.png

我们使用圆圈来表示神经网络的输入,标上“

\textstyle +1
\textstyle +1

”的圆圈被称为偏置节点,也就是截距项。神经网络最左边的一层叫做输入层,最右的一层叫做输出层(本例中,输出层只有一个节点)。中间所有节点组成的一层叫做隐藏层,因为我们不能在训练样本集中观测到它们的值。同时可以看到,以上神经网络的例子中有3个输入单元(偏置单元不计在内),3个隐藏单元及一个输出单元

我们用

\textstyle {n}_l
\textstyle {n}_l

来表示网络的层数,本例中

\textstyle n_l=3
\textstyle n_l=3

,我们将第

\textstyle l
\textstyle l

层记为

\textstyle L_l
\textstyle L_l

,于是

\textstyle L_1
\textstyle L_1

是输入层,输出层是

\textstyle L_{n_l}
\textstyle L_{n_l}

。本例神经网络有参数

\textstyle (W,b) = (W^{(1)}, b^{(1)}, W^{(2)}, b^{(2)})
\textstyle (W,b) = (W^{(1)}, b^{(1)}, W^{(2)}, b^{(2)})

,其中

\textstyle W^{(l)}_{ij}
\textstyle W^{(l)}_{ij}

(下面的式子中用到)是第

\textstyle l
\textstyle l

层第

\textstyle j
\textstyle j

单元与第

\textstyle l+1
\textstyle l+1

层第

\textstyle i
\textstyle i

单元之间的联接参数(其实就是连接线上的权重,注意标号顺序),

\textstyle b^{(l)}_i
\textstyle b^{(l)}_i

是第

\textstyle l+1
\textstyle l+1

层第

\textstyle i
\textstyle i

单元的偏置项。因此在本例中,

\textstyle W^{(1)} \in \Re^{3\times 3}
\textstyle W^{(1)} \in \Re^{3\times 3}

\textstyle W^{(2)} \in \Re^{1\times 3}
\textstyle W^{(2)} \in \Re^{1\times 3}

。注意,没有其他单元连向偏置单元(即偏置单元没有输入),因为它们总是输出

\textstyle +1
\textstyle +1

。同时,我们用

\textstyle s_l
\textstyle s_l

表示第

\textstyle l
\textstyle l

层的节点数(偏置单元不计在内)。

我们用

\textstyle a^{(l)}_i
\textstyle a^{(l)}_i

表示第

\textstyle l
\textstyle l

层第

\textstyle i
\textstyle i

单元的激活值(输出值)。当

\textstyle l=1
\textstyle l=1

时,

\textstyle a^{(1)}_i = x_i
\textstyle a^{(1)}_i = x_i

,也就是第

\textstyle i
\textstyle i

个输入值(输入值的第

\textstyle i
\textstyle i

个特征)。对于给定参数集合

\textstyle W,b
\textstyle W,b

,我们的神经网络就可以按照函数

\textstyle h_{W,b}(x)
\textstyle h_{W,b}(x)

来计算输出结果。本例神经网络的计算步骤如下:

\begin{align}a_1^{(2)} &= f(W_{11}^{(1)}x_1 + W_{12}^{(1)} x_2 + W_{13}^{(1)} x_3 + b_1^{(1)})  \\a_2^{(2)} &= f(W_{21}^{(1)}x_1 + W_{22}^{(1)} x_2 + W_{23}^{(1)} x_3 + b_2^{(1)})  \\a_3^{(2)} &= f(W_{31}^{(1)}x_1 + W_{32}^{(1)} x_2 + W_{33}^{(1)} x_3 + b_3^{(1)})  \\h_{W,b}(x) &= a_1^{(3)} =  f(W_{11}^{(2)}a_1^{(2)} + W_{12}^{(2)} a_2^{(2)} + W_{13}^{(2)} a_3^{(2)} + b_1^{(2)}) \end{align}
\begin{align}a_1^{(2)} &= f(W_{11}^{(1)}x_1 + W_{12}^{(1)} x_2 + W_{13}^{(1)} x_3 + b_1^{(1)}) \\a_2^{(2)} &= f(W_{21}^{(1)}x_1 + W_{22}^{(1)} x_2 + W_{23}^{(1)} x_3 + b_2^{(1)}) \\a_3^{(2)} &= f(W_{31}^{(1)}x_1 + W_{32}^{(1)} x_2 + W_{33}^{(1)} x_3 + b_3^{(1)}) \\h_{W,b}(x) &= a_1^{(3)} = f(W_{11}^{(2)}a_1^{(2)} + W_{12}^{(2)} a_2^{(2)} + W_{13}^{(2)} a_3^{(2)} + b_1^{(2)}) \end{align}

我们用

\textstyle z^{(l)}_i
\textstyle z^{(l)}_i

表示第

\textstyle l
\textstyle l

层第

\textstyle i
\textstyle i

单元输入加权和(包括偏置单元),比如,

\textstyle  z_i^{(2)} = \sum_{j=1}^n W^{(1)}_{ij} x_j + b^{(1)}_i
\textstyle z_i^{(2)} = \sum_{j=1}^n W^{(1)}_{ij} x_j + b^{(1)}_i

,则

\textstyle a^{(l)}_i = f(z^{(l)}_i)
\textstyle a^{(l)}_i = f(z^{(l)}_i)

这样我们就可以得到一种更简洁的表示法。这里我们将激活函数

\textstyle f(\cdot)
\textstyle f(\cdot)

扩展为用向量(分量的形式)来表示,即

\textstyle f([z_1, z_2, z_3]) = [f(z_1), f(z_2), f(z_3)]
\textstyle f([z_1, z_2, z_3]) = [f(z_1), f(z_2), f(z_3)]

,那么,上面的等式可以更简洁地表示为:

\begin{align}z^{(2)} &= W^{(1)} x + b^{(1)} \\a^{(2)} &= f(z^{(2)}) \\z^{(3)} &= W^{(2)} a^{(2)} + b^{(2)} \\h_{W,b}(x) &= a^{(3)} = f(z^{(3)})\end{align}
\begin{align}z^{(2)} &= W^{(1)} x + b^{(1)} \\a^{(2)} &= f(z^{(2)}) \\z^{(3)} &= W^{(2)} a^{(2)} + b^{(2)} \\h_{W,b}(x) &= a^{(3)} = f(z^{(3)})\end{align}

我们将上面的计算步骤叫作前向传播。回想一下,之前我们用

\textstyle a^{(1)} = x
\textstyle a^{(1)} = x

表示输入层的激活值,那么给定第

\textstyle l
\textstyle l

层的激活值

\textstyle a^{(l)}
\textstyle a^{(l)}

后,第

\textstyle l+1
\textstyle l+1

层的激活值

\textstyle a^{(l+1)}
\textstyle a^{(l+1)}

就可以按照下面步骤计算得到:

\begin{align}z^{(l+1)} &= W^{(l)} a^{(l)} + b^{(l)}   \\a^{(l+1)} &= f(z^{(l+1)})\end{align}
\begin{align}z^{(l+1)} &= W^{(l)} a^{(l)} + b^{(l)} \\a^{(l+1)} &= f(z^{(l+1)})\end{align}

将参数矩阵化,使用矩阵-向量运算方式,我们就可以利用线性代数的优势对神经网络进行快速求解。

目前为止,我们讨论了一种神经网络,我们也可以构建另一种结构的神经网络(这里结构指的是神经元之间的联接模式),也就是包含多个隐藏层的神经网络。最常见的一个例子是

\textstyle  n_l
\textstyle n_l

层的神经网络,第

\textstyle  1
\textstyle 1

层是输入层,第

\textstyle  n_l
\textstyle n_l

层是输出层,中间的每个层

\textstyle  l
\textstyle l

与层

\textstyle  l+1
\textstyle l+1

紧密相联。这种模式下,要计算神经网络的输出结果,我们可以按照之前描述的等式,按部就班,进行前向传播,逐一计算第

\textstyle  L_2
\textstyle L_2

层的所有激活值,然后是第

\textstyle  L_3
\textstyle L_3

层的激活值,以此类推,直到第

\textstyle  L_{n_l}
\textstyle L_{n_l}

层。这是一个前馈神经网络的例子,因为这种联接图没有闭环或回路。

神经网络也可以有多个输出单元。比如,下面的神经网络有两层隐藏层:

\textstyle L_2
\textstyle L_2

\textstyle L_3
\textstyle L_3

,输出层

\textstyle L_4
\textstyle L_4

有两个输出单元。

Network3322.png
Network3322.png

要求解这样的神经网络,需要样本集

\textstyle (x^{(i)}, y^{(i)})
\textstyle (x^{(i)}, y^{(i)})

,其中

\textstyle y^{(i)} \in \Re^2
\textstyle y^{(i)} \in \Re^2

。如果你想预测的输出是多个的,那这种神经网络很适用。(比如,在医疗诊断应用中,患者的体征指标就可以作为向量的输入值,而不同的输出值

\textstyle y_i
\textstyle y_i

可以表示不同的疾病存在与否。)

反向传导算法

假设我们有一个固定样本集

\textstyle \{ (x^{(1)}, y^{(1)}), \ldots, (x^{(m)}, y^{(m)}) \}
\textstyle \{ (x^{(1)}, y^{(1)}), \ldots, (x^{(m)}, y^{(m)}) \}

,它包含

\textstyle m
\textstyle m

个样例。我们可以用批量梯度下降法来求解神经网络。具体来讲,对于单个样例

\textstyle (x,y)
\textstyle (x,y)

,其代价函数为:

\begin{align}J(W,b; x,y) = \frac{1}{2} \left\| h_{W,b}(x) - y \right\|^2.\end{align}
\begin{align}J(W,b; x,y) = \frac{1}{2} \left\| h_{W,b}(x) - y \right\|^2.\end{align}

这是一个(二分之一的)方差代价函数。给定一个包含

\textstyle m
\textstyle m

个样例的数据集,我们可以定义整体代价函数为:

\begin{align}J(W,b)&= \left[ \frac{1}{m} \sum_{i=1}^m J(W,b;x^{(i)},y^{(i)}) \right]                       + \frac{\lambda}{2} \sum_{l=1}^{n_l-1} \; \sum_{i=1}^{s_l} \; \sum_{j=1}^{s_{l+1}} \left( W^{(l)}_{ji} \right)^2 \\&= \left[ \frac{1}{m} \sum_{i=1}^m \left( \frac{1}{2} \left\| h_{W,b}(x^{(i)}) - y^{(i)} \right\|^2 \right) \right]                       + \frac{\lambda}{2} \sum_{l=1}^{n_l-1} \; \sum_{i=1}^{s_l} \; \sum_{j=1}^{s_{l+1}} \left( W^{(l)}_{ji} \right)^2\end{align}
\begin{align}J(W,b)&= \left[ \frac{1}{m} \sum_{i=1}^m J(W,b;x^{(i)},y^{(i)}) \right] + \frac{\lambda}{2} \sum_{l=1}^{n_l-1} \; \sum_{i=1}^{s_l} \; \sum_{j=1}^{s_{l+1}} \left( W^{(l)}_{ji} \right)^2 \\&= \left[ \frac{1}{m} \sum_{i=1}^m \left( \frac{1}{2} \left\| h_{W,b}(x^{(i)}) - y^{(i)} \right\|^2 \right) \right] + \frac{\lambda}{2} \sum_{l=1}^{n_l-1} \; \sum_{i=1}^{s_l} \; \sum_{j=1}^{s_{l+1}} \left( W^{(l)}_{ji} \right)^2\end{align}

以上关于

\textstyle J(W,b)
\textstyle J(W,b)

定义中的第一项是一个均方差项。第二项是一个规则化项(也叫权重衰减项),其目的是减小权重的幅度,防止过度拟合。

[注:通常权重衰减的计算并不使用偏置项

\textstyle b^{(l)}_i
\textstyle b^{(l)}_i

,比如我们在

\textstyle J(W, b)
\textstyle J(W, b)

的定义中就没有使用。一般来说,将偏置项包含在权重衰减项中只会对最终的神经网络产生很小的影响。如果你在斯坦福选修过CS229(机器学习)课程,或者在YouTube上看过课程视频,你会发现这个权重衰减实际上是课上提到的贝叶斯规则化方法的变种。在贝叶斯规则化方法中,我们将高斯先验概率引入到参数中计算MAP(极大后验)估计(而不是极大似然估计)。]

权重衰减参数

\textstyle \lambda
\textstyle \lambda

用于控制公式中两项的相对重要性。在此重申一下这两个复杂函数的含义:

\textstyle J(W,b;x,y)
\textstyle J(W,b;x,y)

是针对单个样例计算得到的方差代价函数;

\textstyle J(W,b)
\textstyle J(W,b)

是整体样本代价函数,它包含权重衰减项。

以上的代价函数经常被用于分类和回归问题。在分类问题中,我们用

\textstyle y = 0
\textstyle y = 0

\textstyle 1
\textstyle 1

,来代表两种类型的标签(回想一下,这是因为 sigmoid激活函数的值域为

\textstyle [0,1]
\textstyle [0,1]

;如果我们使用双曲正切型激活函数,那么应该选用

\textstyle -1
\textstyle -1

\textstyle +1
\textstyle +1

作为标签)。对于回归问题,我们首先要变换输出值域(译者注:也就是

\textstyle y
\textstyle y

),以保证其范围为

\textstyle [0,1]
\textstyle [0,1]

(同样地,如果我们使用双曲正切型激活函数,要使输出值域为

\textstyle [-1,1]
\textstyle [-1,1]

)。

我们的目标是针对参数

\textstyle W
\textstyle W

\textstyle b
\textstyle b

来求其函数

\textstyle J(W,b)
\textstyle J(W,b)

的最小值。为了求解神经网络,我们需要将每一个参数

\textstyle W^{(l)}_{ij}
\textstyle W^{(l)}_{ij}

\textstyle b^{(l)}_i
\textstyle b^{(l)}_i

初始化为一个很小的、接近零的随机值(比如说,使用正态分布

\textstyle {Normal}(0,\epsilon^2)
\textstyle {Normal}(0,\epsilon^2)

生成的随机值,其中

\textstyle \epsilon
\textstyle \epsilon

设置为

\textstyle 0.01
\textstyle 0.01

),之后对目标函数使用诸如批量梯度下降法的最优化算法。因为

\textstyle J(W, b)
\textstyle J(W, b)

是一个非凸函数,梯度下降法很可能会收敛到局部最优解;但是在实际应用中,梯度下降法通常能得到令人满意的结果。最后,需要再次强调的是,要将参数进行随机初始化,而不是全部置为

\textstyle 0
\textstyle 0

。如果所有参数都用相同的值作为初始值,那么所有隐藏层单元最终会得到与输入值有关的、相同的函数(也就是说,对于所有

\textstyle i
\textstyle i

\textstyle W^{(1)}_{ij}
\textstyle W^{(1)}_{ij}

都会取相同的值,那么对于任何输入

\textstyle x
\textstyle x

都会有:

\textstyle a^{(2)}_1 = a^{(2)}_2 = a^{(2)}_3 = \ldots
\textstyle a^{(2)}_1 = a^{(2)}_2 = a^{(2)}_3 = \ldots

)。随机初始化的目的是使对称失效

梯度下降法中每一次迭代都按照如下公式对参数

\textstyle W
\textstyle W

\textstyle b
\textstyle b

进行更新:

\begin{align}W_{ij}^{(l)} &= W_{ij}^{(l)} - \alpha \frac{\partial}{\partial W_{ij}^{(l)}} J(W,b) \\b_{i}^{(l)} &= b_{i}^{(l)} - \alpha \frac{\partial}{\partial b_{i}^{(l)}} J(W,b)\end{align}
\begin{align}W_{ij}^{(l)} &= W_{ij}^{(l)} - \alpha \frac{\partial}{\partial W_{ij}^{(l)}} J(W,b) \\b_{i}^{(l)} &= b_{i}^{(l)} - \alpha \frac{\partial}{\partial b_{i}^{(l)}} J(W,b)\end{align}

其中

\textstyle \alpha
\textstyle \alpha

是学习速率。其中关键步骤是计算偏导数。我们现在来讲一下反向传播算法,它是计算偏导数的一种有效方法。

我们首先来讲一下如何使用反向传播算法来计算

\textstyle \frac{\partial}{\partial W_{ij}^{(l)}} J(W,b; x, y)
\textstyle \frac{\partial}{\partial W_{ij}^{(l)}} J(W,b; x, y)

\textstyle \frac{\partial}{\partial b_{i}^{(l)}} J(W,b; x, y)
\textstyle \frac{\partial}{\partial b_{i}^{(l)}} J(W,b; x, y)

,这两项是单个样例

\textstyle (x,y)
\textstyle (x,y)

的代价函数

\textstyle J(W,b;x,y)
\textstyle J(W,b;x,y)

的偏导数。一旦我们求出该偏导数,就可以推导出整体代价函数

\textstyle J(W,b)
\textstyle J(W,b)

的偏导数:

\begin{align}\frac{\partial}{\partial W_{ij}^{(l)}} J(W,b) &=\left[ \frac{1}{m} \sum_{i=1}^m \frac{\partial}{\partial W_{ij}^{(l)}} J(W,b; x^{(i)}, y^{(i)}) \right] + \lambda W_{ij}^{(l)} \\\frac{\partial}{\partial b_{i}^{(l)}} J(W,b) &=\frac{1}{m}\sum_{i=1}^m \frac{\partial}{\partial b_{i}^{(l)}} J(W,b; x^{(i)}, y^{(i)})\end{align}
\begin{align}\frac{\partial}{\partial W_{ij}^{(l)}} J(W,b) &=\left[ \frac{1}{m} \sum_{i=1}^m \frac{\partial}{\partial W_{ij}^{(l)}} J(W,b; x^{(i)}, y^{(i)}) \right] + \lambda W_{ij}^{(l)} \\\frac{\partial}{\partial b_{i}^{(l)}} J(W,b) &=\frac{1}{m}\sum_{i=1}^m \frac{\partial}{\partial b_{i}^{(l)}} J(W,b; x^{(i)}, y^{(i)})\end{align}

以上两行公式稍有不同,第一行比第二行多出一项,是因为权重衰减是作用于

\textstyle W
\textstyle W

而不是

\textstyle b
\textstyle b

反向传播算法的思路如下:给定一个样例

\textstyle (x,y)
\textstyle (x,y)

,我们首先进行“前向传导”运算,计算出网络中所有的激活值,包括

\textstyle h_{W,b}(x)
\textstyle h_{W,b}(x)

的输出值。之后,针对第

\textstyle l
\textstyle l

层的每一个节点

\textstyle i
\textstyle i

,我们计算出其“残差”

\textstyle \delta^{(l)}_i
\textstyle \delta^{(l)}_i

,该残差表明了该节点对最终输出值的残差产生了多少影响。对于最终的输出节点,我们可以直接算出网络产生的激活值与实际值之间的差距,我们将这个差距定义为

\textstyle \delta^{(n_l)}_i
\textstyle \delta^{(n_l)}_i

(第

\textstyle n_l
\textstyle n_l

层表示输出层)。对于隐藏单元我们如何处理呢?我们将基于节点(译者注:第

\textstyle l+1
\textstyle l+1

层节点)残差的加权平均值计算

\textstyle \delta^{(l)}_i
\textstyle \delta^{(l)}_i

,这些节点以

\textstyle a^{(l)}_i
\textstyle a^{(l)}_i

作为输入。下面将给出反向传导算法的细节:

  1. 进行前馈传导计算,利用前向传导公式,得到
\textstyle L_2, L_3, \ldots
\textstyle L_2, L_3, \ldots

直到输出层

\textstyle L_{n_l}
\textstyle L_{n_l}

的激活值。

  1. 对于第
\textstyle n_l
\textstyle n_l

层(输出层)的每个输出单元

\textstyle i
\textstyle i

,我们根据以下公式计算残差:

\begin{align}\delta^{(n_l)}_i= \frac{\partial}{\partial z^{(n_l)}_i} \;\;        \frac{1}{2} \left\|y - h_{W,b}(x)\right\|^2 = - (y_i - a^{(n_l)}_i) \cdot f'(z^{(n_l)}_i)\end{align}
\begin{align}\delta^{(n_l)}_i= \frac{\partial}{\partial z^{(n_l)}_i} \;\; \frac{1}{2} \left\|y - h_{W,b}(x)\right\|^2 = - (y_i - a^{(n_l)}_i) \cdot f'(z^{(n_l)}_i)\end{align}

[译者注:

\begin{align}\delta^{(n_l)}_i &= \frac{\partial}{\partial z^{n_l}_i}J(W,b;x,y) = \frac{\partial}{\partial z^{n_l}_i}\frac{1}{2} \left\|y - h_{W,b}(x)\right\|^2 \\ &= \frac{\partial}{\partial z^{n_l}_i}\frac{1}{2} \sum_{j=1}^{S_{n_l}} (y_j-a_j^{(n_l)})^2 = \frac{\partial}{\partial z^{n_l}_i}\frac{1}{2} \sum_{j=1}^{S_{n_l}} (y_j-f(z_j^{(n_l)}))^2 \\ &= - (y_i - f(z_i^{(n_l)})) \cdot f'(z^{(n_l)}_i) = - (y_i - a^{(n_l)}_i) \cdot f'(z^{(n_l)}_i)\end{align}
\begin{align}\delta^{(n_l)}_i &= \frac{\partial}{\partial z^{n_l}_i}J(W,b;x,y) = \frac{\partial}{\partial z^{n_l}_i}\frac{1}{2} \left\|y - h_{W,b}(x)\right\|^2 \\ &= \frac{\partial}{\partial z^{n_l}_i}\frac{1}{2} \sum_{j=1}^{S_{n_l}} (y_j-a_j^{(n_l)})^2 = \frac{\partial}{\partial z^{n_l}_i}\frac{1}{2} \sum_{j=1}^{S_{n_l}} (y_j-f(z_j^{(n_l)}))^2 \\ &= - (y_i - f(z_i^{(n_l)})) \cdot f'(z^{(n_l)}_i) = - (y_i - a^{(n_l)}_i) \cdot f'(z^{(n_l)}_i)\end{align}

]

\textstyle l = n_l-1, n_l-2, n_l-3, \ldots, 2
\textstyle l = n_l-1, n_l-2, n_l-3, \ldots, 2

的各个层,第

\textstyle l
\textstyle l

层的第

\textstyle i
\textstyle i

个节点的残差计算方法如下:

\delta^{(l)}_i = \left( \sum_{j=1}^{s_{l+1}} W^{(l)}_{ji} \delta^{(l+1)}_j \right) f'(z^{(l)}_i)
\delta^{(l)}_i = \left( \sum_{j=1}^{s_{l+1}} W^{(l)}_{ji} \delta^{(l+1)}_j \right) f'(z^{(l)}_i)

{译者注:

\begin{align}\delta^{(n_l-1)}_i &=\frac{\partial}{\partial z^{n_l-1}_i}J(W,b;x,y) = \frac{\partial}{\partial z^{n_l-1}_i}\frac{1}{2} \left\|y - h_{W,b}(x)\right\|^2  = \frac{\partial}{\partial z^{n_l-1}_i}\frac{1}{2} \sum_{j=1}^{S_{n_l}}(y_j-a_j^{(n_l)})^2 \\&= \frac{1}{2} \sum_{j=1}^{S_{n_l}}\frac{\partial}{\partial z^{n_l-1}_i}(y_j-a_j^{(n_l)})^2 = \frac{1}{2} \sum_{j=1}^{S_{n_l}}\frac{\partial}{\partial z^{n_l-1}_i}(y_j-f(z_j^{(n_l)}))^2 \\&= \sum_{j=1}^{S_{n_l}}-(y_j-f(z_j^{(n_l)})) \cdot \frac{\partial}{\partial z_i^{(n_l-1)}}f(z_j^{(n_l)}) = \sum_{j=1}^{S_{n_l}}-(y_j-f(z_j^{(n_l)})) \cdot  f'(z_j^{(n_l)}) \cdot \frac{\partial z_j^{(n_l)}}{\partial z_i^{(n_l-1)}} \\&= \sum_{j=1}^{S_{n_l}} \delta_j^{(n_l)} \cdot \frac{\partial z_j^{(n_l)}}{\partial z_i^{n_l-1}} = \sum_{j=1}^{S_{n_l}} \left(\delta_j^{(n_l)} \cdot \frac{\partial}{\partial z_i^{n_l-1}}\sum_{k=1}^{S_{n_l-1}}f(z_k^{n_l-1}) \cdot W_{jk}^{n_l-1}\right) \\&= \sum_{j=1}^{S_{n_l}} \delta_j^{(n_l)} \cdot  W_{ji}^{n_l-1} \cdot f'(z_i^{n_l-1}) = \left(\sum_{j=1}^{S_{n_l}}W_{ji}^{n_l-1}\delta_j^{(n_l)}\right)f'(z_i^{n_l-1})\end{align}
\begin{align}\delta^{(n_l-1)}_i &=\frac{\partial}{\partial z^{n_l-1}_i}J(W,b;x,y) = \frac{\partial}{\partial z^{n_l-1}_i}\frac{1}{2} \left\|y - h_{W,b}(x)\right\|^2 = \frac{\partial}{\partial z^{n_l-1}_i}\frac{1}{2} \sum_{j=1}^{S_{n_l}}(y_j-a_j^{(n_l)})^2 \\&= \frac{1}{2} \sum_{j=1}^{S_{n_l}}\frac{\partial}{\partial z^{n_l-1}_i}(y_j-a_j^{(n_l)})^2 = \frac{1}{2} \sum_{j=1}^{S_{n_l}}\frac{\partial}{\partial z^{n_l-1}_i}(y_j-f(z_j^{(n_l)}))^2 \\&= \sum_{j=1}^{S_{n_l}}-(y_j-f(z_j^{(n_l)})) \cdot \frac{\partial}{\partial z_i^{(n_l-1)}}f(z_j^{(n_l)}) = \sum_{j=1}^{S_{n_l}}-(y_j-f(z_j^{(n_l)})) \cdot f'(z_j^{(n_l)}) \cdot \frac{\partial z_j^{(n_l)}}{\partial z_i^{(n_l-1)}} \\&= \sum_{j=1}^{S_{n_l}} \delta_j^{(n_l)} \cdot \frac{\partial z_j^{(n_l)}}{\partial z_i^{n_l-1}} = \sum_{j=1}^{S_{n_l}} \left(\delta_j^{(n_l)} \cdot \frac{\partial}{\partial z_i^{n_l-1}}\sum_{k=1}^{S_{n_l-1}}f(z_k^{n_l-1}) \cdot W_{jk}^{n_l-1}\right) \\&= \sum_{j=1}^{S_{n_l}} \delta_j^{(n_l)} \cdot W_{ji}^{n_l-1} \cdot f'(z_i^{n_l-1}) = \left(\sum_{j=1}^{S_{n_l}}W_{ji}^{n_l-1}\delta_j^{(n_l)}\right)f'(z_i^{n_l-1})\end{align}

将上式中的

\textstyle n_l-1
\textstyle n_l-1

\textstyle n_l
\textstyle n_l

的关系替换为

\textstyle l
\textstyle l

\textstyle l+1
\textstyle l+1

的关系,就可以得到:

\delta^{(l)}_i = \left( \sum_{j=1}^{s_{l+1}} W^{(l)}_{ji} \delta^{(l+1)}_j \right) f'(z^{(l)}_i)
\delta^{(l)}_i = \left( \sum_{j=1}^{s_{l+1}} W^{(l)}_{ji} \delta^{(l+1)}_j \right) f'(z^{(l)}_i)

以上逐次从后向前求导的过程即为“反向传导”的本意所在。

  1. 计算我们需要的偏导数,计算方法如下 :
\begin{align}\frac{\partial}{\partial W_{ij}^{(l)}} J(W,b; x, y) &= a^{(l)}_j \delta_i^{(l+1)} \\\frac{\partial}{\partial b_{i}^{(l)}} J(W,b; x, y) &= \delta_i^{(l+1)}.\end{align}
\begin{align}\frac{\partial}{\partial W_{ij}^{(l)}} J(W,b; x, y) &= a^{(l)}_j \delta_i^{(l+1)} \\\frac{\partial}{\partial b_{i}^{(l)}} J(W,b; x, y) &= \delta_i^{(l+1)}.\end{align}
神经网络--反向传播详细推导过程
神经网络--反向传播详细推导过程

最后,我们用矩阵-向量表示法重写以上算法。我们使用“

\textstyle \bullet
\textstyle \bullet

” 表示向量乘积运算符(在Matlab或Octave里用“.*”表示,也称作阿达马乘积)。若

\textstyle a = b \bullet c
\textstyle a = b \bullet c

,则

\textstyle a_i = b_ic_i
\textstyle a_i = b_ic_i

。在上一个教程中我们扩展了

\textstyle f(\cdot)
\textstyle f(\cdot)

的定义,使其包含向量运算,这里我们也对偏导数

\textstyle f'(\cdot)
\textstyle f'(\cdot)

也做了同样的处理(于是又有

\textstyle f'([z_1, z_2, z_3]) = [f'(z_1), f'(z_2), f'(z_3)]
\textstyle f'([z_1, z_2, z_3]) = [f'(z_1), f'(z_2), f'(z_3)]

)。

那么,反向传播算法可表示为以下几个步骤:

  1. 进行前馈传导计算,利用前向传导公式,得到
\textstyle L_2, L_3, \ldots
\textstyle L_2, L_3, \ldots

直到输出层

\textstyle L_{n_l}
\textstyle L_{n_l}

的激活值。

  1. 对输出层(第
\textstyle n_l
\textstyle n_l

层),计算:

\begin{align}\delta^{(n_l)}= - (y - a^{(n_l)}) \bullet f'(z^{(n_l)})\end{align}
\begin{align}\delta^{(n_l)}= - (y - a^{(n_l)}) \bullet f'(z^{(n_l)})\end{align}
  1. 对于
\textstyle l = n_l-1, n_l-2, n_l-3, \ldots, 2
\textstyle l = n_l-1, n_l-2, n_l-3, \ldots, 2

的各层,计算:

\begin{align}\delta^{(l)} = \left((W^{(l)})^T \delta^{(l+1)}\right) \bullet f'(z^{(l)})\end{align}
\begin{align}\delta^{(l)} = \left((W^{(l)})^T \delta^{(l+1)}\right) \bullet f'(z^{(l)})\end{align}
  1. 计算最终需要的偏导数值:
\begin{align}\nabla_{W^{(l)}} J(W,b;x,y) &= \delta^{(l+1)} (a^{(l)})^T, \\\nabla_{b^{(l)}} J(W,b;x,y) &= \delta^{(l+1)}.\end{align}
\begin{align}\nabla_{W^{(l)}} J(W,b;x,y) &= \delta^{(l+1)} (a^{(l)})^T, \\\nabla_{b^{(l)}} J(W,b;x,y) &= \delta^{(l+1)}.\end{align}

实现中应注意:在以上的第2步和第3步中,我们需要为每一个

\textstyle i
\textstyle i

值计算其

\textstyle f'(z^{(l)}_i)
\textstyle f'(z^{(l)}_i)

。假设

\textstyle f(z)
\textstyle f(z)

是sigmoid函数,并且我们已经在前向传导运算中得到了

\textstyle a^{(l)}_i
\textstyle a^{(l)}_i

。那么,使用我们早先推导出的

\textstyle f'(z)
\textstyle f'(z)

表达式,就可以计算得到

\textstyle f'(z^{(l)}_i) = a^{(l)}_i (1- a^{(l)}_i)
\textstyle f'(z^{(l)}_i) = a^{(l)}_i (1- a^{(l)}_i)

最后,我们将对梯度下降算法做个全面总结。在下面的伪代码中,

\textstyle \Delta W^{(l)}
\textstyle \Delta W^{(l)}

是一个与矩阵

\textstyle W^{(l)}
\textstyle W^{(l)}

维度相同的矩阵,

\textstyle \Delta b^{(l)}
\textstyle \Delta b^{(l)}

是一个与

\textstyle b^{(l)}
\textstyle b^{(l)}

维度相同的向量。注意这里“

\textstyle \Delta W^{(l)}
\textstyle \Delta W^{(l)}

”是一个矩阵,而不是“

\textstyle \Delta
\textstyle \Delta

\textstyle W^{(l)}
\textstyle W^{(l)}

相乘”。下面,我们实现批量梯度下降法中的一次迭代:

  1. 对于所有
\textstyle l
\textstyle l

,令

\textstyle \Delta W^{(l)} := 0
\textstyle \Delta W^{(l)} := 0

,

\textstyle \Delta b^{(l)} := 0
\textstyle \Delta b^{(l)} := 0

(设置为全零矩阵或全零向量)

  1. 对于
\textstyle i = 1
\textstyle i = 1

\textstyle m
\textstyle m

  1. 使用反向传播算法计算
\textstyle \nabla_{W^{(l)}} J(W,b;x,y)
\textstyle \nabla_{W^{(l)}} J(W,b;x,y)

\textstyle \nabla_{b^{(l)}} J(W,b;x,y)
\textstyle \nabla_{b^{(l)}} J(W,b;x,y)

  1. 计算
\textstyle \Delta W^{(l)} := \Delta W^{(l)} + \nabla_{W^{(l)}} J(W,b;x,y)
\textstyle \Delta W^{(l)} := \Delta W^{(l)} + \nabla_{W^{(l)}} J(W,b;x,y)

  1. 计算
\textstyle \Delta b^{(l)} := \Delta b^{(l)} + \nabla_{b^{(l)}} J(W,b;x,y)
\textstyle \Delta b^{(l)} := \Delta b^{(l)} + \nabla_{b^{(l)}} J(W,b;x,y)

  1. 更新权重参数:
\begin{align}W^{(l)} &= W^{(l)} - \alpha \left[ \left(\frac{1}{m} \Delta W^{(l)} \right) + \lambda W^{(l)}\right] \\b^{(l)} &= b^{(l)} - \alpha \left[\frac{1}{m} \Delta b^{(l)}\right]\end{align}
\begin{align}W^{(l)} &= W^{(l)} - \alpha \left[ \left(\frac{1}{m} \Delta W^{(l)} \right) + \lambda W^{(l)}\right] \\b^{(l)} &= b^{(l)} - \alpha \left[\frac{1}{m} \Delta b^{(l)}\right]\end{align}

现在,我们可以重复梯度下降法的迭代步骤来减小代价函数

\textstyle J(W,b)
\textstyle J(W,b)

的值,进而求解我们的神经网络。

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/138844.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022年5月6,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 概述
  • 神经网络模型
  • 反向传导算法
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档