前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >数值优化(3)——线搜索中的步长选取方法,线性共轭梯度法

数值优化(3)——线搜索中的步长选取方法,线性共轭梯度法

作者头像
学弱猹
发布2021-08-09 16:35:03
1.4K0
发布2021-08-09 16:35:03
举报
文章被收录于专栏:学弱猹的精品小屋

上一节笔记传送门:https://zhuanlan.zhihu.com/p/121001066

————————————————————————————————————

大家好!

我们在上一节花了很多篇幅介绍了线搜索中,步长选取条件的收敛性。那么在这一节,我们会开始关注线搜索中,如何实操中设计不同步长选取条件算法,并且还会关注线搜索中初始步长的选取。当然了,这些部分没有太多的理论性,因此不会占据太长的时间,所以我们可能还会介绍一下优化中的共轭梯度法

那么我们开始吧。

目录

  • 回溯法多项式插值
  • Strong-Wolfe条件下的多项式插值
  • 初始步长选取——BB步长
  • 非单调下降迭代法简介
  • 共轭梯度法
    • 线性情形

Source

  • J. Nocedal, S. J. Wright, Numerical Optimization
  • J. Barzilai and J. M. Borwein, Two-Point Step Size Gradient Methods
  • 课堂笔记,教授主页:https://www.math.fsu.edu/~whuang2/

回溯法多项式插值

我们在上一节主要介绍了线搜索算法的收敛性,同时我们给出了最速下降法(也叫梯度下降法)的一个算法模板。那么为什么这一节还要在这上面花篇幅呢?事实上我们把我们之前的话反过来说,就是优化具有很强的理论性,但是同样具有很强的实用性。也就是说,如果我们没有考虑到实际应用中所面对的问题,那么一样不能够算学好了优化。因此仅仅通过回溯法(backtracking)去寻找步长自然是不够的,我们还有一些其他的方法可以用来帮助我们选取步长。事实上我们只需要知道这些方法在实操中具有很好的效果就足够了,因为他们的理论比较超纲,掌握并没有太大的必要(事实上在优化中,这样的情况非常常见)。也因此在这一部分,虽然我们的内容量不如之前的理论那么多,也不会有理论部分那么详细,但是其最重要的部分在于实操,也因此在这一块,寻找数值例子和编程才是最重要的。

好的,我们回到我们的正题,也就是插值法。为什么使用插值法呢?这是使用了一个插值逼近的思想。假如说我们有一些点,那么通过这一些点就可以做插值,得到一条曲线。这一条曲线就可以算是插值函数。如果我们只有点本身的信息(比方说

(x_1, f(x_1))

),那么这就是拉格朗日插值,如果还会利用上这个点导数的信息,那么这就是埃尔米特插值(注意Hermite的开头字母H是不发音的)插值函数可以用来逼近我们的实际的函数曲线。

现在我们考虑我们构造的函数

h(\alpha) = f(x +\alpha p)

,其中

\alpha

为步长,

x

为当前迭代点,

p

为搜索方向。并且我们有了一个初始步长

\alpha_1

(如果是我们的上一节所提到的A-G条件对应的步长,这个初始步长就是1)。那么这样的话实际上我们有了3个信息:

h(0), h'(0), h(\alpha^{(0)})

这是一个带有函数导数的值,所以通过埃尔米特插值,我们可以得到一个二次函数。我们也会用这个二次函数来近似我们的

h(\alpha)

[0, \alpha^{(0)}]

上的行为。

有了插值函数之后,我们希望取插值函数所对应的最小值点作为我们的步长。这是因为我们的思想就是用插值函数来代替我们的原始的函数

h(\alpha)

,那么插值函数对应的最小值点,我们也认为

h(\alpha)

的最小值点(当然一般来说,实际情况不是这样)。换句话说,我们的这个步长,可以使得我们的函数值局部上下降的最多,那我们自然就认为它容易满足步长选取条件。这就一定程度上降低了我们选取步长的困难。

下面这一张图直观地展示了我们的想法

当然这并没有结束,我们只是找到了一个合适的值,但是还要做一些处理。比方说如果我们是以回溯法作为步长选取条件,那么一般来说我们的下一个选取的步长是

\alpha^{(1)} = \min (\max(\tau_1 \alpha^{(0)}, \alpha^{(1)}), \tau_2 \alpha^{(0)})

(理解这里的=为计算机编程里的赋值),这里的

\tau_1, \tau_2

就是对应的选取步长的上下界,不清楚的可以参考第一节。

当然,我们不会那么好运,即使这样,我们的步长也有可能不会被接收。但是没有关系,因为这个时候,我们就又多了一个信息

h(\alpha^{(1)})

,也就是说我们可以用来插值的点变成了4个,即

h(0), h'(0), h(\alpha^{(0)}), h(\alpha^{(1)})

这样的话通过埃尔米特插值,我们就可以得到一个三次函数,这个三次函数我们也可以取最小值点,作为我们的步长

\alpha^{(2)}

当然了,即使是使用三次函数,你也有可能失败。那么难道我们要开始使用四次函数了吗?其实不必,因为四次函数的最小值点无法再解析表示了。如果要数值上求解,其复杂度就远远超出了我们这里的要求。所以我们还是使用三次函数的插值,也就是说,我们**抛弃最开始的点

h(\alpha^{(0)})

。**只考虑这四个点

h(0), h'(0), h(\alpha^{(1)}), h(\alpha^{(2)})

然后通过三次插值,寻找最小值点,得到我们的步长

\alpha^{(3)}

,以此类推即可。

我们坚持使用三次函数的原因就是我们可以直接通过表达式找到我们的最小值点。具体的可以看下面这张图,这张图的标记会和我们前面的说法不太一样,大家注意区分。

Strong-Wolfe条件下的多项式插值

我们在之前有讨论过在A-G条件下的多项式插值。那么对于Strong-Wolfe条件,因为多了一个不等式(在这里我们为了方便,记它为curvature条件),所以对应的算法就变得复杂了很多。但是如果我们能够说清楚Strong-Wolfe条件的算法,那么对于Weak-Wolfe条件自然也就不在话下。

和之前我们插值寻找点不同,这里我们的思路是先寻找区间。具体来说就是

  1. 找到存在步长的区间
(\alpha_{low}, \alpha_{up})
  1. 缩短区间

这里我们逐一介绍各种情况以理清算法的思路。

Case 1: 选取的步长

\alpha_0

不满足Armijo条件。

图示如下

这个时候,点一定是在

h(\alpha)

l(\alpha)

的交点右侧,所以我们要缩短区间,就是设置

\alpha_{up}

\alpha_0

即可。

Case 2: 选取的步长

\alpha_0

满足Armijo条件,但是不满足Strong-Wolfe条件,且

\alpha_0

在右侧。

图示如下

这个时候对应的条件就是

h'(\alpha_0) > 0

,同样的根据图片你也能看出来,也是设置

\alpha_{up} = \alpha_0

Case 3: 选取的步长

\alpha_0

满足Armijo条件,但是不满足Strong-Wolfe条件,且

\alpha_0

在左侧。

图示如下

这个时候对应的条件就是

h'(\alpha_0) < 0

,同样的根据图片你也能看出来,也是设置

\alpha_{low} = \alpha_0

Case 4: 在

\alpha_{low}

已选取之后,新的步长仍然不满足Strong-Wolfe条件,且

\alpha_0

在右侧。

图示如下

这个条件其实是为了加速使用的,很明显这个时候,步长也是太大了,设置

\alpha_{up} = \alpha_0

即可。

到此我们再给出算法的具体信息其实就会比较好理解了。也就是说我们有了缩短区间的这些想法之后,剩下的也就是插值法了。完整算法如下

读者可以有空在软件上自己实现这一个算法(数值领域最有名的当然还是Matlab,当然Python的数值计算包也可以,Fortran太古老了……),毕竟优化如果只关注理论而不进行实操,那最多也只算学会了一半

初始步长选取——BB步长

最后我们来提一下线搜索中的初始步长选取策略。

我们在回溯法中有说过,我们会先选取一个初始的步长为1,然后每一次都缩小一些,直到满足Armijo条件即可。但是有个问题是,这个“初始的步长”是不是一定要为1?答案显然是否定的。也就是说,我们可以考虑一些其他的方法,使得步长一开始就是一个我们给定的算法得到的值。如果我们的初始步长取得很好,那么即使是在最简单的回溯法中,也可以大幅度减少我们步长选取的迭代步数,这自然就会加快我们的收敛速度。

这一部分我们不会给出理论证明,而只是在数值上提供一些视角。

我们主要说的就是Barzilai-Borwein步长,也叫BB步长,这个步长有两种选取方法,分别为

\alpha_{k+1}^{BB1} = \frac{s_k^T s_k}{s_k^T y_k}
\alpha_{k+1}^{BB2} = \frac{s_k^T y_k}{y_k^T y_k}
s_k = x_{k+1} - x_k

,

y_k = g_{k+1} - g_k

一般来说,我们称BB2这个步长为短步长,而BB1这个步长为长步长。这是因为根据Cauchy不等式,容易得到

(s_k^T y_k)^2 \le (s_k^T s_k)(y_k ^ T y_k)

因此可以发现

\alpha_{k+1}^{BB2} \le \alpha_{k+1}^{BB1}

仅仅是长步或者短步那么简单吗?答案也不完全是,事实上,容易证明的是下面这个性质。

Proposition 1:

\alpha_{k}^{BB1} = \arg \min_{\alpha}f(x_{k-1} - \alpha \nabla f(x_{k-1}))

这里我们给出一个二次凸问题情况下的证明作为理解即可,更加一般的版本可以参考一下原始论文。

如果是二次凸问题,那么对应的优化问题就是

f(x) = \frac12 x^T A x

,对应的

\nabla f(x) = Ax

,其中

A

是对称正定矩阵,因此我们可以直接考虑我们要关心的函数,然后把它写成

f(x_{k-1} - \alpha \nabla f(x_{k-1})) = \frac12 x_{k-1}^T (I - \alpha A)A (I - \alpha A)x_{k-1}

因为函数是一个关于

\alpha

的二次函数,所以直接通过二次函数的极小值点公式就可以得到我们的表达式

\alpha^{BB1}_{k} = \frac{x_{k-1}^T A^2 x_{k-1}}{x_{k-1}^T A^3 x_{k-1}} = \frac{g_{k-1}^T g_{k-1}}{g_{k-1}^T A g_{k-1}}

注意到因为我们有

g_{k-1} = A x_{k-1}

,而上下又是其次的,所以将

g_{k-1}

换成

s_{k-1}

也是没有问题的(想想为什么),这就证明了结论。

我们可以看出来,对于BB长步长,它的本质就是寻找当前迭代的上一步的精确步长,也就是在当前方向下所能够达到的最小值对应的步长。

如果是BB短步长,那么也可以得到一个类似的结果。

Proposition 2:

\alpha_{k}^{BB1} = \arg \min_{\alpha}\| \nabla f(x_{k-1} - \alpha \nabla f(x_{k-1}))\|^2

这又是为什么呢?这是因为,如果我们写开我们的表达式,会得到

\nabla f(x_{k-1} - \alpha \nabla f(x_{k-1})) = \frac12 x_{k-1}^T (I - \alpha A)A^2 (I - \alpha A)x_{k-1}

因为结构上的惊奇的相似性,我们可以得到

\alpha^{BB1}_{k} = \frac{x_{k-1}^T A^3 x_{k-1}}{x_{k-1}^T A^4 x_{k-1}} = \frac{g_{k-1}^T A g_{k-1}}{g_{k-1}^T A^2 g_{k-1}} = \frac{s_k^T y_k}{y_k^T y_k}

可以这么写的理由和上面是相同的。

回头再看,对于BB短步长,它的本质就是寻找当前迭代上一步在目前搜索方向上的梯度最小值。从直觉上来看,这样子会使得步长更容易被接收,毕竟这也是我们的优化目标嘛。

事实上,BB步长不一定是正数,不过如果配合Wolfe条件,这个问题就不存在了。我们当成一个性质来说明。

Proposition 3: 在Wolfe条件下,BB长短步长恒正。

我们观察一下BB步长,

s_k^T s_k, y_k^T y_k

为正自然不必多说。所以关键就是看

s_k^T y_k

是否为正。

注意到,Wolfe条件多了一个不等式为

\nabla f(x_{k+1})^T p_k \ge c_2 \nabla f(x_k)^T p_k

那么这样的话,简单计算即可得到

(\nabla f(x_{k+1}) - \nabla f(x_k))^T \alpha_k p_k \ge (c_2 - 1)\nabla f(x_k)^T \alpha_k p_k >0

这是因为

p_k

是下降方向,同时

c_2 < 1

。注意到左边其实就是

s_k^T y_k

,所以我们也就得到结论了。

最后我们简单提一下它的使用。虽然BB步长经验性很好,但是很明显,如果是迭代的第一步,那肯定是不能使用的。同时BB步长是否可以被很快接收,也会影响到我们的算法效率,因此我们还会加一些其他的保障。有一个之前提到的就是插值的保障

如果我们考虑让步长选取为

h_{k-1}(0), h_{k-1}'(0), h_{k}(0)

这三个值所得到的二次函数,这个时候可以得到步长为

\alpha_k^{(0)} = \frac{-h_{k-1}'(0)(\alpha_{k}^{(0)})^2}{2(h_{k}(0) - h_{k-1}(0) - h_{k-1}'(0)\alpha_k^{(0)})}

左边是我们要的步长,右边就是我们可以得到的最小值点的表达式。解这个等式就可以得到

\alpha_k^{(0)} = \frac{2 (h_k(0) - h_{k-1}(0))}{h'_{k-1}(0)}

这个可以作为我们的其中一个保障值。也就是说我们的BB步长并不是每一次都直接使用的,而是要做这样的一步处理。

\alpha_{k}^{(0)} = \max(\min(\alpha_k^{BB2}, \omega_2\tilde \alpha_k^{(0)}), \omega_1 \tilde \alpha_k^{(0)})

这里的

\tilde \alpha_k^{(0)}

就是我们的保障值,可以是上面那个,也可以是1。这里的

\omega_1,\omega_2

就是对应的保障参数。一般来说

\omega_1

会取得很小,

\omega_2

会取得很大,基本的思路就是要我们的步长有一个硬性的上下界,确保我们的优化可以进行下去。

事实上包括我们之前所说的BB步长是否为正的问题,有了这个硬性的上下界之后,配合A-G条件使用也不会有太大的问题。

非单调下降迭代法简介

对于我们之前的线搜索方法而言,我们的每一步都在寻找下降方向,但是我们归根到底,还是希望我们的每一步都能够有一个充分的下降。但是如果我们去掉这个条件,能不能够得到一个好的优化算法呢?答案其实依然是可以的。它的算法非常简单,只是修改了我们的Armijo条件中的一小部分,具体的算法图如下

你可以看到,我们这里使用了回溯法,一个最关键的地方就在于条件

f(x_k - \alpha_k \nabla f(x_k)) \le \max (f(x_k), f(x_{k-1}), \cdots, f(x_{k-m+1})) + c_1 \alpha_k h_k'(0)

这个条件就告诉了我们,我们每一次不再参考上一次的步长值,而参考之前所有步步长的最大值。这个情况下,理论上有证明依然可以收敛,但是它不再会产生一个单调下降的序列。

事实上,非单调下降迭代法具有更高的计算精度。要解释这个,我们首先要来观察一下正常的线搜索方法的精度问题。

注意到无论是A-G条件,还是Wolfe条件,我们都会遇到Armijo条件。如果说步长为

\alpha

的话,那么一定有不等式

h(\alpha) \le h(0) + c_1 \alpha h'(0)

这个时候你可以发现,如果说

h'(0)

的值接近了机器精度(换句话说,在计算机内计算到时候,它的数值为

O(eps)

这样的级别),那么这个时候,

h(\alpha)

h(0)

的差距就微乎其微了,也就是说不等式的计算就会有巨大的数值误差。而在梯度下降法中,因为我们有

h'(0) = p^T \nabla f(x) = -\|\nabla f(x)\|^2

,因此我们实际上可以发现,虽然我们要求最终的

\nabla f(x) = 0

,但是如果按照A-G条件去走,最后只能计算到

\nabla f(x) \sim O(\sqrt{eps})

对于Matlab来说,

eps \simeq 10^{-16}

,也就是说计算到

\nabla f(x) \simeq 10^{-8}

的时候,就应该停止了。这样的精度我们是不太满意的,毕竟

O(eps)

O(\sqrt{eps})

还是有很大的差距的。但是注意到如果是非单调下降方法,右边的

h(0)

就会变成“迭代前几步中的最大值”,因此数值误差不会太容易出现(因为相邻两步的差距微乎其微,不代表中间相隔了很多步的差距依然是微乎其微)。

下面是一个非单调下降法的迭代实例图

你也能看出来,虽然我们没有每一步都下降,但是依然可以保证最后能够使得我们的梯度下降到我们想要的值。

到此,非常一般的线搜索方法我们算是介绍完毕了。值得强调的是,线搜索方法既可以是一个具体的方法,也可以是一个框架。我们在之后学习具体的算法的时候,也会回来使用线搜索的框架来进行应用。下面这两张图给出了几个常见算法的搭配在二次凸问题上的比较,从此也可以看出每个算法的不同的特点。

第一张图可以看出来,如果我们采用BB步长,可以大幅度的减少我们的迭代次数。

第二张图可以看出来非单调线搜索方法可以很好地使得算法获得更高的精度。这里因为我们的

m

取得非常的大,所以可以看到回溯法的曲线保持的非常的平稳,也可以看到它确实在近似

\sqrt{eps}

的地方就无法再下降了。当然了,对于实际的问题,不同的方法可能会有不同的效果。

共轭梯度法

下面我们来关注优化中的另外一个重要的算法:共轭梯度法(Conjugate Gradient)。虽然名字叫共轭梯度法,但是实际上这个算法完全没有引入“共轭梯度”这样的概念……

与之前所说的线搜索不同,共轭梯度法的关键在于修改方向。考虑一下之前所说的最速下降法,如果我们的初始点取得很不好,或者函数的性质不好,就很容易出现迭代步数过多的问题,下面的这张图就展现了这种情况。

这里的每一条线都是切线,换句话说我们每一步都是精确步长。但是你可以看到实际上的迭代效果并不显著,曲线也显得歪歪扭扭。

但是如果我们使用了共轭梯度法,能够使得我们的迭代步长经过选取之后能够大大降低我们的迭代步数,那自然就可以很好的解决我们上面的问题。为了解释这个方法,我们会先考虑线性情况,再将这个思想推广到非线性的情形。

线性情形

线性情形的含义就是考察一个线性系统的优化问题,比方说二次凸问题的一般形式

\min_{x \in \mathbb R^n} \frac 12 x^T A x - b^T x

,也就是说我们考虑一个

n

维的欧氏空间。如果求梯度,并令梯度为0的话,就对应

Ax = b

(如果忘记了求梯度的方法就得回到第一节去看看技巧了)。

那么在这里,我们的共轭梯度法,其核心,就是希望能够取一系列的共轭方向

\{p_0, p_1, \cdots, p_{n-1}\}

,使得下面的条件满足

p_i ^ T A p_j = 0, \forall i \ne j

(我们一般称为共轭性

然后我们重复

n

次,每一次按照下面的规则进行迭代

x_{k+1} = x_k + \alpha_k p_k
\alpha_k = -\frac{r_k^T p_k}{p_k^T A p_k}

,

r_k = A x_k - b

这里的

\alpha_k

取得是精确步长,具体精确步长的定义可以参考上面BB步长介绍的部分。这个方法也被称为共轭方向法

这个方法为什么奏效呢?是因为下面这个定理。

Theorem 1: 给定任意的初始步长

x_0 \in R^n

,那么

\{x_k\}

最多

n

步就会收敛到解

x^*

我们证明一下这个结论。首先要观察到,如果我们完整走完这个迭代,那么在第

n

步,我们就会得到

x_n = x_0 + \alpha_0 p_0 + \cdots + \alpha_{n-1} p_{n-1}

也就是说我们可以得到一个

\{p_0, \cdots, p_{n-1}\}

的线性表出为

x_n - x_0

。因为我们的所有的共轭方向相互之间是线性无关的(这是一个非常简单的高等代数习题,我们留给读者思考),所以我们有一个思路是考虑证明它与

x^* - x_0

坐标在这个基

\{p_0, \cdots, p_{n-1}\}

下是相同的

现在我们假设

x^* - x_0 = \sigma_0 p_0 + \cdots + \sigma_{n-1}p_{n-1}

,那么利用上共轭性,左乘

p_k^T A

,就可以得到

\sigma_k = \frac{p_k^T A(x^* - x_0)}{p_k^T A p_k}

这个结论得到之后,我们联想到

\alpha_k = -\frac{r_k^T p_k}{p_k^T A p_k}

,而经过简单的运算,又可以得到

r_k = Ax_k - b = A(x_k - x^*)

所以代入我们可以写成

\alpha_k = \frac{p_k^T A(x^* - x_k)}{p_k^T A p_k}

所以我们只需要说明,在

k \le n-1

的情况下,我们有

p_k^T A x_k = p_k^T A x_0

即可,而这个只需要注意到式子

x_k = x_0 + \alpha_0 p_0 + \cdots + \alpha_{k-1} p_{k-1}

(只是把前面的式子下标改成了

k

)再左乘

p_k^T A

即可,也就完成了证明。这里还是要利用共轭性,读者写一下很容易就能看出来。

你可以看出来,共轭梯度法的核心就是希望选取一系列的共轭方向,使得共轭性得到满足。而这个算法是通过之前一步的搜索方向,来得到当前的搜索方向,使得共轭性能够得到满足。简单来说就是

p_k = - r_k + \beta_k p_{k-1}

,

p_k^T A p_{k-1} = 0
p_0 = b - Ax_0

也就是说,除了第一步的搜索方向仍然是负梯度方向以外,之后的方向就会根据那个公式来进行更新,这里的

r_k = Ax_k - b

,而

\beta_k

的选取就是希望共轭性能够满足,具体的公式会放到之后一起说。

如果要说明这个算法奏效,那么下面这个定理自然是跑不掉的。

Theorem 2: 设线性共轭梯度法的第

k

步迭代的结果

x_k

不是解,那么有以下结论成立 (1)

\operatorname{span} (r_0, r_1, \cdots, r_k) = \operatorname{span}(r_0, Ar_0, \cdots, A^k r_0)

(2)

\operatorname{span}(p_0, p_1, \cdots, p_k) = \operatorname{span}(r_0, Ar_0, \cdots, A^k r_0)

(3)

r_k^T p_i = 0, \forall i < k

(4)

p_k^T Ap_i = 0, \forall i < k

要说明这个大定理需要很多步骤,但是每一步都容易想到。我们一个一个来看。

对于第一个,首先注意到

r_0 = - p _0

,所以对于

x_1

,我们有

x_1 = x_0 - \alpha_0 p_0

,左右乘

A

再减去

b

也就自然容易推出

r_1 = r_0 - \alpha_0 A p_0 = r_0 + \alpha_0 A r_0

有了这个式子就自然可以得到

k = 1

的情形。

而对于一般的情形,我们只需要采取相同的策略,考虑

x_{k+1} = x_k - \alpha_k p_k

,这样的话就可以得到

r_{k+1} = r_k - \alpha_k A p_k

有了这个递推式,事实上可以看到,

r_{k+1}

所属的线性空间,是由

r_k, Ap_k

来决定的,所以我们再来看看

p_k

的情况。

k = 1

时,我们有

p_1 = -r_1 + \beta_0 r_0

,因此可以得到的是

\operatorname{span}(p_0, p_1) = \operatorname{span}(r_0, r_1) =\operatorname{span}(r_0, Ar_0)

所以你可以发现,如果我们讨论

r_2

,那么容易得到它所属的线性空间是由

r_1, A p_1

决定的,也就是说

\operatorname{span}(r_0, r_1, r_2) = \operatorname{span}(r_0, r_1, Ap_1) = \operatorname{span}(r_0, Ar_0, A^2r_0)

然后再看

p_2

的表达式可以得到它是由

r_2, r_1

决定的,所以可以得到

\operatorname{span}(r_0, r_1, r_2) = \operatorname{span}(p_0, p_1, p_2 )

所以实际上我们相当于通过递推得到了一个相互关联的证明链。也就可以通过归纳原理直接得到前两个结论的证明。换句话说我们虽然刚开始只想证明第一个,但可以通过观察法和分析法直接得到两个小结论的证明。

下面来考虑一下第三个性质。事实上这个性质肯定也是要考虑到我们的步长是精确步长。也就是说它满足

\frac{d}{dt} f(x_{k-1} + tp_{k-1})|_{t = \alpha_{k-1}} = 0

把它化简开就可以得到

\nabla f(x_{k-1} + \alpha_{k-1} p_{k-1})^T p_{k-1} = 0 = \nabla f(x_k)^ T p_{k-1}

注意到在线性问题中,

r_k = \nabla f(x_k)

,因此我们可以得到

r_k^T p_{k-1} = 0

,而又因为我们有

r_{k+1}^T p_i = (r_k - \alpha_k A p_k)^T p_i = r_k ^T p_i

(注意

p_i

之间的正交性)就可以得到,假如说有

r_k^T p_i = 0, \forall i < k

,那么一定有

r_{k+1}^T p_i = 0, \forall i < k

,结合上

r_{k+1}^T p_k = 0

即可得到结论成立。

接下来我们就只差最后一个性质了。注意我们之前说过,

\beta_k

的设立就是为了使得

p_{k}^T A p_{k+1} = 0

成立。所以我们采用同样的套路,如果我们有

p_k^T A p_i = 0, \forall i < k

成立,那么只需要再证明

p_{k+1}^T A p_i = 0, \forall i < k

成立即可。

利用迭代的更新公式,我们可以得到

p_{k+1}^T A p_i = -r_{k+1}^T A p_i

要说明这一项为0,只需要考虑

Ap_i

所在的线性空间,再观察

r_{k+1}

是否与这个空间正交即可。而注意到

Ap_i

所属的线性空间是由

Ar_i, Ar_{i-1}

所决定的,那么写开就不难得到

Ap_i \in \operatorname{span}(Ar_0, \cdots, A^{i+1}r_0) = \operatorname{span}(p_0, \cdots, p_{i+1})

注意我们的前两个性质即可。而这个等价性只需要再结合第三个性质,我们就证明好了这个结论。

我们在整个证明中事实上用到了相当多的高代中线性空间的这一套语言。下面这个性质我们也可以通过这一套语言来给出一个大致的证明。

Proposition 4:

x_k

是函数

f(x) = \frac12 x^T A x - b^T x

x_0 + \operatorname{span}(p_0, \cdots, p_{k-1})

这个空间上的最小值。

我们注意到,

\{p_i\}

是一组正交基,用线性空间的语言来说,它们每一维的信息都相互独立。因此我们如果在一个维度上使得函数的表现最优化了,就可以不用再管这个维度,而是再考虑剩下的维度。而线性共轭梯度法也正是这么做的(它每一步都取了精确步长),所以直观上很好理解这个结论。当然了,严格的证明就要严格的走线性表示的写法,通过求偏导的方式来解决。

这个性质事实上就是说,如果我们考虑一个

n

维的线性问题,那么不难得到这个迭代

n

步即可收敛

好了,到此我们已经算是将共轭梯度法的核心思想介绍完毕了。但是共轭梯度法的完整算法还没有给出,我们会在下一节再继续说。

小结

本节我们关注了线搜索方法中步长选取的插值法与初始步长选取的重要方法。线搜索方法最关心的就是步长的选取,而这一节所提到的思路和方法,也是优化中用的最多,最经典的一些方法。除此之外,我们还给共轭梯度法开了一个头,介绍了一下线性共轭梯度法。事实上线性共轭梯度法的良好性质,引导了我们之后去介绍非线性共轭梯度法,不过篇幅有限,我们就只能下一节继续说了。

因为毕业论文答辩时间临近,近期这个系列可能会更新的很慢很慢,也请大家谅解。待毕业论文完成之后再回来写这一部分的笔记。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-04-13,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 学弱猹的精品小屋 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 目录
  • Source
  • 回溯法多项式插值
  • Strong-Wolfe条件下的多项式插值
  • 初始步长选取——BB步长
  • 非单调下降迭代法简介
  • 共轭梯度法
    • 线性情形
    • 小结
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档