前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >​通俗科普文:贝叶斯优化与SMBO、高斯过程回归、TPE

​通俗科普文:贝叶斯优化与SMBO、高斯过程回归、TPE

作者头像
beyondGuo
发布2022-03-28 18:25:33
1.7K0
发布2022-03-28 18:25:33
举报
文章被收录于专栏:SimpleAISimpleAI

贝叶斯优化是AutoML中的重要概念,近年来变得很火热。作为一种重要的基于先验的调参/策略选择技术,贝叶斯的应用范围也很广。但这个概念对于初次接触的同学可能较难理解,经过数天的论文研读、博客/教程/代码查阅,我总结了这篇科普文,也手绘了一些示意图,希望尽量在一篇文章内、通俗易懂地讲清楚什么是贝叶斯优化

本文目录:

  1. 理清基本概念的关系
  2. 各种超参数调节方法的对比
    • Grid Search & Random Search
  3. 贝叶斯优化/SMBO的基本流程
    • SMBO
    • 对历史观测进行建模
    • Acquisition function / Expected Improvement (EI)
  4. 不同的概率分布建模策略
    • ① 基于GPR的贝叶斯优化
    • ② 基于TPE的贝叶斯优化
  5. GPR vs. TPE
  6. 总结

0. 理清基本概念的关系

在开始看,我们先澄清几个该领域常见的容易混淆的概念:

AutoML, Bayesian Optimization (BO), Sequential Model Based Optimisation (SMBO), Gaussian Process Regression (GPR), Tree Parzen Estimator (TPE).

这些概念是啥关系呢:

AutoML BO SMBO {GPR, TPE}

AutoML是最大的一个概念,涵盖了贝叶斯优化(Bayesian Optimization, BO)、神经结构搜索( Neural Architecture Search, NAS)以及很多工程性的东西。AutoML的目标就是让没有机器学习(这里包括深度学习)经验的人,可以使用某一个平台来构造、训练、使用机器学习模型,这个平台负责进行数据管理、模型结构设计、模型超参数调节、模型的评估与使用等等。

本文,也是我们搞深度学习的同学最关心的,就是模型超参数调节(hyper-parameter tuning)了。下面的所有概念都是围绕这个展开的。

贝叶斯优化(BO)则是AutoML中进行超参数调节的一种先进的方法,并列于人工调参(manul)、网格搜索(Grid Search)、随机搜索(Rrandom Search)。

SMBO是贝叶斯优化的一种具体实现方法,是一种迭代式的优化方法,每一次的迭代就是一次新的超参数组合实验,而每次的迭代都是基于前面的历史。其实SMBO可以认为就是BO的标准实现,二者在很多语境下我感觉是可以等价的(这里我其实也不太确定,因为看了很多资料仿佛都是混着用,如果有朋友更清楚麻烦告诉我)。

最后就是Gaussian Process Regression (GPR)Tree Parzen Estimator (TPE) 了,这俩玩意儿是并列的概念,是SMBO方法中的两种建模策略

以上,我们就先理清了这些概念的关系,然后,我们就可以更轻松地学习贝叶斯优化了。

下面,我们主要讲解这几个内容:

  1. 各种超参数调节方法的对比
  2. 贝叶斯优化/SMBO方法的基本流程
  3. 基于GPR的SMBO方法的原理
  4. 基于TPE的SMBO方法的原理

1. 各种超参数调节方法的对比

超参数调节(hyper-parameter tuning),主要有下面四种方法:

  • 人工调参(manul tuning)
  • 网格搜索(grid search)
  • 随机搜索(random search)
  • 贝叶斯优化(Bayesian Optimization)

人工调参就不用说了,跑几组,看看效果,然后再调整继续跑。

Grid Search & Random Search

这里简单对比一下grid search和random search:

Grid Search vs. Random Search 来源:ResearchGate

上面是grid search和random search的示意图。简单地讲,random search在相同的超参数组合次数中,探索了更多的空间(这句话也有歧义,更准确得说应该是每个维度的参数,都尝试了更多的可能),因此从平均意义上看可以比grid search更早得找到较好的区域

Grid Search
Grid Search
Random Search
Random Search

上面这两个图(来自SigOpt)更加清楚一些,比方我们要找一个曲面的最高点,那我们按部就班地地毯式搜索,(有时候)就比我们东一榔头西一棒子地随机找要更慢,从理论上将,random search可以更快地将整个参数空间都覆盖到,而不是像grid search一样从局部一点点去搜索。

但是,grid search和random search,都属于无先验式的搜索,有些地方称之为Uninformed search,即每一步的搜索,都不考虑已经探索的点的情况,这也是grid/random search的主要问题,都是“偷懒式”搜索,闭着眼睛乱找一通。

贝叶斯优化,则是一种informed search,会利用前面已经搜索过的参数的表现,来推测下一步怎么走会比较好,从而减少搜索空间,大大提升搜索效率。 某种意义上,贝叶斯优化跟人工调参比较像,因为我们调参师傅也会根据已有的结果以及自己的经验来判断下一步如何调参。

我们不要一提到贝叶斯就头疼,就预感到一大推数学公式、统计学推导(虽然事实上确实是这样),我们应该换一种思路:看到贝叶斯,就想到先验(prior)信息。 所以贝叶斯优化,就是一种基于先验的优化,一种根据历史信息来决定后面的路怎么走的优化方法。

所以贝叶斯优化的关键在于:用什么样的标准来判断下一步怎么走比较好。

2. 贝叶斯优化/SMBO的基本流程

其实本文的主要内容,来自于超参数优化的经典论文"Algorithms for Hyper-Parameter Optimization",发表在2011年的NIPS上,作者之一是图灵奖得主Yoshua Bengio:

Algorithms for Hyper-Parameter Optimization

该文章介绍了SMBO的基本框架,以及GPR和TPE两种优化策略。

SMBO

SMBO全名Sequential model-based optimization,序列化基于模型的优化。所谓序列化,是指通过迭代的方式,通过一次一次试验来进行优化。SMBO是贝叶斯优化的一种具体实现形式,所以下文中我们可能会直接把SMBO跟贝叶斯优化混着说。

SMBO的框架是这样的:

SMBO框架伪代码

其中各个符号的意思如下:

所以,总体步骤如下:

所以,不同的贝叶斯优化方法,主要区别在:

  • 用何种概率模型对历史进行建模
  • acquisition function如何选

对历史观测进行建模

对历史观测进行概率建模,来源:我自己画的

假设我们已经尝试了一些超参数,也得到了一系列的值(即上图中的),这些点就是上图中的黑点,这些就是我们的历史信息。

我们要优化的目标f,肯定会经过这些历史观测点,但是其他的位置我们是未知的, 有无数种可能的会经过这些点,上图中的每一条虚线,都是可能的f。所以各种可能的会形成一个函数的分布。我们虽然无法准确地知道f的具体形式,但如果我们能够抓住其分布,那我们就可以了解很多该函数的性质,就有利于我们的趋势做一定的判断,从而帮助我们选择超参数。

这就好比对于随机变量,虽然我们抓不住其确切的值,但如果知道其分布的话,那我们就可以得到其均值、方差,也就知道了该变量会在什么样的一个范围内波动,对该随机变量也就有了一定的掌握。

所以,贝叶斯优化中的一个关键步骤,就是对要优化的目标函数进行建模,得到该函数的分布p(y|x)) ,从而了解该函数可能会在什么范围内波动。

另外,我们有了函数的分布,实际上也就有了y在给定x的时候的条件分布:()

y在给定x时会有一个概率分布

当给定一个新的超参数,的取值可以根据给出。

具体的建模方法,最经典的包括高斯过程回归(GPR)和Tree Parzen Estimator(TPE),它们的细节会在后面的部分讲解。

Acquisition function / Expected Improvement (EI)

我们继续看这个例子,假设我们的objective function就是loss,那么我们肯定希望找超参数使得loss最小,那么我们该如何根据该分布,来选择下一个超参数呢?

看下图:

Exploration vs. Exploitation,来源:我自己画的

已经观测到的点中,是最佳的超参数,那我们下一个点往哪个方向找?我们有两种策略:

  • Exploitation(剥削?挖掘?使劲利用?):我们既然发现了最好,那估计周围的点也不错,所以我们在图中的area 1里面搜索;
  • Exploration(探索):虽然处目前来看比较好,但是我们还没有探索到的空间实际还有好多好多,比方说图中的area 2区域,这里面很可能藏着惊喜!

实际上,上面两种策略各有各的道理,我们需要设计一个acquisition function来帮我们进行判断。一种最常用的方案就是Expected Improvement (EI),它是对Exploration和Exploitation做了一个折中。

Expected Improvement (EI)的公式如下:

EI_{y^*}(x) = \int _{-\infty}^{+\infty}max(y^*-y,0)p_M(y|x)dy

其中是某个阈值,EI就是一个期望,该期望是的函数。当给定的时候,EI(x)就是相对于阈值平均提升了多少。(notice:这里我们都默认我们是要minimize目标函数,因此y的降低就是效果的提升;另外,实际上是一个我们需要指定的值,又是一个超参)

也就是,我们首先有一个baseline——,我们就是通过计算EI——相对于的期望提升,来评价一个超参数的好坏。所以,我们下一步要找的超参数,就是:

x_{new} = argmax_{x} EI_{y^*}(x)

EI的公式决定了其偏好于选择均值小的、方差大的区域,因此就体现了"exploration vs. exploitation trade-off".

3. 不同的概率分布建模策略

其实了解了上面的内容,我们基本上对贝叶斯优化就了解的差不多了,接下来就是一些更加细节的内容,即如何对历史观测进行概率分布建模。常用的方案有两种:GPR和TPE。

① 基于GPR的贝叶斯优化

高斯过程回归,是基于高斯过程的贝叶斯推断方法。

高斯过程,就是一个高斯分布的随机过程。我们对x和y做的一个先验假设:每一个对应的,都是一个高斯分布。

那么当我们还没有任何观测点时,实际上服从一个无限维的高斯分布(这里是借用知乎作者@石溪的说法。因为有无限种取法,所以有无限种可能,无数个的多维高斯分布,因此是一个无限维的高斯分布),一般我们假设其均值为0,协方差矩阵则是由我们指定的核函数来给出。这样的分布,就是一个先验分布。借用sklearn的图来辅助说明这个先验分布,它展示了一个高斯过程:

高斯过程的先验分布,来源:sklearn

上图中的黑线就是均值曲线,灰色区域代表一倍标准差范围,而各种虚线则代表从这个先验分布中随机采样得到的函数。

然后我们再来看高斯过程回归,所谓回归,就是根据一些观测点(也可以称为训练数据),来进行一些推断。上面的高斯过程描述了的过程,高斯过程回归就是想基于我们得到的一些观测点来得到条件分布。由于多维高斯分布的良好性质,条件分布也会是一个高斯分布,所以可以根据的分布以及来直接推出,具体就不赘述了。

还是看sklearn的例子,在得到一些观测点之后,我们就可以推出后验分布

高斯过程的后验分布,来源:sklearn

这样,每观测到一个新的点,就可以更新一次我们的总体分布,这个过程就叫高斯过程回归(GPR),下面的例子来自Distill上的一个很棒的博客(https://distill.pub/2019/visual-exploration-gaussian-processes/):

高斯过程回归示意,来源:https://distill.pub/2019/visual-exploration-gaussian-processes/

相信从上面的描述,我们就明白了GP以及GPR的概念,具体公式以及推导这里不展开,感兴趣的读者可在文末推荐资料中查询。

好,上面是知道了高斯过程回归是咋回事,现在的问题是:已知了一些超参数的观测结果,如何选择下一个超参数在何处取?

回顾前面的章节,我们需要最大化Expected Improvement:

maximize_x\ EI_{y^*}(x) \\ EI_{y^*}(x) = \int _{-\infty}^{+\infty}max(y^*-y,0)p_M(y|x)dy

在GPR中,我们选取当前观测结果中最好的的来作为 (根据论文的说法,在实际使用时,好像会选择一个比best y稍差一点的值),那么咱们也有了,就可以直接求解上面这个优化问题了,求得的使EI最大的x即为下一步我们要去搜索的超参数。

② 基于TPE的贝叶斯优化

TPE,Tree Parzer Estimator,采用了一种不同的思路来进行概率分布的建模。

根据贝叶斯定理:

p(y|x) = \frac{p(x|y)p(y)}{p(x)}

我们可以把想求的p(y|x)分解成p(x|y)和p(y)。

关键是这一步,TPE对p(x|y)进行了这么一个划分:

p(x|y) = \left\{ \begin{aligned} l(x),\ \ \ y < y^*\\ g(x),\ \ \ y >y^* \end{aligned} \right.

即TPE对于在阈值两侧的观测点,构造不一样的分布,可认为是一个好成绩的超参数概率分布,和一个坏成绩的超参数概率分布。 这里的阈值如何选择呢?我们会设定一个超参,它是的分位数(quantile),所以有 . (在论文中取值0.15,在hypterOpt这个包中默认取值0.25,可见相对于GPR,TPE的阈值取的很保守)

通过上面这样的划分,我们可以得到:

\begin{aligned} p(x) &= \int_{R}p(x|y)p(y)dy \\ &= \int_{-\infty}^{y^*}p(x|y)p(y)dy + \int_{y^*}^{+\infty}p(x|y)p(y)dy\\ &= \gamma l(x) + (1-\gamma)g(x) \end{aligned}

然后,我们把这些公式带入到EI公式中,做简单的推导:

\begin{aligned} EI_{y^*}(x) &= \int _{-\infty}^{+\infty}max(y^*-y,0)p_M(y|x)dy \\ &= \int _{-\infty}^{y^*}(y^*-y)p(y|x)dy (因为超过y^*的部分max=0)\\ &= \int _{-\infty}^{y^*}(y^*-y) \frac{p(x|y)p(y)}{p(x)}dy (贝叶斯公式)\\ &= \int _{-\infty}^{y^*}(y^*-y) \frac{l(x)p(y)}{\gamma l(x) + (1-\gamma)g(x)}dy (带入p(x|y),p(x))\\ &= \frac{\int _{-\infty}^{y^*}(y^*-y)p(y)dy}{\gamma + (1-\gamma)\frac{g(x)}{l(x)}}(只跟x相关的部分可以提到积分外面) \end{aligned}

从而看出,,即EI的值正比于分母的倒数,而当确定之后,分母大小只取决于的两段概率的比值,而这个比值的物理含义就是:在目前观测结果中,属于好成绩的概率属于差成绩的概率。所以,我们要找的就是使得这个比值最大的。

以上就是基于TPE贝叶斯优化,如何寻找下一步的超参数。可见,TPE跟GPR的区别就在于,其对历史观测结果的建模更加精细一些,对观测结果按照成绩进行了划分,分段进行概率分布建模。

为了让TPE的过程更加好理解,我画一个这样的图:

TPE过程示意图,来源:我自己画的

另外提一嘴,原论文中的公式推导实际上有一个小错误:

原论文中的小错误

当时我瞅了好久,心想这毕竟是NIPS,还是Bengio他们的文章,而且我看到了网上的各种博客解读,都跟这个写的一样,包括最近看的那个使用贝叶斯优化的EMNLP-21的论文中对TPE公式的书写,都是跟上图一样。但我经过反复确认,确实是写错了,虽然这仅仅是一个typo,但可以看出这些博客/论文作者可能压根没亲自推导过,就直接抄过来了...

4. GPR vs. TPE

从论文的实验中,我们发现TPE的总体效果会比GPR更好

具体原因,论文也只是给了一些猜测:TPE的建模相对于GPR可能更加准确,另外对于阈值的更加保守的选择可能是一个更好的先验。但是这仅仅是论文的两个数据集上的实验,实际上各种开源的工具都有不同的选择,有些选择GPR,有些选择TPE还有其他算法的。另外,成熟的工具一般还对改论文的方法做了一些改进,比如如何进行更好的初始化等等。

总结:

如果用一句话来总结贝叶斯优化,我们可以说:

贝叶斯优化是一种超参数调节/搜索的方法,我们采用GP或者TPE对已有历史进行概率分布建模,利用SMBO的框架来迭代式地进行超参数选择。

至此,对于贝叶斯优化的理论部分,我觉得就差不多介绍完了,整理了好几天,希望这算是一个不错的科普文吧!目前还未涉及实践,近期我会使用一些开源的贝叶斯优化工具,对深度学习模型进行调参的实践,看看到底效果怎么样,然后再写一篇使用心得。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2022-01-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 SimpleAI 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 0. 理清基本概念的关系
  • 1. 各种超参数调节方法的对比
    • Grid Search & Random Search
    • 2. 贝叶斯优化/SMBO的基本流程
      • SMBO
        • 对历史观测进行建模
          • Acquisition function / Expected Improvement (EI)
          • 3. 不同的概率分布建模策略
            • ① 基于GPR的贝叶斯优化
              • ② 基于TPE的贝叶斯优化
              • 4. GPR vs. TPE
              • 总结:
              领券
              问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档