在构建机器学习模型的时候,如何进行超参数调优?

超参数调优的方法主要有网格搜索、随机搜索和贝叶斯优化等超参数搜索算法,这类算法主要包括一是目标函数,即算法需要最大化或者最小化的目标,二是搜索范围,一般通过上限和下限来确定,三是算法的其他参数,如搜索步长等。

网格搜索

网格搜索可能是最简单,应用最广的超参数搜索算法,它通过查找搜索范围内的搜索的点来确定最优值。如果采用较大的搜索范围以及较小的步长,网格搜索有很大概率找到全局最优值。然而,这种搜索方案十分消耗计算资源和时间,特别是需要调优的超参数比较多的时候。在实际应用中,网格搜索法一般会先使用较广的搜索范围和较大的步长,来寻找全局最优值和可能位置;然后会逐渐搜索搜索范围和步长,来寻找更加精确的最优值。这种操作方案可以降低所需的时间和计算量,但由于目标函数一般是非凸的,所以很可能错过全局最优值。

随机搜索

随机搜索的思想与网格搜索比较相似,只是不再测试上界和下界之间的所有值,而是在搜索范围中随机选取样本点。它的理论依据是如果样本点集足够大,那么通过随机采样也能大概率地找到全局最优值,或者近似值。随机搜索一般会比网格搜索要快一些,但是和网格搜索的快速版本一样,结果是无法保证最优的。

贝叶斯优化算法

贝叶斯优化算法在寻找最优值参数时,采用了与网格搜索,随机搜索完全不同的方法。网格搜索和随机搜索在测试一个新点时,会忽略前一个点的信息,而贝叶斯优化算法则充分利用了之前的信息。贝叶斯优化算法通过对目标函数形状进行学习,找到使目标函数向全局最优值提升的参数。具体来说,它学习目标函数形状的方法是,首先根据先验分布,假设一个搜索函数,然后,每一次使用新的采样点来测试目标函数时,利用这个信息来更新目标函数的先验分布,最后,算法测试由后验分布给出的全局最优值最可能出现的位置的点。对于贝叶斯优化算法,有一个需要注意的地方,一旦找到了一个局部最优值,它会在该区域不断采样,所以很容易陷入局部最优值。为了弥补这个缺陷,贝叶斯优化算法会在探索和利用之间找到一个平衡点,探索就是在还未取样的区域获取采样点,利用就是根据后验分布在最可能出现全局最优值的区域进行采样。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181016A27I2S00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券