前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >AI面试题之防止过拟合的所有方法

AI面试题之防止过拟合的所有方法

作者头像
机器学习炼丹术
发布2020-07-14 11:11:44
7030
发布2020-07-14 11:11:44
举报

“学习的同时记录,记录的同时分享,分享的同时交流,交流的同时学习。”

1 什么是过拟合

过拟合就是在训练集上表现得非常好,在测试集上表现得不好。也就是我们俗称的泛化能力弱

过拟合无法避免,只能缓解,那么如何缓解呢?方法太多了。这篇文章一一介绍。

2 数据集增强Augmentation

图像上,翻转,平移,缩放,旋转,镜像,增强对比度,增强亮度等诸多方式。我在下面的内容中介绍了图像处理的图像增强的方法:

最快最好用的图像处理库:albumentations库的简单了解和使用

3 Early Stopping

训练模型的时候,训练误差往往是不断下降的,但是验证数据集的误差,是先下降后上升。两个数据集的误差出现分歧的时候,说明模型开始过拟合了。所以Early Stopping就是当验证数据集的误差不在下降的时候,结束训练,保存模型参数。

4 正则化regularization

L1正则:模型中只有少部分特征对模型的泛化能力有贡献,所以L1就是限制模型中非零参数的数量。让大部分的模型参数都是0,只有真正对泛化能力其作用的参数才是非零的。

L2正则:我们希望模型找到的极小值是平坦的,为什么呢?

图中表示的意思,就是平坦的极小值,可以有更多的容忍,容忍什么呢?容忍训练数据集和测试数据集之前的分布偏差。现在,如果模型的某些参数特别大,那么就算输入的样本只有很小的区别,但是经过特别大的参数之后,模型给出的结果很可能是非常不同的。这就是太陡峭。所以L2正则就是限制模型参数的大小。参数的平方的和作为损失的一部分,当参数数值越大,那么梯度下降的损失越大,就会强迫参数变小。

这里有两幅图:

这一幅图体现的是假设只有两个参数的情况下,增加L1正则的情况。圆圈圈体现的是损失等值线,方框是L1正则的损失。假设没有L1正则,那么参数应该收敛到最小的那个圆圈中的。但是因为增加了L1正则,所以需要权衡两个部分的损失,然后找到接触的交点位置。因为圆形和矩形在矩形的顶点相交的可能性大,而矩形的顶点就是某一个参数为0的情况。所以L1正则会让模型参数有更大的可能性为0. 【在更多参数的模型中,会有更多的顶点。不过二维图像就画不出来了】


这个是L2正则的示意图。L2正则式一个原型因为是参数的平方和。相比L1的(0,1)这样的交点,L2更希望每一个参数都普遍较小,不希望某一个参数特别大。

5 Dropout

这个就是神经网络中,在全连接网络中经常用到的。

在每一个Batch数据训练的时候,Dropout层按照概率P随机让一些神经元失活,然后保留下来的神经元的参数被更新。dropout是只有在训练的时候才使用的,在测试的时候并不适用。

我个人理解的dropout其实就相当于一个多模型融合的过程。因为每一次都会失活一部分的神经元,所以每一次的模型都是不那么一样的,相当于不同的模型吧。

6 增加噪音

6.1 输入中增加噪音

输入中有噪音

\epsilon

,那么输出中就会有一个类似于

\epsilon \omega

,这样的损失项。从而限制权值的大小。

当然这样也可以增加模型对输入的容忍度,我觉得也可以理解为一种数据增强。去噪自编码器DAE就是利用这样的方法的。

6.2 权值中加噪音

这个用的不多。

7 集成

集成主要是bagging,boosting,之前说的dropout我觉得也可以算作集成的方法

7.1 bagging

将数据集抽取一部分,比如抽取70%的样本,然后用这些样本去训练一个模型。然后再从数据集中抽取70%的样本,再训练一个新的。典型的就是随机森林。【神经网络因为训练速度的问题,所以一般不用这样的方法。决策树lgb啥的可以用】

7.2 boosting

训练复杂神经网络比较慢,所以可以通过训练多个简单的分类器,然后加权平均每一个分类器的输出。 这就是Boost的思想。【这句话给我背下来!】

之后整理一下Adaboost和XGBoost的这些算法。

8 其他

  • 限制网络的层数和复杂度

喜欢的话,长按下面的二维码关注下【机器学习炼丹术】,成为炫酷的炼丹师吧!

目前在更:每天一两个AI面试干货知识点。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-07-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习炼丹术 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1 什么是过拟合
  • 2 数据集增强Augmentation
  • 3 Early Stopping
  • 4 正则化regularization
  • 5 Dropout
  • 6 增加噪音
    • 6.1 输入中增加噪音
      • 6.2 权值中加噪音
      • 7 集成
        • 7.1 bagging
          • 7.2 boosting
          • 8 其他
          领券
          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档