前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【动手学深度学习笔记】之模型选择、过拟合与欠拟合

【动手学深度学习笔记】之模型选择、过拟合与欠拟合

作者头像
树枝990
发布2020-08-20 07:45:08
8750
发布2020-08-20 07:45:08
举报
文章被收录于专栏:拇指笔记拇指笔记

1. 模型选择

机器学习过程中,评估候选模型并从中选择模型的过程叫做模型选择。模型选择的对象不仅是不同的模型也可以是有着不同超参数的同一模型。

1.1 训练误差与泛化误差

训练误差与泛化误差都可以使用损失函数求得。训练误差是指模型在训练数据集上表现出的误差;泛化误差是指模型在测试数据集上表现出的误差。训练误差的期望小于或等于泛化误差(训练集训练出来的模型在训练集上的表现会优于或等于模型在测试集上的表现),因此一味降低训练误差并不一定会降低泛化误差,机器学习模型应主要关注泛化误差。

1.2 验证数据集

为了得到有效的模型,我们需要使用验证数据集(验证集)来对不同模型进行评估。验证数据集通常是预留在训练数据集和测试数据集以外的数据。

选取的方法:从给定的训练集中选取出一部分作为验证集,其余部分作为真正的训练集。在实践中,验证集与测试集的界限比较模糊

1.3 K折交叉验证

由于数据通常是有限的,在训练数据中预留大量不参与训练的验证集有些不切实际。因此引入一种改善的方法:折交叉验证。

折交叉验证:把原始训练集分割成个不重合的子数据集,然后对模型做次训练和验证。每一次我们都选其中一组子集作为验证集,其他子集作为训练集,最后对这次训练误差和验证误差求平均值。

2. 过拟合和欠拟合

在对模型进行训练的过程中,经常会出现两种常见的问题过拟合和欠拟合。过拟合是模型无法得到较低的训练误差;欠拟合是模型的训练误差远远小于它的泛化误差。造成这两种问题的原因主要是模型复杂度和训练数据集大小。

2.1 影响因素

2.1.1 模型复杂度

为了解释模型复杂度,我们以多项式函数拟合为例。

对于阶数越高(K值更大)的多项式,模型的参数更多,模型的选择空间也就越大,所以高阶多项式与低阶多项式相比更容易在相同训练集上获得更低的训练误差。

对于给定的训练集,模型复杂度与误差之间的关系如下图所示

如果模型的复杂度过低,则容易出现欠拟合;如果模型过于复杂,则容易出现过拟合。因此,应对模型过拟合与欠拟合问题的一个办法就是选取复杂度适宜的模型。

2.1.2 训练集大小

一般来说,训练数据集中样本过少(特别是比模型参数更少时)容易出现过拟合;但泛化误差不会随着训练集样本数增加而增加。因此训练数据集样本数多多益善。


本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-03-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 拇指笔记 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1.1 训练误差与泛化误差
  • 1.2 验证数据集
  • 1.3 K折交叉验证
  • 2. 过拟合和欠拟合
    • 2.1 影响因素
      • 2.1.1 模型复杂度
      • 2.1.2 训练集大小
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档