首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

机器学习训练秘籍:第29章

29 绘制训练误差曲线

随着训练集大小的增加,开发集(和测试集)误差应该会降低,但你的训练集误差往往会同时增加。让我们举例说明一下这个影响。假设你的训练集只有两个样本:一张猫图和一张非猫图。学习算法将很容易“记住”训练集中这两个样本,并且训练集错误率为 0%. 即使有一张或两张的样本图片被误标注了,算法也会轻松地记住它们。现在假设你的训练集有 100 个样本,可能有一些样本是误标记的,或者模棱两可的(图像非常模糊),所以即使是人类也无法分辨是否有一只猫。或许学习算法仍然可以“记住”大部分或全部的训练集,但现在很难获得 100% 的准确率。通过将训练集样本数量从 2 个增加到 100 个,你会发现训练集的准确率会略有下降。下面我们将训练误差曲线添加到原有的学习曲线中:

可以看到,蓝色的“训练误差”曲线随着训练集大小的增加而增加,而且算法在训练集上通常比在开发集上做得更好;因此,红色的开发误差曲线通常严格位于蓝色训练错误曲线之上。让我们来讨论一下如何解释这些曲线的含义。

敬请期待第30章

解读学习曲线:高偏差

机器学习训练秘籍已发布章节

英文版最新章节请在这里注册

为了让大家尽快接触到机器学习训练秘籍中文版,我们在最短的时间内组织了翻译工作。若有任何错误,还请包涵。翻译内容仍在持续改进中,如果大家有任何意见和建议,欢迎给我们留言。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180601G0B1N800?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券