首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

机器学习训练秘籍:第24章

24 偏差和方差间的权衡

你可能听过“偏差和方差间的权衡”。大部分对学习算法进行的更改中,有一些能够减少偏差,但代价是增大方差,反之亦然。于是在偏差和方差之间就产生了“权衡”。例如,加大模型的规模(在神经网络中增加神经元/层,或增加输入特征),通常可以减少偏差,但可能会增加方差。另外,加入正则化一般会增加偏差,但是能减少方差。在现代,我们往往能够获取充足的数据,并且可以使用非常大的神经网络(深度学习)。因此,这种权衡的情况比较少,并且现在有更多的选择可以在不损害方差的情况下减少偏差,反之亦然。例如,你通常可以增加神经网络的规模大小,并调整正则化方法去减少偏差,而不会明显的增加方差。通过增加训练数据,你通常也可以在不影响偏差的情况下减少方差。如果你选择了一个很适合你任务的模型架构,那么你也可以同时减少偏差和方差。只是选择这样的架构可能有点难度。在接下来的几个章节中,我们将讨论处理偏差和方差的其它特定技术。

敬请期待第25章

减少可避免偏差的技术

机器学习训练秘籍已发布章节

英文版最新章节请在这里注册

为了让大家尽快接触到机器学习训练秘籍中文版,我们在最短的时间内组织了翻译工作。若有任何错误,还请包涵。翻译内容仍在持续改进中,如果大家有任何意见和建议,欢迎给我们留言。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180525G07QK200?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券