前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >25. 减少可避免偏差的方法

25. 减少可避免偏差的方法

作者头像
YingJoy_
发布2018-05-30 10:29:07
6890
发布2018-05-30 10:29:07
举报
文章被收录于专栏:应兆康的专栏应兆康的专栏

25 减少可避免偏差的方法

如果你的学习算法是高可避免偏差的话,你可以尝试以下办法: • 增加模型大小 (如神经元和层数): 该方法可以减少偏差,因为它可以让你更好的适应训练集。如果你发现该方法增加了方差,那么使用正则化方法,它通常可以消除方差的增加。 • 基于错误分析修改输入特征: 假设错误分析启发你去创建额外的特征,以帮助算法消除特定类别的错误。(我们将在下一章进一步讨论)这些新特征可能有助于减少偏差和方差。理论上来说,增加更多的特征可能会增加方差,如果你发现方差增加了,那么使用正则化的方法,它通常可以消除方差的增加。 • 减少或消除正则化: (L2 正则化, L1 正则化, dropout): 这将减少可避免的偏差,但会增加方差。 • 修改模型架构: (如神经网络架构) 以便算法更加适用于你的问题:这种方法可能会同时影响偏差和方差。 下面的方法是没有用的: • 添加更多的训练数据: 这种方法有助于减少方差问题,但是它通常对偏差没有显著的影响。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 25 减少可避免偏差的方法
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档