我想训练我的神经网络来适应训练数据。我是否应该继续用相同的训练数据来拟合我的模型,使用K-折叠验证,并将时间设置为无穷大?然后,在达到几乎百分之百的预测之后,我就可以停止训练了。这样做对吗?
发布于 2016-12-08 03:32:41
如果你想适应过度,那么是的,你只需要继续通过你的网络来拟合训练数据,直到你达到尽可能接近零的训练损失(注意零损失比100%的预测强,并且会导致更多的过度拟合)。没有必要使用交叉验证。如果你的网络足够复杂,那么在训练数据上达到很高的准确性不会花很长时间。
发布于 2016-12-08 05:06:03
了解过拟合/欠拟合与偏差误差/方差误差之间的差异是非常重要的。
有三件事很有可能被过度拟合:
重要的是要知道,这些东西增加了发生过度拟合的可能性,但另一个重要的因素是问题本身。如果您有两个类使用您的特征空间是可分离的,即使在所有这些条件下,即使训练误差为零,您也不会过分适应。
发布于 2016-12-08 10:00:12
若要故意过拟合神经网络,给出停止阈值和误差度量为零,并让神经网络运行大量迭代,直到达到零误差为止。
不执行任何正则化、输入或隐藏层退出、交叉验证。
https://datascience.stackexchange.com/questions/15602
复制相似问题