我正在阅读这篇题为“通过深度神经网络对室内行为进行分类”的论文。我偶然发现了这样的说法:
通过这种机制,可以学习到非常复杂的功能,结合这些模块:生成的网络通常对微小的细节非常敏感,对大的无关变化不敏感。
我读过很多关于深层神经网络的文章。然而,我可能忽略了深层神经网络对大而不相关的特征不敏感背后的逻辑。
发布于 2017-05-09 17:13:13
它们可以处理大量不同的输入,因为神经元有权重,而这些权重作为学习一个好模型的一部分得到了优化。因此,即使模型的取值范围在0到100,000之间,如果它与预测结果无关,它的效果也很小。
https://datascience.stackexchange.com/questions/18856
复制相似问题