我使用一种蛮力机制来确定最优的隐层/神经元,方法是将层/神经元增加1到一些最大值,然后从性能最好的模型中选择最优计数。我在这里的问题是关于这个“蛮力”过程的隐神经元计数的起点。有什么好的机制来决定从哪个神经元计数开始,这样我就不会错过一些最小的最优计数?
例如:
假设我有8个不线性相关的输入。如果我以(输入数: 8) +1(正如一些帖子所建议的那样)作为增加层内神经元数量的起点,我可能会错过最佳神经元数,因为它可能少于9个神经元吗?
我使用的蛮力机制设置了每个隐层的最大神经元数,所以如果我有8个输入,从每个隐层9到30个神经元开始,我将在第一个隐藏层中有9个神经元,在开始测试第二个隐藏层时,它会增加到30个,然后回滚到9个:
周期1隐层=1隐神经元=9.隐藏层=1个隐藏神经元=30个
周期2隐层=2隐神经元=9.隐层=2个隐藏神经元=30个
周期3隐层=3隐神经元=9.隐层=3个隐藏神经元=30个
我承认这是没有效率的,因为每一层可能不需要相同数量的神经元,但这篇文章的目的是通过尽量减少需要测试以确定“最优”计数的层/神经元组合的数量来改进这一机制。
编辑:
因此,为了澄清这个问题,我们需要确定一个好的最低起点是什么,如果使用上面概述的蛮力机制,而不管数据域(因此输入+1例)。
发布于 2018-09-23 14:01:41
对此没有硬性规定。
您应该拥有的隐藏节点的数量是基于
最后,
看看这个回答 ..。
https://datascience.stackexchange.com/questions/38677
复制相似问题