我正在构建一个深度神经网络,我发现当在完全连接层中没有激活函数(softmax)时,我的网络收敛得更快。但是当我添加这个softmax函数时,收敛性真的很差,甚至在很高的损失中停止。顺便说一句。我使用交叉熵损失作为损失函数,使用rmsprop作为优化器。Nerual network without last softmax activation
我正在尝试使用标记数据来训练深度神经网络(DNN)。标签的编码方式使其仅包含值0和1。编码标签的形状是5 x 5 x 232。标签中的值的About 95%是0,rests是1。目前,我正在使用binary_crossentroy损失函数来训练网络。
在这种情况下,训练DNN的最佳技术是什么?在这种情况下,选择binary_crossentroy作为损失函数是否合适?任何改善模型性能的</e