对于这些矩阵来说横向指标就对应了不同的训练样本,从左向右扫的时候,就扫过了整个训练集,在竖向中,竖向指标就对应了单一神经网络层里不同的节点.
3.6 激活函数
tanh function
?...Angnew NG 几乎不会使用 sigmoid 函数,因为 tanh 函数几乎在任何方面多更加强大,但是对于输出层例外,因为在二元分类中,你可以使用 sigmoid 函数作为输出层的激活函数.但是对于...3.7 为什么需要非线性激活函数
我们为什么一定要把神经网络计算得到的结果经过激活函数输出呢?...,线性隐藏层一点用也没有.如果你要计算的是回归问题,也许可以在输出层使用线性激活函数.除此以外,几乎没有地方会用到线性激活函数.
3. 8 激活函数的导数
sigmoid function
对于 sigmoid...我们一般将 w 和 b 设置为很小的随机值,因为在方程 z=w*x+b 中,如果计算得到的 z 值过大,会落在 sigmoid 或者是 tanh 函数的平缓地带,这样使用梯度下降法时会非常慢.也会学习的非常慢