我很难理解这个关于德尔塔规则的概念。据我所知,在学习网络的过程中,增量规则用于更新权重。假设我有这两个公式:
learning rate (eta) * gradient of loss function. 第二个公式令人困惑。上面到底写了什么?我想是这样的(但我不能完全肯定.)
change weight between neuron ij = learning rate (eta) *
最近,我完成了由安德鲁斯·吴( Andrews Ng )执导的“课程”中的ML课程。这是一个很棒的课程。我一直在用八度音阶完成整个课程。但是,与八度相比,蟒蛇很受欢迎。所以,我现在已经开始学习蟒蛇了。简单地调用线性回归的预定义函数。但是,在八度音阶中,我经常从头开始编写代码。我必须使用梯度下降算法来寻找参数。但是,在蟒蛇身上没有这样的东西。我参考了以下链接:
我的问题是,我们不会用