在课程的RNN介绍中,介绍了RNN中的前向传播公式。W_{ax}, W_{aa}, W_{ay}的作用到底是什么?他们干些什么?
在讲座中,有人说:

在标准神经网络中,这是前向传播的公式。
z_1 = w_1 X_1+b_1 \\ A_1 = g(Z_1) 认为只有4层比最后一层
我可以把这些方程和a^{<1>}联系起来,但是我不能把W_{ya}在\hat{y}^{<1>}中的作用联系起来。请用一个非常简单的术语解释W_{ax}, W_{aa}, W_{ay}在标准RNN中的工作是什么。
发布于 2020-01-19 20:53:25
在这里,不要被“治理”这个词所困扰。W_{ax}、W_{ay}和W_{aa}只是权重,它们在前馈网络中所扮演的角色原则上是相同的(除了前馈网络没有W_{aa}):
您还可以在深度学习书的相关章节中更多地了解这一点,我认为这一章提供了对RNN的一个很好的解释。
编辑(根据您的评论):
在前馈网络中,有\hat{y} = g(W_{ay}\text{ }a+b_y),而RNN有\hat{y}^{<i>} = g(W_{ay}\text{ }a^{<i>}+b_y) ( i是时间步长的索引)。对于RNN中的输出层,这里并没有什么新的东西。在下面的图像中,您可以看到在前馈网络和RNN中对哪些连接施加权重(为了简单起见,我省略了偏倚):

发布于 2020-01-21 19:14:10


@Sammy下面是我在评论中提到的两幅图片,其中我找不到yhat =Way+b,因为我们的目标是找到y,那么怎么才能把(权重* y)变成图像来预测Y呢?
https://datascience.stackexchange.com/questions/66723
复制相似问题