发布于 2018-04-20 11:46:21
Keras LSTM文档包含高级解释:
退出:浮动在0到1之间。分数的单位下降为线性转换的输入。 recurrent_dropout:浮动在0到1之间。单元的分数下降为递归状态的线性变换。
但这完全对应于您所指的答案:
对输入和/或输出应用常规的下拉列表,这意味着从
x_t到h_t的垂直箭头。..。 反复辍学面具(或“滴”)之间的联系,经常性单位,这将是水平箭头在你的图片。
如果您对公式级别的细节感兴趣,最好的方法是检查源代码:keras/layers/recurrent.py、查找rec_dp_mask (递归退出掩码)和dp_mask。一个影响h_tm1 (前一个内存单元),另一个影响inputs。
https://stackoverflow.com/questions/49940280
复制相似问题