既然LSTM RNN使用以前的事件来预测当前序列,为什么我们要打乱训练数据?难道我们不会丢失训练数据的时间顺序吗?在对混洗后的训练数据进行训练后,它如何仍然有效地进行预测?
发布于 2017-06-28 04:29:09
通常,当您打乱训练数据(一组序列)时,您打乱了序列馈送到RNN的顺序,而不是打乱单个序列的排序。当您的网络是无状态的时,这是很好的做法:
无状态情况:
网络的记忆仅在序列的持续时间内持续存在。在序列A之前对序列B进行训练并不重要,因为网络的记忆状态不会跨序列持久存在。
另一方面:
状态案例:
网络的记忆跨序列持续存在。在这里,您不能盲目地混洗数据并期望获得最佳结果。序列A应该在序列B之前提供给网络,因为A在B之前,我们希望网络使用序列A中的记忆来评估序列B。
https://stackoverflow.com/questions/44788946
复制相似问题