我有一个时间序列,我已经将其转变为监督学习问题,以便在其上训练LSTM网络,并且我继续向我的训练集添加较新的数据点。然而,随着时间序列变得越来越长,训练我的网络在计算上变得更加昂贵。有没有一种技术可以截断可能对预测未来没有重大影响的旧数据点?有没有文献可以支持这样的观点?
发布于 2018-06-02 10:30:47
您可以简单地使用一段数据:slicedX = X[:,-50:],如果您有长度为:slicedY = Y[:,-50:]的Y,则可以使用长度。
在示例中,我使用了包含最后50个时间步的长度。
正确的时间步数是多少?
答案就在你自己的数据里。只有实验才能告诉我们网络需要多少步骤才能以令人满意的方式工作。
https://stackoverflow.com/questions/50652293
复制相似问题