我用1M个样本训练了一个seq2seq模型,并保存了最新的检查点。现在,我有一些额外的50K句子对的训练数据,这在以前的训练数据中是没有的。如何在不从头开始培训的情况下,使当前的模型适应这些新的数据?
发布于 2017-11-17 10:33:27
您不必重新运行整个网络初始化。您可以运行一个增量训练。
基于预训练参数的训练 另一个用例它使用一个基本模型并使用新的训练选项(特别是优化方法和学习率)对其进行进一步的训练。使用
-train_from而不使用-continue将开始一个新的训练,从一个预先训练的模型中初始化参数。
请记住,将50K语料库标记为与前一个相同的标记。
此外,您不必使用以OpenNMT 0.9开头的相同词汇表。请参阅更新词汇表部分,并使用适当的值和-update_vocab选项。
https://stackoverflow.com/questions/47347875
复制相似问题