在计算机视觉中,如果我们没有一个大的训练集,一个常见的方法是从一个预先训练过的模型开始一些相关的任务(例如ImageNet),并微调这个模型来解决我们的问题。
对于自然语言处理问题,能做类似的事情吗?我有一个关于句子的布尔分类问题,而且没有足够大的训练集来从零开始训练RNN。特别是,是否有一个很好的方法来微调一个LSTM或1dcnn或其他转移学习?如果我们想对句子进行分类,那么是否有一个合理的预先训练的模型可以开始呢?
发布于 2018-06-14 12:42:32
这篇文章可能会有用..。
https://datascience.stackexchange.com/questions/32244
复制相似问题