我正在尝试实现一个模型,该模型使用来自不同数据集的多个预训练BERT模型的编码,并使用完全连接层获得组合表示。在这方面,我希望BERT模型应该保持固定,只有完全连接的层应该得到训练。在huggingface-transformers中实现这一点是可能的吗?我没有看到任何允许我这样做的标志。
PS:我不想把每个BERT模型的输入编码都去掉,然后把它们当作输入。
发布于 2020-04-28 08:13:00
一个简单的解决方案是在传递给优化器时只排除与BERT模型相关的参数。
param_optimizer = [x for x in param_optimizer if 'bert' not in x[0]]
optimizer = AdamW(param_optimizer, lr)https://stackoverflow.com/questions/61464726
复制相似问题