首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >对于序列分类来说,对大上下文的bert进行微调可以吗?

对于序列分类来说,对大上下文的bert进行微调可以吗?
EN

Data Science用户
提问于 2022-03-25 07:53:49
回答 1查看 390关注 0票数 1

我想要创建序列分类bert模型。模型输入为2句。但是,我想用大上下文数据对模型进行微调,该数据由多个句子组成(标记的数量可能超过512)。如果训练数据的大小和实际输入数据的大小不同,可以吗?

谢谢

EN

回答 1

Data Science用户

发布于 2022-03-25 08:15:42

这里有一个限制因素,那就是位置嵌入。

在BERT中,位置嵌入是可训练的(不是正弦的),最多支持512个位置。要超过这样的序列长度,您需要扩展位置嵌入表,并在微调期间训练额外的条目。然而,这可能会导致性能下降。所以,技术上是可能的,但可能不太好。

一种选择是只保留序列的第一个(或最后)512个令牌作为BERT的输入,并查看所得到的性能是否适合您的目的。

作为另一种选择,您可以使用预培训的长上下文变压器,如LongFormer

票数 1
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/109344

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档