首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >BERT头计数

BERT头计数
EN

Stack Overflow用户
提问于 2021-10-04 13:29:17
回答 1查看 58关注 0票数 2

从我读到的文献来看,

Bert Base有12个编码层和12个注意力头。Bert Large有24个编码层和16个注意头。

为什么Bert large有16个关注点?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2021-10-05 12:45:22

注意头的数量与(编码器)层的数量无关。但是,每个模型的隐藏大小之间存在固有的联系( bert-base为768,bert-large为1024 ),这在the original Transformers paper中进行了解释。本质上,作者的选择是自我注意块大小(d_k)等于隐藏维度(d_hidden)除以头部数量(h),或者形式上

代码语言:javascript
运行
复制
d_k = d_hidden / h

由于标准选择似乎是d_k = 64,我们可以从参数中推断出最终的大小:

代码语言:javascript
运行
复制
h = d_hidden / d_k = 1024 / 64 = 16

这正是您在bert-large中看到的值。

票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/69436845

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档