最近我在读“注意力就是你所需要的一切”这篇论文,通过它,我发现了一个关于理解注意力网络的问题,如果我忽略了它背后的数学原理。有没有人能举个例子让我理解注意力网络?
发布于 2020-04-01 02:35:41
This教程说明了Transformer中的每个核心组件,绝对值得一读。
直观地说,注意力机制试图根据注意力函数找到“相似”的时间步长(例如,你所需要的就是注意力中的投影+余弦相似度),然后用相应计算的权重和以前的表示来计算新的表示。
https://stackoverflow.com/questions/59191144
复制相似问题