看完报纸后,注意力就是你所需要的,我有两个问题:
该文件说:
多头关注使模型能够在不同位置联合处理来自不同表示子空间的信息
我的理解是,这有助于解决回指问题。例如:“动物没有过马路,因为它太.(累/宽)”。在这里,"it“可以指基于最后一个词的动物或街道。我的疑问是,为什么一个人的注意力都不能在一段时间内学会这个联系呢?
。
谢谢你的帮助。
发布于 2019-07-15 20:04:00
https://datascience.stackexchange.com/questions/55647
复制相似问题