我一直在看tfjs示例,并试图了解seq2seq模型。在这个过程中,我偶然发现了date-conversion-attention示例。
这是一个很好的例子,但是在这个例子中使用了哪种注意力机制呢?Readme
文件中没有信息。有没有人能告诉我,这篇论文描述了这里所使用的注意力?
发布于 2020-02-05 06:36:57
我相信我找到了答案。Effective Approaches to Attention-based Neural Machine Translation
中描述了date-conversion-attention
中使用的注意力模型使用点积对齐分数。链接:https://arxiv.org/pdf/1508.04025.pdf
https://stackoverflow.com/questions/60059272
复制相似问题