在AdditiveAttention() 2中,图层(即Bahdanau注意事项)出现了一个错误,但我并不完全理解。我想训练一个聊天机器人,用一个seq2seq注意力模型训练两个Question和Answer数据集。def build_model(): from tensorflow.keras.models import M
在尝试为作者共享的训练模型运行解码模式时,我收到以下错误。/core/framework/op_kernel.cc:1158] Not found: Key seq2seq/decoder/attention_decoder/lstm_cell/bias not/core/framework/op_kernel.cc:1158] Not found: Key seq2seq/encoder