我有一个形状为(batch_size, max_sequence_length, embedding_size)的张量,它被填充到最大长度来存储序列。][6,0,0,0]
# Using EmbedID(ignore_label=0) to get (batch_size, 4, embeddeding_size) 例如,我们如何将其传递给Chainer中的NStepGRU链接?并且例如获得所有序列(batch_size, embedding_si
这里的问题是,我有不同的句子长度,这意味着我要么做填充,要么使用dynamic_rnn指定的序列长度。我和他们两个都很纠结。
data = tf.nn.embedding_lookup(word_matrix,X)
然后,我将word_matrix的单词索引序列输入到X中。我担心如果我将零输入到输入到X的</e
我使用PyTorch与一组培训的电影评论,每一个标记为正或负。每一篇评论都被删减或填充为60个字,我的批次大小为32。此60x32张量被馈送到嵌入层,嵌入dim为100,从而产生60x32x100张量。然后,我使用每个评论的未填充长度来打包嵌入输出,并将其通过hidden dim = 256传递给一个hidden dim = 256层。我是不是把我的张量转错了?
我已经尝试过在我的lstm、pack