我尝试对不同的输入使用相同的LSTM架构,因此在展开双向LSTM的同时展开不同的输入时传递相同的单元。我不确定它是否创建了两个完全不同的LSTM网络。看起来我的Graph中有两个不同的节点。我的代码和图形如下所示: def get_multirnn_cell(self): for _ in range(config.n_layers): d
batch_size, -1, self.num_classes+4])我想知道如何在tensorflow1中将这些层重用为tf.variable_scope(scope resue=tf.AUTO_REUSE在tensorflow1中
with tf.variable_scope('', resue=tf.AUTO_REUSE) as scope: all layers here could