我在TensorFlow2.x中实现了一个定制层。我的要求是,程序应该在返回输出之前检查一个条件。) return y, self.h return y
我的问题是:我应该继续使用当前的代码(假设tape.gradient(Loss, self.trainable_weights)可以正常工作),还是应该使用<e
使用if t is not None:而不是if t:测试张量是否已定义,并使用TensorFlow操作(如tf.cond )执行对张量值有条件的子图。“我试过的事情。
1:在张量上使用reduce_all,没有工作,我仍然得到相同的错误。使用if t is not None:而不是if t:来测试是否定义了张量,并使用</e
我有两种情况,我想基于某个条件执行两种不同的计算,目前我使用tf.cond在这两种条件之间切换,但我注意到Tensorflow计算这两种情况,然后简单地使用该条件来确定返回哪一种。这基本上就是我的代码的样子:Tensor_2 = tf.eye(dimensions)
Result = tf.cond( my_condition, la
这是必要的,因为在训练中,我从训练图像中随机获取固定的裁剪,而在测试中,我希望执行一个密集的评估,并将整个图像输入到网络中(这是完全卷积的,因此它将接受它们)。当前的不工作方式是创建两个不同的迭代器,并尝试在tf.cond上选择session.run上的训练/测试输入(图像,{ is _training:True/False})。我看到了一些关于这个的<