我在TensorFlow文档中找不到这个问题的答案。我曾经读到,应该从tf.nn
函数中添加损失,但对于来自tf.losses
的函数则不是必需的。因此:
什么时候应该使用tf.losses.add_loss()
?
示例:
loss = tf.reduce_mean(tf.nn.sparse_softmax_corss_entropy_with_logits
(labels=ground_truth, logits=predictions))
tf.losses.add_loss(loss) <-- when is this required?
谢谢你。
发布于 2019-05-21 13:59:10
人们将使用这种方法来登记用户定义的损失。
也就是说,如果您创建了一个定义损失的张量,例如my_loss = tf.mean(output)
,您可以使用此方法将其添加到损失收集中。如果您不想手动跟踪所有的损失,那么您可能希望这样做。例如,如果您使用像tf.losses.get_total_loss()
这样的方法。
在tf.losses.add_loss
内部非常简单:
def add_loss(loss, loss_collection=ops.GraphKeys.LOSSES):
if loss_collection and not context.executing_eagerly():
ops.add_to_collection(loss_collection, loss)
https://stackoverflow.com/questions/56231695
复制相似问题