def softmax_cross_entropy_with_logits(_sentinel=None, # pylint: disable=invalid-name,labels=None, logits=None,dim=-1, name=None)
import tensorflow as tf
input_data = tf.Variable([[0.2, 0.1, 0.9], [0.3, 0.4, 0.6]], dtype=tf.float32)
output = tf.nn.softmax_cross_entropy_with_logits(logits=input_data, labels=[[0, 0, 1], [1, 0, 0]])
with tf.Session() as sess:
init = tf.global_variables_initializer()
sess.run(init)
print(sess.run(output))
# [1.36573195]
_sentinel: 这个参数一般情况不使用,直接设置为None就好
logits: 一个没有缩放的对数张量。labels和logits具有相同的数据类型(type)和尺寸(shape)
labels: 每一行 labels[i] 必须是一个有效的概率分布值。
name: 为这个操作取个名字。
一个 Tensor ,数据维度是一维的,长度是 batch_size,数据类型都和 logits 相同。