主要用来搭建神经网络。
all_candidate_sampler()
: 生成所有类的集合。
atrous_conv2d()
: 无源卷积(又称孔卷积或膨胀卷积)。
atrous_conv2d_transpose()
: atrous_conv2d的转置。
avg_pool()
: 对输入执行平均池操作。
avg_pool1d()
: 对输入执行平均池操作。
avg_pool2d()
: 对输入执行平均池操作。
avg_pool3d()
: 对输入执行平均池操作。
avg_pool_v2()
: 对输入执行平均池操作。
batch_norm_with_global_normalization()
: 批归一化
batch_normalization()
: 批归一化
bias_add()
: 给值加上偏置
bidirectional_dynamic_rnn()
: 创建一个双向递归神经网络的动态版本。(deprecated)
collapse_repeated()
:将重复的标签合并到单个标签中。
compute_accidental_hits()
: 计算与true_classes匹配的sampled_candidate中的位置id。
conv1d()
: 计算给定三维输入和滤波张量的一维卷积。(弃用参数值)(弃用参数值)
conv1d_transpose()
: conv1d的转置。
conv2d()
: 计算给定4-D输入和滤波张量的二维卷积。
conv2d_backprop_filter()
: 计算卷积相对于滤波器的梯度。
conv2d_backprop_input()
: 计算卷积相对于输入的梯度。
conv2d_transpose()
: conv2d的转置。
conv3d()
: 计算给定5-D输入和滤波张量的三维卷积。
conv3d_backprop_filter()
: 计算三维卷积相对于滤波器的梯度。
conv3d_backprop_filter_v2()
: 计算三维卷积相对于滤波器的梯度。
conv3d_transpose()
: conv3d的转置。
conv_transpose()
: 卷积的转置。
convolution()
:计算N-D卷积的和(实际上是互相关的)。
crelu()
: 计算连接ReLU。
ctc_beam_search_decoder()
: 对输入的日志执行波束搜索解码。
ctc_beam_search_decoder_v2()
: 对输入的日志执行波束搜索解码。
ctc_greedy_decoder()
: 对输入(最佳路径)中给定的日志执行贪婪解码。
ctc_loss()
: 计算CTC(连接主义时间分类)损失。
ctc_loss_v2()
: 计算CTC(连接主义时间分类)损失。
ctc_unique_labels()
: 获取用于tf.n .ctc_loss的成批标签的惟一标签和索引。
depth_to_space()
: T型张量的测深。
depthwise_conv2d()
: 切除二维卷积。
depthwise_conv2d_backprop_filter()
: 计算深度卷积相对于滤波器的梯度。
depthwise_conv2d_backprop_input()
: 计算深度卷积相对于输入的梯度。
depthwise_conv2d_native()
: 计算一个二维深度卷积给定4-D输入和滤波器张量。
depthwise_conv2d_native_backprop_filter()
: 计算深度卷积相对于滤波器的梯度。
depthwise_conv2d_native_backprop_input()
: 计算深度卷积相对于输入的梯度。
dilation2d()
: 计算了4-D输入和3-D滤波张量的灰度膨胀。
dropout()
: 计算dropout. (deprecated arguments)
dynamic_rnn()
: 创建由RNNCell cell指定的递归神经网络。 (deprecated)
elu()
: 计算指数线性:exp(特征)- 1如果< 0, features
otherwise.
embedding_lookup()
: 在嵌入张量列表中查找id。
embedding_lookup_sparse()
: 计算给定id和权重的嵌入。
erosion2d()
: 计算了4-D值和3-D核张量的灰度侵蚀。
fixed_unigram_candidate_sampler()
: 使用提供的(固定的)基本分布对一组类进行示例。
fractional_avg_pool()
: 对输入执行分数平均池化。 (deprecated)
fractional_max_pool()
: 对输入执行分数最大池化。 (deprecated)
fused_batch_norm()
: Batch normalization.
in_top_k()
: 表示目标是否在前K个预测中。
l2_loss()
: L2 Loss.
l2_normalize()
: 使用L2范数沿着维度轴进行标准化。(deprecated arguments)
leaky_relu()
: 计算泄漏的ReLU激活函数。
learned_unigram_candidate_sampler()
: 从训练期间学到的分布中抽取一组类作为样本。
local_response_normalization()
: Local Response Normalization.
log_poisson_loss()
: 计算给定log_input的log泊松损失。
log_softmax()
: 计算日志softmax激活。(deprecated arguments)
log_uniform_candidate_sampler()
: 使用log_uniform (Zipfian)基分布对一组类进行示例。
lrn()
: Local Response Normalization.
max_pool()
:对输入执行最大池化。
max_pool1d()
: 对输入执行最大池化。
max_pool2d()
: 对输入执行最大池化。
max_pool3d()
:对输入执行最大池化。
max_pool_v2()
: 对输入执行最大池化。
max_pool_with_argmax()
: 对输入和输出最大值和索引执行最大池化。
moments(.)
: 计算x的均值和方差。
nce_loss()
: 计算并返回噪声对比估计训练损失。
normalize_moments()
:在充分统计的基础上,计算的均值和方差。
pool()
: 执行N-D池操作。
quantized_avg_pool()
: 生成量子化类型的输入张量的平均池。
quantized_conv2d()
: 计算二维卷积给定量化的四维输入和滤波器张量。
quantized_max_pool()
: 生成量子化类型的输入张量的最大池。
quantized_relu_x()
:计算量子化整流线性X: min(max(features, 0), max_value)
raw_rnn()
:创建由RNNCell单元格和loop函数loop_fn指定的RNN。
relu()
: 计算校正线性:(features, 0)
.
relu6()
: 计算修正后的线性6: min(max(features, 0), 6)
.
relu_layer()
: 计算Relu(x * weight + biases).
safe_embedding_lookup_sparse()
: 查找嵌入结果,解释无效id和空特性。
sampled_softmax_loss()
: 计算并返回采样的softmax训练损失。
selu()
:计算比例指数线性:scale * alpha * (exp(features) - 1)
separable_conv2d()
: 二维卷积与可分离滤波器。
sigmoid()
: 计算x元素的sigmoid。
sigmoid_cross_entropy_with_logits()
: 计算给定对数的s形交叉熵。
softmax()
: 计算softmax激活。(deprecated arguments)
softmax_cross_entropy_with_logits()
: 计算logits和标签之间的softmax交叉熵。 (deprecated)
softmax_cross_entropy_with_logits_v2()
: 计算logits和标签之间的softmax交叉熵。(deprecated arguments)
softplus()
: 计算softplus: log(exp(features) + 1)
.
softsign()
: 计算softsign: features / (abs(features) + 1)
.
space_to_batch()
: 适用于T型4-D张量。
space_to_depth()
: T型张量的空间-深度。
sparse_softmax_cross_entropy_with_logits()
: 计算对数和标签之间的稀疏软最大交叉熵。
static_bidirectional_rnn()
: 建立一个双向递归神经网络。(deprecated)
static_rnn()
: 创建由RNNCell cell指定的递归神经网络。 (deprecated)
static_state_saving_rnn()
: RNN,它接受一个状态保护程序,用于时间截断的RNN计算。(deprecated)
sufficient_statistics()
: 计算x的均值和方差的充分统计量。
tanh()
: 计算x元素的双曲正切。
top_k()
: 查找最后一个维度的k个最大项的值和索引。
uniform_candidate_sampler()
: 使用统一的基分布对一组类进行采样。
weighted_cross_entropy_with_logits()
: 计算加权交叉熵。(deprecated arguments)
weighted_moments()
: 返回x的频率加权平均值和方差。
with_space_to_batch()
: 对输入的空间到批处理表示形式执行op。
xw_plus_b()
: 计算matmul(x,权值)+偏差。
zero_fraction()
:返回值中0的分数。
计算对数和标签之间的稀疏softmax交叉熵。
tf.nn.sparse_softmax_cross_entropy_with_logits(
_sentinel=None,
labels=None,
logits=None,
name=None
)
测量离散分类任务中的概率误差,其中的类是互斥的(每个条目恰好在一个类中)。例如,每个CIFAR-10图像都有且只有一个标签:一个图像可以是一条狗或一辆卡车,但不能同时是两条。
注意:对于这个操作,给定标签的概率被认为是排他的。也就是说,不允许使用软类,标签向量必须为每一行logits(每一个minibatch条目)的真正类提供一个特定的索引。对于每个条目都具有概率分布的softsoftmax分类,请参见softmax_cross_entropy_with_logits_v2。
警告:此op期望未缩放的日志,因为为了提高效率,它在内部对日志执行softmax。不要用softmax的输出调用这个op,因为它会产生不正确的结果。
一个常见的用例是有shape [batch_size, num_classes]的日志和shape [batch_size]的标签,但是支持更高的维度,在这种情况下,dim-th维度的大小假定为num_classes。logits必须具有float16、float32或float64的dtype,标签必须具有int32或int64的dtype。
注意,为了避免混淆,只需要将命名参数传递给这个函数。
参数:
labels
:形状张量[d_0, d_1,…], d_{r-1}](其中r为标签和结果的秩)和dtype int32或int64。标签中的每个条目必须是[0,num_classes]中的索引。当这个op在CPU上运行时,其他值将引发异常,并在GPU上返回相应的丢失和梯度行NaN。返回值:
可能产生的异常:
ValueError
: If logits are scalars (need to have rank >= 1) or if the rank of the labels is not equal to the rank of the logits minus one.转载地址:https://tensorflow.google.cn/versions/r1.14/api_docs/python/tf/nn