前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布

tf.nn

作者头像
狼啸风云
修改2022-09-04 21:46:37
1.5K0
修改2022-09-04 21:46:37
举报

一、函数列表

主要用来搭建神经网络。

all_candidate_sampler(): 生成所有类的集合。

atrous_conv2d(): 无源卷积(又称孔卷积或膨胀卷积)。

atrous_conv2d_transpose(): atrous_conv2d的转置。

avg_pool(): 对输入执行平均池操作。

avg_pool1d(): 对输入执行平均池操作。

avg_pool2d(): 对输入执行平均池操作。

avg_pool3d(): 对输入执行平均池操作。

avg_pool_v2(): 对输入执行平均池操作。

batch_norm_with_global_normalization(): 批归一化

batch_normalization(): 批归一化

bias_add(): 给值加上偏置

bidirectional_dynamic_rnn(): 创建一个双向递归神经网络的动态版本。(deprecated)

collapse_repeated():将重复的标签合并到单个标签中。

compute_accidental_hits(): 计算与true_classes匹配的sampled_candidate中的位置id。

conv1d(): 计算给定三维输入和滤波张量的一维卷积。(弃用参数值)(弃用参数值)

conv1d_transpose(): conv1d的转置。

conv2d(): 计算给定4-D输入和滤波张量的二维卷积。

conv2d_backprop_filter(): 计算卷积相对于滤波器的梯度。

conv2d_backprop_input(): 计算卷积相对于输入的梯度。

conv2d_transpose(): conv2d的转置。

conv3d(): 计算给定5-D输入和滤波张量的三维卷积。

conv3d_backprop_filter(): 计算三维卷积相对于滤波器的梯度。

conv3d_backprop_filter_v2(): 计算三维卷积相对于滤波器的梯度。

conv3d_transpose(): conv3d的转置。

conv_transpose(): 卷积的转置。

convolution():计算N-D卷积的和(实际上是互相关的)。

crelu(): 计算连接ReLU。

ctc_beam_search_decoder(): 对输入的日志执行波束搜索解码。

ctc_beam_search_decoder_v2(): 对输入的日志执行波束搜索解码。

ctc_greedy_decoder(): 对输入(最佳路径)中给定的日志执行贪婪解码。

ctc_loss(): 计算CTC(连接主义时间分类)损失。

ctc_loss_v2(): 计算CTC(连接主义时间分类)损失。

ctc_unique_labels(): 获取用于tf.n .ctc_loss的成批标签的惟一标签和索引。

depth_to_space(): T型张量的测深。

depthwise_conv2d(): 切除二维卷积。

depthwise_conv2d_backprop_filter(): 计算深度卷积相对于滤波器的梯度。

depthwise_conv2d_backprop_input(): 计算深度卷积相对于输入的梯度。

depthwise_conv2d_native(): 计算一个二维深度卷积给定4-D输入和滤波器张量。

depthwise_conv2d_native_backprop_filter(): 计算深度卷积相对于滤波器的梯度。

depthwise_conv2d_native_backprop_input(): 计算深度卷积相对于输入的梯度。

dilation2d(): 计算了4-D输入和3-D滤波张量的灰度膨胀。

dropout(): 计算dropout. (deprecated arguments)

dynamic_rnn(): 创建由RNNCell cell指定的递归神经网络。 (deprecated)

elu(): 计算指数线性:exp(特征)- 1如果< 0, features otherwise.

embedding_lookup(): 在嵌入张量列表中查找id。

embedding_lookup_sparse(): 计算给定id和权重的嵌入。

erosion2d(): 计算了4-D值和3-D核张量的灰度侵蚀。

fixed_unigram_candidate_sampler(): 使用提供的(固定的)基本分布对一组类进行示例。

fractional_avg_pool(): 对输入执行分数平均池化。 (deprecated)

fractional_max_pool(): 对输入执行分数最大池化。 (deprecated)

fused_batch_norm(): Batch normalization.

in_top_k(): 表示目标是否在前K个预测中。

l2_loss(): L2 Loss.

l2_normalize(): 使用L2范数沿着维度轴进行标准化。(deprecated arguments)

leaky_relu(): 计算泄漏的ReLU激活函数。

learned_unigram_candidate_sampler(): 从训练期间学到的分布中抽取一组类作为样本。

local_response_normalization(): Local Response Normalization.

log_poisson_loss(): 计算给定log_input的log泊松损失。

log_softmax(): 计算日志softmax激活。(deprecated arguments)

log_uniform_candidate_sampler(): 使用log_uniform (Zipfian)基分布对一组类进行示例。

lrn(): Local Response Normalization.

max_pool():对输入执行最大池化。

max_pool1d(): 对输入执行最大池化。

max_pool2d(): 对输入执行最大池化。

max_pool3d():对输入执行最大池化。

max_pool_v2(): 对输入执行最大池化。

max_pool_with_argmax(): 对输入和输出最大值和索引执行最大池化。

moments(.): 计算x的均值和方差。

nce_loss(): 计算并返回噪声对比估计训练损失。

normalize_moments():在充分统计的基础上,计算的均值和方差。

pool(): 执行N-D池操作。

quantized_avg_pool(): 生成量子化类型的输入张量的平均池。

quantized_conv2d(): 计算二维卷积给定量化的四维输入和滤波器张量。

quantized_max_pool(): 生成量子化类型的输入张量的最大池。

quantized_relu_x():计算量子化整流线性X: min(max(features, 0), max_value)

raw_rnn():创建由RNNCell单元格和loop函数loop_fn指定的RNN。

relu(): 计算校正线性:(features, 0).

relu6(): 计算修正后的线性6: min(max(features, 0), 6).

relu_layer(): 计算Relu(x * weight + biases).

safe_embedding_lookup_sparse(): 查找嵌入结果,解释无效id和空特性。

sampled_softmax_loss(): 计算并返回采样的softmax训练损失。

selu():计算比例指数线性:scale * alpha * (exp(features) - 1)

separable_conv2d(): 二维卷积与可分离滤波器。

sigmoid(): 计算x元素的sigmoid。

sigmoid_cross_entropy_with_logits(): 计算给定对数的s形交叉熵。

softmax(): 计算softmax激活。(deprecated arguments)

softmax_cross_entropy_with_logits(): 计算logits和标签之间的softmax交叉熵。 (deprecated)

softmax_cross_entropy_with_logits_v2(): 计算logits和标签之间的softmax交叉熵。(deprecated arguments)

softplus(): 计算softplus: log(exp(features) + 1).

softsign(): 计算softsign: features / (abs(features) + 1).

space_to_batch(): 适用于T型4-D张量。

space_to_depth(): T型张量的空间-深度。

sparse_softmax_cross_entropy_with_logits(): 计算对数和标签之间的稀疏软最大交叉熵。

static_bidirectional_rnn(): 建立一个双向递归神经网络。(deprecated)

static_rnn(): 创建由RNNCell cell指定的递归神经网络。 (deprecated)

static_state_saving_rnn(): RNN,它接受一个状态保护程序,用于时间截断的RNN计算。(deprecated)

sufficient_statistics(): 计算x的均值和方差的充分统计量。

tanh(): 计算x元素的双曲正切。

top_k(): 查找最后一个维度的k个最大项的值和索引。

uniform_candidate_sampler(): 使用统一的基分布对一组类进行采样。

weighted_cross_entropy_with_logits(): 计算加权交叉熵。(deprecated arguments)

weighted_moments(): 返回x的频率加权平均值和方差。

with_space_to_batch(): 对输入的空间到批处理表示形式执行op。

xw_plus_b(): 计算matmul(x,权值)+偏差。

zero_fraction():返回值中0的分数。

二、重要的API

1、tf.nn.sparse_softmax_cross_entropy_with_logits

计算对数和标签之间的稀疏softmax交叉熵。

代码语言:javascript
复制
tf.nn.sparse_softmax_cross_entropy_with_logits(
    _sentinel=None,
    labels=None,
    logits=None,
    name=None
)

测量离散分类任务中的概率误差,其中的类是互斥的(每个条目恰好在一个类中)。例如,每个CIFAR-10图像都有且只有一个标签:一个图像可以是一条狗或一辆卡车,但不能同时是两条。

注意:对于这个操作,给定标签的概率被认为是排他的。也就是说,不允许使用软类,标签向量必须为每一行logits(每一个minibatch条目)的真正类提供一个特定的索引。对于每个条目都具有概率分布的softsoftmax分类,请参见softmax_cross_entropy_with_logits_v2。

警告:此op期望未缩放的日志,因为为了提高效率,它在内部对日志执行softmax。不要用softmax的输出调用这个op,因为它会产生不正确的结果。

一个常见的用例是有shape [batch_size, num_classes]的日志和shape [batch_size]的标签,但是支持更高的维度,在这种情况下,dim-th维度的大小假定为num_classes。logits必须具有float16、float32或float64的dtype,标签必须具有int32或int64的dtype。

注意,为了避免混淆,只需要将命名参数传递给这个函数。

参数:

  • _sentinel:用于防止位置参数。内部,请勿使用。
  • labels:形状张量[d_0, d_1,…], d_{r-1}](其中r为标签和结果的秩)和dtype int32或int64。标签中的每个条目必须是[0,num_classes]中的索引。当这个op在CPU上运行时,其他值将引发异常,并在GPU上返回相应的丢失和梯度行NaN。
  • logits:每个标签激活(通常是线性输出)的形状[d_0, d_1,…, d_{r-1}, num_classes]和dtype float16、float32或float64。这些活化能被解释为非标准化的对数概率。
  • name:操作的名称(可选)。

返回值:

  • 一个与标签形状相同,与logits类型相同的张量,具有softmax交叉熵。

可能产生的异常:

  • ValueError: If logits are scalars (need to have rank >= 1) or if the rank of the labels is not equal to the rank of the logits minus one.

转载地址:https://tensorflow.google.cn/versions/r1.14/api_docs/python/tf/nn

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2019年07月29日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一、函数列表
  • 二、重要的API
    • 1、tf.nn.sparse_softmax_cross_entropy_with_logits
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档