tf.nn

一、函数列表

主要用来搭建神经网络。

all_candidate_sampler(): 生成所有类的集合。

atrous_conv2d(): 无源卷积(又称孔卷积或膨胀卷积)。

atrous_conv2d_transpose(): atrous_conv2d的转置。

avg_pool(): 对输入执行平均池操作。

avg_pool1d(): 对输入执行平均池操作。

avg_pool2d(): 对输入执行平均池操作。

avg_pool3d(): 对输入执行平均池操作。

avg_pool_v2(): 对输入执行平均池操作。

batch_norm_with_global_normalization(): 批归一化

batch_normalization(): 批归一化

bias_add(): 给值加上偏置

bidirectional_dynamic_rnn(): 创建一个双向递归神经网络的动态版本。(deprecated)

collapse_repeated():将重复的标签合并到单个标签中。

compute_accidental_hits(): 计算与true_classes匹配的sampled_candidate中的位置id。

conv1d(): 计算给定三维输入和滤波张量的一维卷积。(弃用参数值)(弃用参数值)

conv1d_transpose(): conv1d的转置。

conv2d(): 计算给定4-D输入和滤波张量的二维卷积。

conv2d_backprop_filter(): 计算卷积相对于滤波器的梯度。

conv2d_backprop_input(): 计算卷积相对于输入的梯度。

conv2d_transpose(): conv2d的转置。

conv3d(): 计算给定5-D输入和滤波张量的三维卷积。

conv3d_backprop_filter(): 计算三维卷积相对于滤波器的梯度。

conv3d_backprop_filter_v2(): 计算三维卷积相对于滤波器的梯度。

conv3d_transpose(): conv3d的转置。

conv_transpose(): 卷积的转置。

convolution():计算N-D卷积的和(实际上是互相关的)。

crelu(): 计算连接ReLU。

ctc_beam_search_decoder(): 对输入的日志执行波束搜索解码。

ctc_beam_search_decoder_v2(): 对输入的日志执行波束搜索解码。

ctc_greedy_decoder(): 对输入(最佳路径)中给定的日志执行贪婪解码。

ctc_loss(): 计算CTC(连接主义时间分类)损失。

ctc_loss_v2(): 计算CTC(连接主义时间分类)损失。

ctc_unique_labels(): 获取用于tf.n .ctc_loss的成批标签的惟一标签和索引。

depth_to_space(): T型张量的测深。

depthwise_conv2d(): 切除二维卷积。

depthwise_conv2d_backprop_filter(): 计算深度卷积相对于滤波器的梯度。

depthwise_conv2d_backprop_input(): 计算深度卷积相对于输入的梯度。

depthwise_conv2d_native(): 计算一个二维深度卷积给定4-D输入和滤波器张量。

depthwise_conv2d_native_backprop_filter(): 计算深度卷积相对于滤波器的梯度。

depthwise_conv2d_native_backprop_input(): 计算深度卷积相对于输入的梯度。

dilation2d(): 计算了4-D输入和3-D滤波张量的灰度膨胀。

dropout(): 计算dropout. (deprecated arguments)

dynamic_rnn(): 创建由RNNCell cell指定的递归神经网络。 (deprecated)

elu(): 计算指数线性:exp(特征)- 1如果< 0, features otherwise.

embedding_lookup(): 在嵌入张量列表中查找id。

embedding_lookup_sparse(): 计算给定id和权重的嵌入。

erosion2d(): 计算了4-D值和3-D核张量的灰度侵蚀。

fixed_unigram_candidate_sampler(): 使用提供的(固定的)基本分布对一组类进行示例。

fractional_avg_pool(): 对输入执行分数平均池化。 (deprecated)

fractional_max_pool(): 对输入执行分数最大池化。 (deprecated)

fused_batch_norm(): Batch normalization.

in_top_k(): 表示目标是否在前K个预测中。

l2_loss(): L2 Loss.

l2_normalize(): 使用L2范数沿着维度轴进行标准化。(deprecated arguments)

leaky_relu(): 计算泄漏的ReLU激活函数。

learned_unigram_candidate_sampler(): 从训练期间学到的分布中抽取一组类作为样本。

local_response_normalization(): Local Response Normalization.

log_poisson_loss(): 计算给定log_input的log泊松损失。

log_softmax(): 计算日志softmax激活。(deprecated arguments)

log_uniform_candidate_sampler(): 使用log_uniform (Zipfian)基分布对一组类进行示例。

lrn(): Local Response Normalization.

max_pool():对输入执行最大池化。

max_pool1d(): 对输入执行最大池化。

max_pool2d(): 对输入执行最大池化。

max_pool3d():对输入执行最大池化。

max_pool_v2(): 对输入执行最大池化。

max_pool_with_argmax(): 对输入和输出最大值和索引执行最大池化。

moments(.): 计算x的均值和方差。

nce_loss(): 计算并返回噪声对比估计训练损失。

normalize_moments():在充分统计的基础上,计算的均值和方差。

pool(): 执行N-D池操作。

quantized_avg_pool(): 生成量子化类型的输入张量的平均池。

quantized_conv2d(): 计算二维卷积给定量化的四维输入和滤波器张量。

quantized_max_pool(): 生成量子化类型的输入张量的最大池。

quantized_relu_x():计算量子化整流线性X: min(max(features, 0), max_value)

raw_rnn():创建由RNNCell单元格和loop函数loop_fn指定的RNN。

relu(): 计算校正线性:(features, 0).

relu6(): 计算修正后的线性6: min(max(features, 0), 6).

relu_layer(): 计算Relu(x * weight + biases).

safe_embedding_lookup_sparse(): 查找嵌入结果,解释无效id和空特性。

sampled_softmax_loss(): 计算并返回采样的softmax训练损失。

selu():计算比例指数线性:scale * alpha * (exp(features) - 1)

separable_conv2d(): 二维卷积与可分离滤波器。

sigmoid(): 计算x元素的sigmoid。

sigmoid_cross_entropy_with_logits(): 计算给定对数的s形交叉熵。

softmax(): 计算softmax激活。(deprecated arguments)

softmax_cross_entropy_with_logits(): 计算logits和标签之间的softmax交叉熵。 (deprecated)

softmax_cross_entropy_with_logits_v2(): 计算logits和标签之间的softmax交叉熵。(deprecated arguments)

softplus(): 计算softplus: log(exp(features) + 1).

softsign(): 计算softsign: features / (abs(features) + 1).

space_to_batch(): 适用于T型4-D张量。

space_to_depth(): T型张量的空间-深度。

sparse_softmax_cross_entropy_with_logits(): 计算对数和标签之间的稀疏软最大交叉熵。

static_bidirectional_rnn(): 建立一个双向递归神经网络。(deprecated)

static_rnn(): 创建由RNNCell cell指定的递归神经网络。 (deprecated)

static_state_saving_rnn(): RNN,它接受一个状态保护程序,用于时间截断的RNN计算。(deprecated)

sufficient_statistics(): 计算x的均值和方差的充分统计量。

tanh(): 计算x元素的双曲正切。

top_k(): 查找最后一个维度的k个最大项的值和索引。

uniform_candidate_sampler(): 使用统一的基分布对一组类进行采样。

weighted_cross_entropy_with_logits(): 计算加权交叉熵。(deprecated arguments)

weighted_moments(): 返回x的频率加权平均值和方差。

with_space_to_batch(): 对输入的空间到批处理表示形式执行op。

xw_plus_b(): 计算matmul(x,权值)+偏差。

zero_fraction():返回值中0的分数。

二、重要的API

1、tf.nn.sparse_softmax_cross_entropy_with_logits

计算对数和标签之间的稀疏softmax交叉熵。

tf.nn.sparse_softmax_cross_entropy_with_logits(
    _sentinel=None,
    labels=None,
    logits=None,
    name=None
)

测量离散分类任务中的概率误差,其中的类是互斥的(每个条目恰好在一个类中)。例如,每个CIFAR-10图像都有且只有一个标签:一个图像可以是一条狗或一辆卡车,但不能同时是两条。

注意:对于这个操作,给定标签的概率被认为是排他的。也就是说,不允许使用软类,标签向量必须为每一行logits(每一个minibatch条目)的真正类提供一个特定的索引。对于每个条目都具有概率分布的softsoftmax分类,请参见softmax_cross_entropy_with_logits_v2。

警告:此op期望未缩放的日志,因为为了提高效率,它在内部对日志执行softmax。不要用softmax的输出调用这个op,因为它会产生不正确的结果。

一个常见的用例是有shape [batch_size, num_classes]的日志和shape [batch_size]的标签,但是支持更高的维度,在这种情况下,dim-th维度的大小假定为num_classes。logits必须具有float16、float32或float64的dtype,标签必须具有int32或int64的dtype。

注意,为了避免混淆,只需要将命名参数传递给这个函数。

参数:

  • _sentinel:用于防止位置参数。内部,请勿使用。
  • labels:形状张量[d_0, d_1,…], d_{r-1}](其中r为标签和结果的秩)和dtype int32或int64。标签中的每个条目必须是[0,num_classes]中的索引。当这个op在CPU上运行时,其他值将引发异常,并在GPU上返回相应的丢失和梯度行NaN。
  • logits:每个标签激活(通常是线性输出)的形状[d_0, d_1,…, d_{r-1}, num_classes]和dtype float16、float32或float64。这些活化能被解释为非标准化的对数概率。
  • name:操作的名称(可选)。

返回值:

  • 一个与标签形状相同,与logits类型相同的张量,具有softmax交叉熵。

可能产生的异常:

  • ValueError: If logits are scalars (need to have rank >= 1) or if the rank of the labels is not equal to the rank of the logits minus one.

转载地址:https://tensorflow.google.cn/versions/r1.14/api_docs/python/tf/nn

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • SSD: Single Shot MultiBox Detector

    本文提出了一个使用单一深度神经网络对图像中的目标进行检测的方法。本文的方法称为SSD,根据每个feature map位置不同的宽高比和尺度,将Bounding ...

    于小勇
  • tf.layers

    于小勇
  • Prior-based Domain Adaptive Object Detection for Hazy and Rainy Conditions

    恶劣的天气条件,如雾霾和雨水,会破坏捕获图像的质量,导致训练在干净图像上的检测网络在这些图像上表现不佳。为了解决这一问题,我们提出了一种无监督的基于先验的领域对...

    于小勇
  • 石桥码农:20 vue计算属性和侦听器

    在template里的插值表达式,如果太长,会让模板代码变得难于维护;如果有多处用到了同样的插值表达式,也不便于复用和修改。例如,这样的一个插值表达式:

    李艺
  • 关于vue的使用计算属性VS使用计算方法的问题

     在vue中需要做一些计算时使用计算属性和调用methods方法都可以达到相同的效果,那么这两种使用方式的区别在哪里: <div id="example"> ...

    李文杨
  • 【实践】Golang的goroutine和通道的8种姿势

    如果说php是最好的语言,那么golang就是最并发的语言。 支持golang的并发很重要的一个是goroutine的实现,那么本文将重点围绕goroutin...

    辉哥
  • Python惰性序列

    Python的iterator就是一个惰性序列,要说明什么是惰性序列,首先我们得知道什么是惰性计算。 事实上,很多如Java在内的高级语言都支持惰性序...

    Steve Wang
  • web前端开发规范总结

    Web前端作为开发团队中不可或缺的一部分,需要按照相关规定进行合理编写(一部分不良习惯可能给自己和他人造成不必要的麻烦)。不同公司不同团队具有不同的规范和文档。...

    一墨编程学习
  • web前端开发规范总结

    Web前端作为开发团队中不可或缺的一部分,需要按照相关规定进行合理编写(一部分不良习惯可能给自己和他人造成不必要的麻烦)。不同公司不同团队具有不同的规范和文档。...

    用户7005037
  • Spring IOC(依赖注入、控制反转)概念理解

    用了Spring之后, Spring容器会负责把被依赖的B组件注入到A组件中,A只要被动地等待即可。

    Dunizb

扫码关注云+社区

领取腾讯云代金券