腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(7334)
视频
沙龙
1
回答
tensorflow
softmax
_cross_entropy码
tensorflow
、
softmax
、
cross-entropy
由于tf.nn.
softmax
_cross_entropy_with_logits在gen_nn_ops
中
的
源代码
是隐藏
的
,有人能解释一下
tensorflow
是如何在
Softmax
之后计算
交叉
熵
的
吗?我
的
意思是,在
softmax
之后,由于精度
的
原因,它可能会输出0,从而产生一个具有
交叉
熵
的
NaN问题。当
浏览 4
提问于2017-10-19
得票数 1
回答已采纳
1
回答
Tensorflow
Github
源代码
中
Softmax
交叉
熵
的
实现
python
、
tensorflow
、
bazel
、
softmax
、
cross-entropy
我正在尝试在python
中
实现
Softmax
交叉
熵
损失。因此,我正在研究
GitHub
Tensorflow
存储库
中
Softmax
交叉
熵
损失
的
实现
。我试图理解它,但我遇到了一个由三个函数组成
的
循环,我不知道函数
中
的
哪行代码正在计算损失?函数
softmax
_cross_entropy_with_l
浏览 73
提问于2020-05-02
得票数 0
回答已采纳
1
回答
Convnet训练错误没有减少
machine-learning
、
deep-learning
、
neural-network
、
computer-vision
、
convolutional-neural-network
我正在训练一个复杂
的
神经网络来驾驶玩具车,不管我做了什么,训练
的
准确性不会超过30-35%,这是当convnet被随机初始化时
的
起点。三个同等比例
的
班级:左转,直走,右转在我看来,我
的
convnet甚至不适合训练数据
浏览 0
提问于2017-06-11
得票数 6
回答已采纳
3
回答
如何选择
TensorFlow
中
的
交叉
熵
损失?
python
、
tensorflow
、
neural-network
、
logistic-regression
、
cross-entropy
分类问题,如logistic回归或多项式logistic回归,优化了一个
交叉
熵
损失.通常情况下,
交叉
熵
层遵循软最大层,产生概率分布.在
tensorflow
中
,至少有一打不同
的
交叉
熵
损失函数()。tf.losses.
softmax
_cross_entropy tf.losses.sigmoid_cross_entro
浏览 19
提问于2017-10-31
得票数 99
回答已采纳
1
回答
Tensorflow
Convnet Strange
Softmax
输出
python
、
machine-learning
、
tensorflow
、
neural-network
我
的
Convnet
的
输出非常不寻常。当打印出前向传播结果
的
输出向量时,对于数据集中
的
整个标签,它完全是0,0,0,1,常数。我怀疑我
的
结构中有一个错误。CIFAR10 model. https://
github
.com/
tensorflow
/
tensorflow
/tree/r0.7/
tensorflow
/models/image/cif
浏览 15
提问于2017-03-03
得票数 0
回答已采纳
2
回答
为什么Pytorch和
Tensorflow
中
交叉
熵
的
实现
不同?
tensorflow
、
neural-network
、
pytorch
、
precision
我正在浏览Pytorch和
Tensorflow
中
的
交叉
熵
文档。我知道他们正在修改
交叉
熵
的
朴素
实现
,以解决潜在
的
数值溢出/下溢。然而,我不能理解这些修改是如何起作用
的
。遵循以下逻辑:哪里 这似乎不能解决问题,因为 现在,我们将其与
Tensorflow
的
浏览 7
提问于2020-08-30
得票数 5
1
回答
在
tensorflow
中计算二阶导数时出错
python
、
tensorflow
我正在训练一个需要计算梯度
的
二阶导数(即梯度)
的
模型。下面是一小段这样做
的
代码: 1 - adversary_label, adversary_logits' # doesnt work using tf.nn.
softmax
_cross_entropy_with_logits too.ops.get_gradient_function(op) File "
浏览 6
提问于2017-07-16
得票数 1
2
回答
卷积神经网络损耗
tensorflow
在计算损失函数时。我可以手动计算损失吗?然后使用Adam优化器优化这个损失
浏览 1
提问于2018-03-03
得票数 0
回答已采纳
1
回答
tensorflow
是否支持非标准化损失?
tensorflow
我正在使用
tensorflow
框架进行语义分割。我
的
问题是,
tensorflow
是否支持具有
交叉
熵
的
softmax
的
非标准化损失,例如:
浏览 6
提问于2018-01-24
得票数 0
1
回答
Kullback Liebler发散已经在
TensorFlow
中
实现
了吗?
machine-learning
、
tensorflow
、
data-loss
我正在与
tensorflow
合作,并使用Nueral来解决多标签分类问题。我使用
Softmax
交叉
熵
作为我
的
损失函数:cost = tf.reduce_mean(tf.nn.
softmax
_cross_entropy_with_logits(pred但是,我没有在
tensorflow
中找到它,有没有人可以帮助我使用KL散度损失函数而不是
Softmax
损失?
浏览 6
提问于2016-04-12
得票数 1
1
回答
如果可能,
TensorFlow
会自动使用sparse_
softmax
_cross_entropy_with_logits吗?
tensorflow
# reference labels of type (batch,time)->intloss = -tf.log(tf.gather_nd(out, labels))我可以期望
TensorFlow
会应用哪种类型
的
优化?假设我有一个模块框架,
浏览 4
提问于2016-12-12
得票数 0
回答已采纳
3
回答
在Keras (
Tensorflow
后端)中使用binary_crossentropy损耗
tensorflow
、
keras
在Keras文档
中
的
培训示例
中
, def binary_crossentropy(output, target, from_logits=False): """Binary crossentropy betweenoutput / (1 - outp
浏览 8
提问于2017-08-17
得票数 8
1
回答
标准化
交叉
熵
损失
实现
Tensorflow
/Keras
tensorflow
、
keras
、
deep-learning
、
pytorch
、
loss-function
我正在尝试
实现
标准化
的
交叉
熵
损失,如中所描述
的
本文提供了一个PyTorch
实现
:class NormalizedCrossEntropy(= num_classes def forward(self, pred, labels): pred = F.log_
softmax
label_one_hot * pred,
浏览 3
提问于2022-07-24
得票数 0
回答已采纳
3
回答
什么是体重衰减?
machine-learning
、
tensorflow
、
deep-learning
、
linear-algebra
我最近开始学习ML和
TensorFlow
。在浏览网站上
的
时,我看到了一段让我有点困惑
的
段落: 训练网络进行N维分类
的
常用方法是多项式logistic回归。
softmax
回归
Softmax
回归将一个
softmax
非线性应用于网络
的
输出,并计算归一化预测和标签
的
1-热编码之间
的
交叉
熵
。对于正则化,我们还将通常
的
质量衰减损失应用于所有学习变量。模型
的
浏览 14
提问于2017-08-07
得票数 2
回答已采纳
1
回答
输出层在自定义估计器
中
没有激活函数
tensorflow
、
machine-learning
、
neural-network
在
中
,输出层没有激活。logits = tf.layers.dense(net, params['n_classes'], activation=None)问题 一般来说,输出层也应该有激活功能吗sparse_
softmax
_cross_entropy是指在计算损耗时,采用
浏览 1
提问于2018-03-26
得票数 1
回答已采纳
3
回答
TensorFlow
中
交叉
熵
的
计算
python
、
machine-learning
、
tensorflow
、
cross-entropy
我很难在
tensorflow
中计算
交叉
熵
。具体来说,我使用
的
是函数:使用看似简单
的
代码,我只能让它返回一个零sess.run(tf.global_variables_initializer()) c = tf.nn.
softmax
浏览 0
提问于2017-03-01
得票数 9
回答已采纳
2
回答
在
Tensorflow
和Keras
的
双通道上产生一个软件
python
、
tensorflow
、
keras
、
softmax
我
的
网络
的
倒数第二层有形状
的
(U, C),其中C是信道
的
数量。我想将
softmax
函数分别应用于每个频道。例如,如果U=2和C=3以及该层生成[ [1 2 3], [10 20 30] ],我希望输出对通道0执行
softmax
(1, 2, 3),对通道1执行
softmax
(10, 20, 30)。我使用
TensorFlow
作为后端。还请解释如何确保损失是两个
交叉
熵
之和,我如何才能证实?(也就是说,我不希望优化
浏览 0
提问于2018-11-23
得票数 0
回答已采纳
2
回答
Keras
的
CategoricalCrossEntropy到底在做什么?
python
、
tensorflow
、
machine-learning
、
keras
我正在将一个keras模型移植到torch上,并且在一个
softmax
层之后,我很难复制keras/
tensorflow
的
'categorical_crossentropy'的确切行为。我有一些解决这个问题
的
方法,所以我只想了解
tensorflow
在计算绝对
交叉
熵
时计算
的
是什么。>>&
浏览 0
提问于2020-12-03
得票数 6
回答已采纳
2
回答
为什么做
softmax
和
交叉
熵
会产生不同
的
结果,而不是用
softmax
_cross_entropy_with_logits一起做呢?
python
、
tensorflow
、
deep-learning
我正在制作一台计算机,用
softmax
函数从MNist数据集中预测手写
的
数字。奇怪
的
事情发生了。随着时间
的
推移,成本逐渐减少,最终变成了大约0.0038.所以我想,“我不知道那里发生了什么,但是如果我分别做
softmax
和
交叉
熵
,可能会产生不同
的
结果!”然后砰!准确率提高到89 %。我不知道为什么做
softmax
和
交叉
熵
会产生如此不同
的
结果。我甚至在这里看了看: 这就是我用
浏览 7
提问于2017-05-12
得票数 2
回答已采纳
2
回答
在
Tensorflow
中
,sampled_
softmax
_loss和
softmax
_cross_entropy_with_logits之间
的
区别是什么
python
、
machine-learning
、
deep-learning
、
tensorflow
在
tensorflow
中
,有称为和
的
方法。loss = tf.reduce_mean(tf.nn.sampled_
softmax
_loss(...))使用
softmax
_cross_entropy_with_logits计算损失 loss = tf.
浏览 1
提问于2016-02-06
得票数 16
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深度学习入门:Tensorflow实战Digit Recognizer(一)
撸起袖子加油干
神经网络
机器学习100天-Day1504训练模型-softmax回归
一步步提高手写数字的识别率(1)
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券