腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(671)
视频
沙龙
0
回答
如
何为
相等
的
logits
和
标签
定义
交叉
熵
?
、
、
、
、
所以基本上我们通常这样
定义
交叉
熵
: `tf.nn.sparse_softmax_cross_entropy_with_
logits
` `tf.nn.softmax_cross_entropy_with_
logits
`现在我
的
标签
是这个日志。[
浏览 0
提问于2018-07-10
得票数 0
回答已采纳
1
回答
tf.nn.softmax_cross_entropy_with_
logits
如何计算tensorflow中
的
最大
交叉
熵
?
tf.nn.softmax_cross_entropy_with_
logits
,文档显示它计算了逻辑
和
标签
之间
的
最大
交叉
熵
,这意味着什么?它不是应用了
交叉
熵
损失函数公式吗?为什么文档说它计算软最大
交叉
熵
?
浏览 5
提问于2017-05-22
得票数 2
2
回答
损失从一开始就等于0
、
、
、
我
的
预处理后
的
训练数据如下所示:010X = tf.placeholder(tf.float32, [None, data_x.shape[1
浏览 13
提问于2017-08-18
得票数 1
4
回答
屏蔽张量损失
、
、
、
假设我有这样
的
逻辑[0.5, 2.3, 0, 0, 0]][[1, 0, 0, 0, 0], [0, 1, 0,
浏览 0
提问于2017-06-06
得票数 10
1
回答
多层神经网络-损失函数为负,精度(低)保持不变
、
、
、
我建立了一个具有两个隐藏层
的
神经网络。对于两层,我使用ReLu激活,对于最后一层( out_layer),我使用线性激活函数。输入值x有125列(特征)。is_training=tf.Variable(True,dtype=tf.bool) cost = tf.reduce_mean(cross_entropy) with tf.control_
浏览 5
提问于2017-10-09
得票数 1
2
回答
稀疏
交叉
熵
损失中稀疏
的
含义?
、
、
I来自文档
的
: 计算
标签
和
预测之间
的
交叉
熵
损失。当有两个或多个
标签
类时,使用这个
交叉
熵
损失函数。我们期望
标签
以整数
的
形式提供。如果您
浏览 5
提问于2020-06-22
得票数 2
回答已采纳
3
回答
我应该使用softmax或tf.nn.sigmoid_cross_entropy_with_
logits
生成一个多类分类,并且每个类
的
概率都是这样吗?
、
、
、
DNASeqFoundInProcessCat,->,这是我想预测
的
标签
。它是一个有四个类别的范畴值(found_in_0,->,found_in_3)。我
的
问题是:对于一组看不见
的
序列,我希望
标签
的
输出集是‘found_1’,'found_in_2','found_in_3‘
的
多类概率。我想找出
的
是算法,特别是一个特定
的
点。我
的
想法是:df = pd.re
浏览 5
提问于2020-04-26
得票数 0
2
回答
Keras版本
的
组合
交叉
熵
和
校准损失
、
、
、
、
该研究通过测量预测置信度
和
准确性(DCA)之间
的
差异,并将其作为辅助项添加到
交叉
熵
损失中,将校准纳入深度学习模型
的
训练过程。据说DCA项适用于当
交叉
熵
损失减少时应用惩罚,但准确性处于平台期。Pytorch中
的
代码如下: import torch def cross_entropy_with_dca_loss(
logits
dca = torch.abs(mean
浏览 64
提问于2021-08-12
得票数 0
回答已采纳
2
回答
TensorFlow softmax_crossentropy_with
logits
:"labels“是否也经过训练(如果可区分)?
、
、
、
、
具有
logits
损失函数
的
softmax
交叉
熵
用于减少提供给该函数
的
logits
和
标签
之间
的
差异。通常,
标签
是固定
的
,用于监督学习,并且
logits
是自适应
的
。但是,当
标签
来自可区分
的
来源时会发生什么呢?两个网络,即"
logits
网络“
和
”
标签
网络“是否都由随后<e
浏览 12
提问于2017-12-15
得票数 0
2
回答
在Keras
和
TensorFlow中,所有这些
交叉
熵
损失有什么区别?
、
、
、
、
所有这些
交叉
熵
损失之间有什么区别?凯拉斯在说 具有
logits
的
Sigmoid
交叉
<em
浏览 4
提问于2017-06-21
得票数 40
回答已采纳
1
回答
当我试图运行我
的
深层神经网络时,ValueError
、
、
prediction = neural_network_model(x) optimizer = tf.train.AdamOptimizer(learning_rate=0.001).minimize(costfloat')) print('Accuracy:',accuracy.eval({x:test_x,
浏览 1
提问于2018-05-30
得票数 0
1
回答
from_
logits
=True但损失为0
、
据我所知,数学
交叉
熵
要求其输入之和为1。(from_
logits
=False).call(y_true, y_pred)) “在上述代码中,raw_predict
浏览 1
提问于2021-04-04
得票数 2
回答已采纳
1
回答
如何在前馈神经网络中鼓励冒险?
、
、
、
、
我第一次真正深入研究神经网络,并试图在没有任何外部数据库
的
情况下构建经典
的
“号码识别网络”。在一些初始测试之后,我遇到了我
的
网络将所有权重保持在令人难以置信
的
低水平,以便输出几乎为零
的
问题。我明白为什么会发生这种情况(每次程序得到10个输出中
的
9个都是正确
的
!)但很明显,这是我需要阻止
的
事情。 有谁有关于如何解决这个问题
的
建议吗?我正在为前馈神经网络使用sigmoid激活函数
和
交叉
熵</em
浏览 3
提问于2020-03-23
得票数 1
3
回答
一种多
标签
分类模型
的
评价
、
、
、
、
我目前有一个多
标签
的
分类问题,我正在使用keras构建一个神经网络,如下所示:print(n_cols) plt.xlabel('Epoch')plt.show() 我被告知,对于多
标签
分类但是,使用此方法,我将分别得到一个a
浏览 0
提问于2020-07-16
得票数 0
回答已采纳
1
回答
pytorch python中无法使用多目标损失函数
、
、
、
、
我无法在pytorch中对多
标签
分类使用损失函数这是我
的
损失函数: pred = torch.tensor(pred)我也在cross_entropy上尝试过:但是这个错误仍然出现,在pytorch中是否存在用于multi_label分类
的
内置损失
浏览 6
提问于2021-09-24
得票数 0
1
回答
TF/Keras稀疏分类
交叉
性
、
、
我
的
数据被粗略地贴上了一个类别“重要性”
的
标签
。基本上,
标签
是0..5并且具有相同
的
含义-它们表示相同
的
事件,只是具有不同
的
突出度。想象一个阳光明媚
的
海滩?,你
的
数据是波浪在沙子上滚动
的
力(或者另一种解释-每个波浪传播
的
距离海滩边缘,并被分成5个箱/类别)。我
的
问题是-如果我使用稀疏分类
交叉
点来预测波类别,TF/Keras模型是否会“理解”5比
浏览 13
提问于2019-08-11
得票数 1
1
回答
火炬软标记
的
交叉
熵
、
我试图
定义
一个两类分类问题
的
损失函数。但是,目标
标签
不是硬
标签
0,1,而是介于0~1之间
的
浮点数。def cross_entropy(self, pred, target): loss = -torch.mean(torch.sum(target.flatten() * to
浏览 4
提问于2021-12-21
得票数 3
2
回答
使用TensorFlow
的
sigmoid_cross_entropy_with_
logits
,成本函数应该是零吗?
、
、
、
为此,我使用了成本函数sigmoid_cross_entropy_with_
logits
。这个公式: max(x, 0) - x * z + log(1 +
浏览 0
提问于2018-08-16
得票数 0
1
回答
从图像中预测数值
、
我有两个问题:我必须遵循
的
方法是什么? x = Dense(512, activation='relu')(x) predictions = Dense(1)(x) 所以,只需在一个节点
的
末尾使用一个密集
的
层
浏览 0
提问于2019-07-04
得票数 1
回答已采纳
2
回答
Keras
的
CategoricalCrossEntropy到底在做什么?
、
、
、
我有一些解决这个问题
的
方法,所以我只想了解tensorflow在计算绝对
交叉
熵
时计算
的
是什么。>>> pred = np.array([[0.0, 1.0], [0.0, 1.0]])>>> pr
浏览 0
提问于2020-12-03
得票数 6
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
神经网络
KL散度和交叉熵的对比介绍
最小化交叉熵损失与求极大似然
掌握机器学习数学基础之信息论及其他(一)
Python用MarkovRNN马尔可夫递归神经网络建模序列数据t-SNE可视化研究
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券