腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(2239)
视频
沙龙
2
回答
CNN
算法
预测
值
为
1.0
,
因此
交叉
熵
成本
函数
会
给出
被
零
除
的
警告
python
、
numpy
、
neural-network
、
cross-entropy
我正在使用
CNN
做二进制分类。而
交叉
熵
函数
是由代码计算
的
: (-1 / m) * np.sum(np.multiply(Y, np.log(AL)) + np.multiply(1 - Y, np.log(1 - AL))) 当
算法
预测
值
为
1.0
时,此
成本
函数
会发出
被
零
除
的
警告
。或者
浏览 22
提问于2019-06-03
得票数 0
1
回答
什么使二进制
交叉
熵
比其他损失
函数
更好地选择二进制分类?
machine-learning
、
classification
、
loss-function
我正在阅读这个帖子,在这里我看到了这句话:“
交叉
熵
是用于二进制分类问题
的
默认损失
函数
。” 但是它如何使它成为二进制分类
的
默认且可能最好
的
损失
函数
呢?
浏览 0
提问于2019-06-07
得票数 7
6
回答
是否可以为逻辑回归定义自己
的
成本
函数
?
machine-learning
、
data-mining
、
regression
在最小二乘模型中,
成本
函数
被
定义
为
预测
值
与实际
值
之差
的
平方,作为输入
的
函数
。当我们进行逻辑回归时,我们将
成本
函数
更改为对数
函数
,而不是将其定义
为
sigmoid
函数
(输出
值
)与实际输出之间
的
差值
的
平方。 是否可以更改和定义我们自己
的
成本
<em
浏览 2
提问于2012-08-28
得票数 22
回答已采纳
1
回答
计算多个张量
的
损失
值
tensorflow
、
deep-learning
、
conv-neural-network
在我
的
CNN
深度学习网络
的
计算过程中,训练阶段
的
损失是用
交叉
熵
函数
计算
的
: tf.nn.weighted_cross_entropy_with_logits(targets = labels_flat实际上,我
的
基本事实可以从2-3个像素局部移动,
因此
,我想使用“像素级”比较
的
不确定性来计算
交叉
熵
。 为此,我
的
处理过程如下:我定义了所需
的
浏览 44
提问于2019-10-15
得票数 2
回答已采纳
2
回答
logistic回归中代价
函数
的
局部和全局最小
值
machine-learning
、
logistic-regression
、
convex-optimization
、
convex
我误解了逻辑回归公式推导中
的
最小
值
背后
的
想法。 这个想法是尽可能地增加假设(即正确
的
预测
概率尽可能接近于1),这反过来需要尽可能最小化
成本
函数
$J(\θ)$。现在我被告知,为了让这一切都起作用,
成本
函数
必须是凸
的
。我对凸性
的
理解要求没有最大
值
,
因此
只能有一个最小
值
,全局最小
值
。真的是这样吗?如果不是,请解释为什么不是。此外,如果
浏览 3
提问于2016-10-09
得票数 5
2
回答
卷积神经网络在电流
预测
中
的
应用
neural-network
、
tensorflow
、
deep-learning
、
conv-neural-network
我是
CNN
和Tensorflow
的
初学者。你能给我做
CNN
预测
的
任何文件或线索吗?
浏览 8
提问于2016-12-06
得票数 1
回答已采纳
2
回答
python -日志中遇到无效
值
python
、
numpy
、
math
、
cross-entropy
我有以下表达式:log = np.sum(np.nan_to_num(-y*np.log(a+ 1e-7)-(1-y)*np.log(1-a+ 1e-7)))RuntimeWarningencountered in log我不明白什么可能是无效
值
,任何人
的
帮助我们都很感激。 注释:这是一个
交叉
熵
成本
函数</em
浏览 435
提问于2016-05-28
得票数 23
回答已采纳
1
回答
Gans中发电机
的
损耗
函数
machine-learning
、
computer-vision
、
artificial-intelligence
、
conv-neural-network
、
generative-adversarial-network
我已经深入地研究过甘斯,也在用火把来实现它,现在我正在研究甘斯背后
的
核心统计数据,当我看网站时,它说。 生成器和实标签产生
的
图像
的
鉴别器输出之间
的
by
交叉
熵
损失
浏览 0
提问于2018-07-12
得票数 2
回答已采纳
1
回答
神经学习
的
准确性成为NaN (tensorflow)
python
、
tensorflow
因此
,我使用sigmoid_cross_entropy_with_logits(),并使用tf.train.AdadeltaOptimizer()将其最小化。
浏览 0
提问于2018-03-26
得票数 1
回答已采纳
1
回答
暹罗网络
的
成本
保持不变,
为
0.6932
python
、
tensorflow
、
conv-neural-network
我正在尝试实现一个暹罗网络,就像在这个中def loss(pred,true_pred):
浏览 3
提问于2018-06-06
得票数 3
3
回答
Tensorflow中来自sparse_softmax_cross_entropy_with_logits
的
NaN
python
、
tensorflow
当我尝试使用tensorflow中
的
sparse_softmax_cross_entropy_with_logits损失
函数
时,我得到了NaN。我有一个简单
的
网络,类似于:layer = tf.nn.relu(tf.matmul(layer, W2), W3) + b3我有很多类(~10000),所以我假设我得到
浏览 0
提问于2016-09-20
得票数 7
回答已采纳
1
回答
Tensorflow:权重衰减与对数归一化
machine-learning
、
tensorflow
我正在开发一个类似于示例
的
CNN
。我
的
CNN
由两个卷积层组成,每个卷积层后面跟着一个最大池层,以及三个完全连接
的
层。
除
最后一层外
的
所有层都使用激活
函数
。最后一层产生顺序
为
10^5
的
逻辑,
因此
运行softmax
函数
会
导致一次热编码。我试着用两种不同
的
方法来解决这个问题。 首先,我简单地将logits重新缩放
为
[-1, 1],即对它
浏览 1
提问于2016-09-02
得票数 3
1
回答
应用PyTorch CrossEntropy方法进行多类分割
python
、
conv-neural-network
、
pytorch
、
multiclass-classification
、
cross-entropy
我正在尝试实现一个简单
的
例子,说明如何将
交叉
熵
应用于我
的
语义切分
CNN
的
输出。请注意,在“out”张量中,每一行都有来自该类
的
1.0
%
的
概率,从而与目标完全匹配。例如,第三个通道(信道2)有其整个第3行(第2行),从该通道中
的
概率
为
1.0
,而在任何其他地方为
零
;
因此
,它也匹配第三行目标上
的
2。 在这个例子中,我期望两个张量之间
浏览 0
提问于2019-02-13
得票数 3
1
回答
理解softmax_cross_entropy_with_logits
的
输出
tensorflow
我刚开始接触tensorflow,有人能解释一下我们是怎么得到1.16012561
的
答案
的
吗? unscaled_logits = tf.constant([[1., -3., 10.]])
浏览 2
提问于2017-08-03
得票数 2
3
回答
MSE损失与
交叉
熵
损失
的
收敛性比较
machine-learning
、
logistic-regression
、
loss
、
cross-entropy
、
mean-square-error
对于一个目标向量0,0,0,....0和
预测
向量0,0.1,0.2
的
简单分类问题,....1
的
交叉
熵
损失
会
更好/更快地收敛,还是MSE损失?当我绘制它们时,在我看来,MSE损失有一个较低
的
误差范围。为什么
会
这样? 例如,当我
的
目标
为
1,1,1,1.1时,我得到以下信息:
浏览 0
提问于2018-03-16
得票数 3
回答已采纳
3
回答
简单logistic回归错误
预测
logistic-regression
在下面的例子中,$x=$在拟合模型后得到
的
预测
值
为
$1$,但预期
为
$0$。]) model.fit(X,Y) y = model.predict([x])[0] 只有当我复制($x=,y=$)
的
培训行时
浏览 0
提问于2018-01-04
得票数 1
2
回答
激活
函数
: Softmax vs Sigmoid
python
、
conv-neural-network
、
softmax
、
activation-function
、
sigmoid
我一直在尝试用
CNN
制作一个图像分类器。我
的
数据集中有2300张图片和两类:男性和女性。下面是我使用
的
模型:该模型
的
精度
为
0.
浏览 4
提问于2020-12-11
得票数 2
回答已采纳
1
回答
基于softmax
的
交叉
熵
:数学推导
machine-learning
、
deep-learning
、
data-science-model
我试图在softmax
的
背景下理解
交叉
熵
损失
的
推导。然而,有些步骤对我来说还不清楚。
因此
,如果有人能解释的话,我将不胜感激。Y=一个热编码(表示真正
的
标签)=选择器 神经网络
预测
的
y ̂=
值
和软件最大
值
。θ
的
似然
函数
出发,
预测
每个输入样本
的
正确类别。这种可能性
的
最大化可以写
为
:arg max _θ L(θ|
浏览 0
提问于2021-03-11
得票数 2
5
回答
交叉
熵
损失解释
machine-learning
、
neural-network
、
deep-learning
、
softmax
假设我
为
分类建立了一个神经网络。最后一层是具有Softmax激活
的
致密层。我有五种不同
的
课程要分类。假设对于一个训练示例,true label是[1 0 0 0 0],而
预测
是[0.1 0.5 0.1 0.1 0.2]。如何计算这个例子
的
交叉
熵
损失?
浏览 0
提问于2017-07-10
得票数 73
回答已采纳
3
回答
英特尔
的
RdRand是TRNG还是PRNG?
random
、
intel
、
rdrand
我在网上搜索了很长一段时间,却找不到确切
的
答案。我想知道由英特尔
的
rdrand指令产生
的
随机数
的
质量。例如,它与卡相比如何?真的是随机
的
还是伪随机
的
? 谢谢
浏览 3
提问于2014-12-26
得票数 3
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深度学习中你必须知道的信息论
那些一键抠图的软件是怎么做到的?这些语义分割方法了解一下
机器学习中常用的损失函数
机器学习中常用的损失函数你知多少?
如果图灵是 AI 之父,那么香农应该是 AI 舅老爷?
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券