腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(5877)
视频
沙龙
1
回答
xgboost
:
尽管
具有
合理
的
准确性
,
但
仍
存在
巨大
的
日志
损失
、
、
、
我在一个二进制分类问题上训练了一个
xgboost
型分类器。它能产生70%
的
准确率预测。然而,在9.13,logloss是非常大
的
。我怀疑这可能是因为一些预测与目标相差很远,但我不明白为什么会发生这种情况-其他人报告
的
相同数据
的
对数
损失
(0.55 - 0.6)要好得多。sklearn.model_selection import train_test_splitfrom
xg
浏览 8
提问于2017-06-21
得票数 2
回答已采纳
4
回答
深度学习
的
准确性
和
损失
之间
的
关系是什么?
、
、
、
、
我创建了三个不同
的
模型,使用深度学习进行多类分类,每个模型都给了我不同
的
准确性
和
损失
价值。测试模型
的
结果如下:第二种模式:精确度: 98.5%
损失
: 0.0997我
的
问题是:
损失
和精确值之间
的
关系是什么为什么即使精度较高,第三种模型
的
损失</e
浏览 0
提问于2018-12-14
得票数 38
2
回答
神经网络-
损失
和精度相关性
、
我对神经网络中
损失
和
准确性
度量
的
共存感到有点困惑。两者都是为了使y和\hat{y}
的
比较“准确”,不是吗?那么,这两个冗余不是在训练时代
的
应用吗?而且,它们为什么没有关联呢?
浏览 0
提问于2016-08-25
得票数 12
1
回答
XGBoost
特征重要性、排列重要性和模型评估准则
、
、
、
我
的
最终目标与其说是实现一个
具有
最佳决策规则性能
的
模型,不如说是了解哪些用户操作/特性在确定积极
的
零售操作中是重要
的
。现在,我在论坛和文献中读到了很多关于评估/优化
XGBoost
模型和随后
的
决策规则
的
文章,我认为在实现最终目标之前,这是必需
的
。对决策规则部分(如精确召回曲线下
的
面积、AUROC等)和模型(如对数
损失
)
的
评价方法有很多种。我认为AUC和
日志
浏览 0
提问于2019-12-30
得票数 2
回答已采纳
2
回答
火炬-
损失
在减少,
但
精确度没有提高。
、
、
损失
似乎在减少,而且算法运行良好。
但
准确性
并没有提高和坚持。: 0.537067列车周期:7 100/249 (40%)
损失
: 0.597774列车周期:7 200/249 (80%)
损失
: 0.554897测试装置:平均损耗: 0.5094,
准确性
: 37/63(58%)列车周期:8 0/249 (0%)
损失
: 0.481739列车时代:8 100/249 (40%)
损失
: 0.564388列车时代:
浏览 0
提问于2019-07-18
得票数 5
1
回答
在较高
的
验证
损失
时,LSTM更高
的
验证精度( Python: Keras )
、
、
、
在培训我
的
LSTM (使用Python中
的
Keras库)时,验证
损失
不断增加,
尽管
它最终确实获得了更高
的
验证精度。这就引出了两个问题:这是我
的
LSTM
的
一个示例历史
日志
,它适用于:将历元0与历元~43
浏览 0
提问于2021-01-24
得票数 0
1
回答
简单强化学习算法
的
损失
函数
、
、
这个问题来自于在TensorFlow上观看以下视频和从Google /O 18中强化学习:loss = -R(sampled_actions * log(action_probabilities))train_op = optimizer.mi
浏览 2
提问于2018-12-04
得票数 4
回答已采纳
1
回答
移动到数值稳定
的
log-sum-exp会导致非常大
的
损失
值。
、
、
、
我正在开发一个使用LSTM和MDN来预测某些发行版
的
网络。我为这些MDN使用
的
损失
函数包括尝试将我
的
目标数据与预测
的
分布相匹配。我试图计算这些目标数据
的
log_probs
的
日志
和exp,以计算
损失
。当我使用标准
的
log-sum-exp时,我得到了
合理
的
初始
损失
值(约50-70),
尽管
后来它遇到了一些NaNs和中断。根据我在网上读到
的</e
浏览 0
提问于2019-11-23
得票数 0
回答已采纳
1
回答
尽管
具有
足够
的
RAM,
但
Python中
仍
存在
内存错误
、
、
谁能给我解释一下这里
的
问题是什么?我正在尝试用我可以获得
的
数据制作一个3-D矩阵垫子。我有49 of
的
RAM可用。为什么我仍然得到内存错误?
浏览 23
提问于2016-02-01
得票数 1
1
回答
异常检测
的
自动编码器设置
、
、
我尝试过不同
的
模型,如隔离林、支持向量机和KNN。根据包含80\%特征和4000数据样本
的
数据集,它们
的
18\%是异常
的
。当我使用自动编码器,并调整适当
的
重建
损失
阈值,我可以获得92\%精度,
但
隐藏层设置
的
自动编码器似乎不正确,
尽管
我得到
的
准确性
。正如我所说
的
,我只有5特性和设置如下 layers.De
浏览 0
提问于2022-05-19
得票数 0
3
回答
基于自定义目标的
Xgboost
分位数回归
、
、
、
、
我是GBM和
xgboost
的
新手,目前在R中使用
xgboost
_0.6-2。我只是简单地删除了GitHub
xgboost
演示后面的'pred‘语句,
但
恐怕它比这个更复杂,而且我无法找到使用自定义目标函数
的
任何其他示例。或者它是否是
xgboost
的
一个问题(可疑)?
浏览 0
提问于2016-12-22
得票数 6
3
回答
NLog文件目标和keepFileOpen标志
、
FileTarget对象在NLog中
具有
一个名为"keepFileOpen“
的
属性(bool)。默认情况下,此属性设置为false,意味着每个
日志
事件都将打开文件、写入文件并关闭文件。有没有人知道(或者仅仅知道)为什么这个属性在默认情况下被设置为"false",会给
日志
记录带来
巨大
的
性能
损失
?是否
存在
将此属性设置为true可能导致问题
的
情况(因此,将其默认为“false”是有意义
的
)。
浏览 2
提问于2012-07-09
得票数 8
回答已采纳
1
回答
用于多类分割
的
广义骰子
损失
: keras实现
、
、
、
、
我只是在keras中实现了泛化
的
骰子
损失
(骰子
损失
的
多类版本),如中所述:
但
一定有什么地方出了问题第一件奇怪
的
事:虽
浏览 22
提问于2018-02-27
得票数 10
1
回答
自定义
损失
函数不随历元而改善
、
、
、
我已经创建了一个自定义
的
损失
函数来处理二进制类
的
不平衡,但我
的
损失
函数并没有在每个时期得到改善。对于指标,我使用精确度和召回率。 plt.grid(True); plt.gca().set_ylim(0, 1); plt.show() 用于处理类不平衡问题
的
自定义
损失
函数输入数据集
的
图像和真正
的</e
浏览 2
提问于2020-11-30
得票数 1
1
回答
在这种情况下,哪种模式更好?
第一种模型不
存在
正则化,从历元到第十阶段都
存在
过拟合现象,因此该模型在第9期停止训练,验证
损失
最小发生在历元9次。 第二种模型
具有
正则化(Dropout),不显示过度拟合。因此,这种模式比第一种模式
的
训练时间长得多。
但
最小验证
损失
值并不高于第一模型
的
最小验证
损失
值。
尽管
这个模型可以训练得更多,但是这个模型似乎没有达到第一个模型
的
最小验证
损失
的
值。这些模型训练相同<
浏览 3
提问于2020-10-21
得票数 0
回答已采纳
1
回答
SIS与LWE问题
、
、
、
n \times m}.f_A(x)是单向函数( Ajtai 96) g_A(x,e)是一个单向函数.我
的
问题是,在设计新
的
加密方案方面,Regev
的
单向函数是否比Ajtai单向函数提供了优势,或者它们是否与它们
的
浏览 0
提问于2021-09-06
得票数 2
4
回答
验证
损失
不增加
、
、
我正在试着检查我
的
二值图像分类模型。 📷
浏览 0
提问于2022-08-15
得票数 0
3
回答
多GPU架构,梯度平均-低精度模型?
、
当我执行在cifar10上描述
的
模型时,使用一个GPU大约4小时后,精度达到86%,当我使用2个GPU时,精度下降到84%,但在2个GPU上达到84%
的
精度比1快。我
的
直觉是,在average_gradients中定义
的
函数返回一个不太精确
的
梯度值,因为梯度
的
平均值将比实际
的
梯度值更不准确。 如果梯度不太精确,那么参数比控制作为训练
的
一部分所学习
的
函数更不准确。看看代码(),为什么平均多个GPU上
的
梯度比计算单个GP
浏览 7
提问于2017-05-08
得票数 9
回答已采纳
1
回答
TensorFlow -回归时批处理规范化失败?
、
、
具体地说,在
具有
像素级标签
的
卷积网络中,输入是图像,标签是“热图”,其中每个像素都有浮点值。更具体地说,每个像素
的
地面实况标签
的
下限为零,虽然从技术上讲没有上限,
但
通常不会大于1e-2。在没有批量归一化
的
情况下,网络能够给出
合理
的
热图预测。在批量归一化
的
情况下,网络需要很长时间才能得到
合理
的
损失
值,而最好
的
做法是使每个像素都成为平均值。我曾在另一个(单值)回归网络
浏览 0
提问于2017-03-24
得票数 3
1
回答
经过训练后,VGG模型
的
输出趋于恒定,丢失/精度没有提高。
、
、
、
、
我正在尝试实现一个稍微小一点
的
VGG16版本,并在大约6000幅图像(5400用于培训,600用于验证)上从头开始训练它。我选择了30
的
批次大小,这样它就可以很好地适应数据集,否则我会在训练期间得到带有IncompatibleShape错误
的
his。至少我预计,对于imageA来说,预测
的
输出应该不同于imageB。我无法理解为什么丢失和
准确性
似乎不会有太大变化。我原以为,对于历次来说,准确度至少会提高到50%左右,但不会超过23%。labels[j]) predictions.append(pr
浏览 4
提问于2021-05-25
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
数据挖掘中的利器——XGBoost理论篇
机器学习中这5个回归损失函数,你都知道吗?
对比TensorFlow提升树与XGBoost:我们该使用怎样的梯度提升方法
生信篇:运用ROC曲线筛选生物标志物的策略
流行于机器学习竞赛的Boosting,一文讲透足够了
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券