腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
为什么
在
模型
训练
过程中
选择
的
超
参数
与
来
自重
采样
的
超
参数
不同
?
r
、
mlr3
在
重
采样
期间,将测试值为5和9
的
max_depth
参数
。然而,
在
训练
时,使用了完全
不同
的
值10。我预计
在
训练
过程中
会设置返回最小RMSE
的
参数
。
在
本例中,
选择
了一个完全
不同
的
参数
值。
浏览 23
提问于2019-10-11
得票数 1
回答已采纳
1
回答
理解机器学习
的
交叉验证
python
、
validation
、
data-science
、
cross-validation
下列有关交叉验证
的
内容是否正确?: 将
训练
数据分成
不同
的
组,除一个
训练
数据集外,所有
训练
数据集都用于
训练
模型
。一旦对
模型
进行了
训练
,就会使用“遗漏”
训练
数据
来
执行
超
参数
调优。一旦
选择
了最优
的
超
参数
,将测试数据应用到
模型
中,给出一个结果,然后将其
与</
浏览 1
提问于2020-09-21
得票数 0
回答已采纳
2
回答
数据集随机样本上超
参数
整定
的
缺点
machine-learning
、
bigdata
、
sampling
、
hyperparameter-tuning
我经常使用非常大
的
数据集,
在
构建机器学习
模型
时检查所有相关
的
超
参数
组合是不切实际
的
。我正在考虑随机
采样
数据集,然后使用该示例执行
超
参数
调优。然后,我将使用所选
的
超
参数
使用完整
的
数据集
来
训练
/测试
模型
。 这种方法
的
缺点是什么?
浏览 0
提问于2019-01-16
得票数 1
回答已采纳
1
回答
随机森林库:R和Python
的
不同
结果
python
、
r
、
random-forest
下面的代码
在
R和python中
训练
随机森林
模型
。正如您注意到
的
,R (1-0.27=0.73)比Python (0.69)更准确。此外,
在
R和Python中,特性
的
重要性是
不同
的
。编辑有
在
python中复制R结果
的
方法吗,或者有些事情是失控
的
?两个库中
的
一些可调
参数
是
不同
的
,这使得很难进行匹配。 是否还有其他人从Pyhton和R
浏览 3
提问于2017-10-31
得票数 0
2
回答
为什么
超
参数
调优发生在验证数据集上,而不是
在
一开始?
machine-learning
、
deep-learning
、
neural-network
、
hyperparameter-tuning
、
hyperparameter
尽管做了/使用过几次,但我仍然对使用验证集进行
超
参数
调优感到有点困惑。据我所知,我
选择
一个
模型
,对
训练
数据进行
训练
,对
训练
数据进行性能评估,然后对验证数据进行
超
参数
整定评估
模型
性能,然后
选择
最佳
模型
并对测试数据进行测试。为了做到这一点,我基本上需要随机
选择
一个
模型
来
训练
数据。我不明白
的</em
浏览 0
提问于2022-05-28
得票数 0
1
回答
n_jobs=-1还是n_jobs=1?
cross-validation
、
hyperparameter-tuning
、
gridsearchcv
、
model-evaluations
对于某些
模型
和简历中使用
的
n_jobs
参数
,我感到困惑。我知道它用于并行计算,其中包括n_jobs
参数
中指定
的
处理器数。因此,如果我将值设置为-1,它将包括所有内核及其线程,以加快计算速度。但这篇文章:- 使用所有核心
来
进行
训练
、评估和
超</em
浏览 0
提问于2021-07-23
得票数 1
回答已采纳
1
回答
整个
模型
开发过程
的
优化
machine-learning
、
hyperparameter-tuning
、
pipelines
、
kedro
我想对整个
模型
开发管道执行全局优化。我有几个开发阶段,每个阶段都可以自动执行:预处理,去除异常/异常,过
采样
,特征
选择
,
超
参数
调整。这些步骤中
的
每一个都有许多
不同
的
实现。也就是说,可以通过数十种
不同
的
算法
来
消除异常,等等,可以重复各个阶段。例如,您可以调优
超
参数
,删除10%未使用
的
函数,重复对
超
参数
<
浏览 0
提问于2022-12-11
得票数 0
1
回答
对我正在使用
的
LSTM
超
参数
整定过程
的
看法
keras
、
lstm
、
hyperparameter-tuning
、
bayesian
、
epochs
我正在
训练
一个LSTM
来
预测价格图表。我使用贝叶斯优化
来
稍微加快速度,因为我有大量
的
超
参数
,并且只有我
的
CPU作为资源。从
超
参数
空间进行100次迭代,当
训练
仍然花费了太多
的
时间才能找到一组合适
的
超
参数
时,每一次迭代都要经历100次。 我
的
想法是这样。如果在贝叶斯优化
过程中
,我只
训练
了一个时代,
浏览 0
提问于2020-05-05
得票数 2
回答已采纳
1
回答
调整svm和cart
超
参数
r
、
decision-trees
、
svm
、
hyperparameter-tuning
我试图用e1071 R软件包
的
but ()函数来优化支持向量机和CART
的
超
参数
,但我有一个疑问。我应该调整
训练
数据上
的
参数
,
在
训练
数据上拟合
模型
,然后
在
测试数据上测试它,还是可以避免第二步?
浏览 0
提问于2018-10-05
得票数 1
回答已采纳
1
回答
如何预测`tune_nested`之后
的
新数据集?
mlr3
cv", folds = 3), term_evals = 10,)new_data = as.data.table(task)[1:10,] 如何预测new_data
的
结果?
浏览 4
提问于2022-02-18
得票数 1
1
回答
如何在nnet中使用大小和衰减
r
、
nnet
我对神经网络世界还很陌生,所以我请求您
的
理解。我正在生成一些测试,因此我有一个关于
参数
size和decay
的
问题。我使用caret包和nnet方法。首先,这是使用插入符号使用nnet方法
的
最好方法吗?),但我不明白如何在实践中使用它们。有人能帮上忙吗?
浏览 1
提问于2017-02-23
得票数 9
回答已采纳
1
回答
梯度下降和网格搜索
在
机器学习中
的
区别是什么?
machine-learning
、
gradient-descent
、
grid-search
超
参数
优化使用两种技术,如网格搜索、或随机搜索。梯度下降主要用于将损失函数降到最小。 这里查询是
在
什么时候我们将使用网格搜索和梯度下降。
浏览 1
提问于2019-02-10
得票数 2
1
回答
目标函数
与
评价指标的匹配
xgboost
、
loss-function
、
model-evaluations
、
mse
模型
拟合
的
目标函数和
模型
验证
的
评价指标是否需要在整个
超
参数
搜索
过程中
保持一致?例如,一个XGBoost
模型
是否可以以均方误差作为目标函数(将“目标”
参数
设置为reg: squared :回归和平方损失),而交叉验证过程是基于显著
不同
的
度量
来
评估
的
,例如伽马偏差(伽马回归
的
剩余偏差或者评价指标应该尽可能地
与
目标函数相匹配,因此需要
浏览 0
提问于2020-09-25
得票数 3
回答已采纳
3
回答
为什么
不在火车数据集上优化
超
参数
呢?
machine-learning
、
neural-network
、
training-data
在
开发神经网络时,通常会将
训练
数据划分为列车、测试和保留数据集(许多人将这些数据分别称为列车、验证和测试)。同样
的
东西,
不同
的
名字)。许多人建议根据测试数据集中
的
性能
选择
超
参数
。我
的
问题是:
为什么
?
为什么
不在列车数据集中最大限度地提高超
参数
的
性能,当我们通过测试数据集中
的
性能下降检测到过度拟合时,停止对
超
<em
浏览 1
提问于2016-07-05
得票数 5
回答已采纳
1
回答
如何在交叉验证中
选择
参数
?
machine-learning
、
training
、
cross-validation
、
hyperparameter-tuning
、
parameter-estimation
假设我正在使用K折叠交叉验证K折叠交叉验证
训练
一个线性回归
模型
。我每次用
不同
的
训练
和测试数据集
训练
K次。因此,每次我
训练
时,都会得到
不同
的
参数
(线性回归情况下
的
特征系数)。因此,
在
交叉验证结束时,我将得到K个
参数
。如何得出我
的
模型
的
最终
参数
? 如果我也使用它
来
调优
超<
浏览 0
提问于2022-05-19
得票数 3
2
回答
需要在KNN中进行交叉验证
cross-validation
、
k-nn
我读到
在
KNN算法中我们需要交叉验证,因为我们从KNN
的
训练
测试中发现
的
K值可能无法对未见数据进行泛化。给出
的
逻辑是,
在
求K值时使用测试数据集,因此KNN-算法具有测试数据集
的
信息,因为K是通过测试数据集发现
的
。这和看不见
的
数据不一样。但是是的,K值是从测试数据集中找到
的
,因此我们得到了我们
的
KNN算法,但是对测试数据
的
测试是
在
不知道测试数据
的
情
浏览 0
提问于2022-01-09
得票数 0
2
回答
为什么
同时使用验证集和测试集?
machine-learning
、
neural-network
、
cross-validation
考虑一个神经网络:测试集上
的
错误不是和验证集有点相同吗?对于网络来说,它是一个看不见
的
数据,就像验证集一样,它们
的
数量也是相同
的
吗?相反,我们不能通过将测试集合并到它
来
增加<em
浏览 0
提问于2017-04-13
得票数 36
回答已采纳
1
回答
偏差-方差权衡
与
模型
评估
machine-learning
、
model-evaluations
假设我们已经
训练
了一个
模型
(由它
的
超
参数
定义),并使用某种性能度量(比如R^2)
在
测试集上对它进行了评估。如果我们现在在
不同
的
训练
数据上
训练
相同
的
模型
(由它
的
超
参数
定义),我们将得到(可能) R^2
的
不同
值。 如果R^2依赖于
训练
集,那么我们将获得R^2平均值附近
的<
浏览 0
提问于2022-04-14
得票数 1
1
回答
如何量化培训
的
“计算成本”?
machine-learning
、
xgboost
、
hyperparameter-tuning
我想量化
超
参数
搜索xgboost
模型
的
计算成本。一种方法是使用特定
的
超
参数
配置
来
测量
训练
时间,并将其作为计算成本
的
代理。我们可以根据所
选择
的
超
参数
的
值
来
量化计算成本吗?例如,基于最大深度
的
解析表达式、估计量
的
数值、最小子体重、伽马等,或者你能提出一些其他方法
来</em
浏览 0
提问于2020-10-18
得票数 1
1
回答
多类分类
与
log_loss
classification
、
scikit-learn
、
loss-function
、
f1score
我有一个16K
的
文本列表,标签超过30个
不同
的
类别,通过
不同
的
分类器;我
的
预测和地面真相匹配,平均为94%。我现在正在测量一些额外
的
东西(但不确定我应该在F1_score最小值
的
基础上测量什么,因为我还在学习),我从sklearn中碰到了log_loss,因此我理解它在0到1之间。我已经研究了ComplementNB.predict_proba
的
结果,它是log_loss所需
的
,其值与我
的
预测数组中
浏览 0
提问于2020-09-05
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
单一ViT模型执行多模态多任务,谷歌用协同训练策略实现多个SOTA
机器学习中的模型评价、模型选择和算法选择!
机器学习中的模型评价、模型选择及算法选择
python二分类模型精度低怎么办
DeepMind最新深度学习研究:超参选择利器-引入基于群体的训练
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券