腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何
使用
嵌套
超
参数
优化
在
mlr3
中
测试
我们
的
模型
mlr3
我刚刚开始学习
mlr3
,并且已经读过
mlr3
的
书(
参数
优化
)。
在
书中,他们提供了一个
嵌套
超
参数
的
例子,但我不知道
如何
提供最终
的
预测,即预测(
模型
,
测试
数据)。我
的
问题是: (1) Dont we need to train the optimized model i.e. at in this case like train(a
浏览 34
提问于2020-12-16
得票数 0
1
回答
mlr3
:
在
优化
模型
(即AutoTuner对象)中
使用
benchmark()
benchmarking
、
hyperparameters
、
mlr3
我想比较几种机器学习算法
的
性能(例如,rpart、xgb、.
的
决策树)。包括他们
使用
mlr3
进行
的
超
参数
调整。换句话说,我想比较已经调优
的
不同算法
的
实例,而不是算法
的
默认
超
参数
值。
mlr3
提供自动调谐器对象来执行
嵌套
重采样和
超
参数
调优.还有一个基准()函数来对几个学习者进行比较。benchmark()函数依次<
浏览 10
提问于2021-08-17
得票数 0
回答已采纳
1
回答
mlr3
超
带:未
使用
的
参数
(克隆=字符())
mlr3
我想在
mlr3
中
编写一些
超
带调优代码。我从运行
mlr3
书中第4.4章
中
的
子示例rpart
超
带示例开始--直接从那里复制。我得到了一个错误:基准
测试
中
的
错误(设计,store_models = self$store_models,allow_hotstart = self$allow_hotstart,:未
使用
的
参数
(克隆
浏览 1
提问于2022-02-01
得票数 0
回答已采纳
1
回答
如何
解释
mlr3
中
嵌套
重采样
的
聚合性能结果?
r
、
resampling
、
hyperparameters
、
mlr3
最近,我正在学习
mlr3
包
中
的
嵌套
重采样。根据
mlr3
的
书,
嵌套
重采样
的
目标是为学习者获得一个无偏
的
性能评估。我进行了如下
测试
:library(
mlr3
)library(mlr3tuning) # setting tune_grid个
超
参数
是不一致
的
。我
的</e
浏览 1
提问于2021-02-20
得票数 1
回答已采纳
1
回答
帮助理解
嵌套
交叉验证
cross-validation
、
model-selection
根据我在网上所读到
的
,
嵌套
简历
的
工作原理如下:有一个外部循环,
在
测试
集上,
我们
测量在内部折叠
中
获胜
的
模型
<e
浏览 0
提问于2019-08-08
得票数 5
回答已采纳
1
回答
验证数据NN
的
目的
neural-network
除了
使用
验证数据来调优
超
参数
之外,将验证数据包含到
模型
中
还有其他好处吗?那么,如果
我们
不调优
超
参数</
浏览 0
提问于2020-02-28
得票数 2
回答已采纳
1
回答
如何
在
mlr3
中
加速并行化重采样过程?
r
、
parallel-processing
、
future
、
mlr3
我尝试
在
mlr3
中
使用
并行化运行重采样过程。但我发现它总是比顺序计划慢。这是我
的
代码和结果:library(
mlr3
)library(future.apply) store_models = TRUE)plan(sequential) 我已经
测试</em
浏览 7
提问于2021-02-23
得票数 0
回答已采纳
1
回答
嵌套
交叉验证:外部循环是
如何
工作
的
?
cross-validation
、
k-fold
Context:我发现下面的博客
中
的
插图(如下所示)是对正在发生
的
事情
的
最简单
的
解释:。问题:如果每个内循环cv进程产生不同
的
超
参数
,那么外部循环
如何
工作?对于外循环
的
第一次迭代,
我们
使用
折叠1作为保持
测试
集,并在内部循环中通过Folds 2&3进行(Kfold )
超
参数
调整。让
我们
说,这产
浏览 6
提问于2022-02-18
得票数 1
3
回答
LightGBM
中
的
交叉验证
python
、
machine-learning
、
cross-validation
、
lightgbm
我们
应该
如何
使用
lightgbm.cv
的
字典输出来改进
我们
的
预测呢?下面是一个例子--
我们
使用
下面的代码训练
我们
的
简历
模型
: d_train, early_stopping_rounds = 25,
浏览 3
提问于2017-09-28
得票数 19
2
回答
mlr3
-基准
测试
:状态消息仅在完整基准
测试
完成后显示
progress-bar
、
status
、
mlr3
我想在
mlr3
中
监控benchmark()
的
进度。
在
大型数据集上对几个
模型
进行基准
测试
,包括
超
参数
调优,可能需要几个小时甚至几天
的
时间。我希望能够
在
基准
测试
运行时监视进度,这样我就可以决定是否中止基准
测试
。此外,如果在处理过程
中
打印了状态消息,我可以
在
某些部分完成后中止处理,并知道某些步骤花费了多长时间。例如,朴素贝叶斯可能已经完成,但决策树<e
浏览 45
提问于2021-09-22
得票数 1
回答已采纳
4
回答
调整
参数
或选择
模型
cross-validation
、
model-selection
、
hyperparameter
、
hyperparameter-tuning
我一直
在
阅读
我们
如何
将
我们
的
数据分成3部分;通常,
我们
使用
验证集来帮助
我们
调整
参数
和
测试
集,以便对
我们
的
模型
的
表现有一个无偏
的
估计,这样
我们
就可以根据
测试
集
的
结果来比较
模型
。然而,我也读过
模型
选择应该在调优
参数
之前完成。我
浏览 0
提问于2018-11-27
得票数 10
回答已采纳
1
回答
随机森林太合适了
python
、
machine-learning
、
scikit-learn
、
random-forest
我正在
使用
scikit学习一个分层
的
简历来比较一些分类器。我
在
计算:准确,回忆,auc。
浏览 2
提问于2015-11-27
得票数 5
回答已采纳
3
回答
为什么不在火车数据集上
优化
超
参数
呢?
machine-learning
、
neural-network
、
training-data
在
开发神经网络时,通常会将训练数据划分为列车、
测试
和保留数据集(许多人将这些数据分别称为列车、验证和
测试
)。同样
的
东西,不同
的
名字)。许多人建议根据
测试
数据集中
的
性能选择
超
参数
。我
的
问题是:为什么?为什么不在列车数据集中最大限度地提高超
参数
的
性能,当
我们
通过
测试
数据集中
的
性能下降检测到过度拟合时,停止对
超
<em
浏览 1
提问于2016-07-05
得票数 5
回答已采纳
2
回答
数据集随机样本上超
参数
整定
的
缺点
machine-learning
、
bigdata
、
sampling
、
hyperparameter-tuning
我经常
使用
非常大
的
数据集,
在
构建机器学习
模型
时检查所有相关
的
超
参数
组合是不切实际
的
。我正在考虑随机采样数据集,然后
使用
该示例执行
超
参数
调优。然后,我将
使用
所选
的
超
参数
使用
完整
的
数据集来训练/
测试
模型
。 这种方法
的
缺点是什么?
浏览 0
提问于2019-01-16
得票数 1
回答已采纳
1
回答
基准
测试
多个AutoTuning实例
r
、
benchmarking
、
mlr3
我一直试图
使用
mlr3
为xgboost做一些
超
参数
调优。
在
阅读了
mlr3
的
书之后,我认为
使用
AutoTuner进行
嵌套
重采样和基准
测试
是最好
的
方法。resampling = rsmp("cv", folds =3)请注意,我添加了Poisson损失作为我正在处理
的</em
浏览 1
提问于2021-03-24
得票数 2
回答已采纳
1
回答
神经网络交叉验证:
如何
处理历元数?
python
、
neural-network
、
pytorch
、
cross-validation
我
使用
交叉验证,因为我有x个测量数据库,我想评估我是否能够用x数据库
的
子集来训练一个神经网络,并将神经网络应用到看不见
的
数据库
中
。因此,我还介绍了一个
测试
数据库,它不用于
超
参数
识别阶段。对于
如何
处理交叉验证
中
的
历元数,我感到困惑,例如,我有许多历元= 100。有两种选择: 划时代数是一个需要调整
的
超
参数
。
在
每个时代,跨越所有交叉验证迭代
的
浏览 1
提问于2020-04-29
得票数 1
回答已采纳
1
回答
验证集
在
深度学习网络
中
的
作用仅仅是为了尽早停止吗?
deep-learning
、
cross-validation
、
grid-search
v=ms-Ooh9mjiE&list=PLWKotBjTDoLj3rXBL-nEIPRN9V3a9Cx07&index=4 过载、不足和
模型
容量”中提出
的
“深度学习速成课程”
中
,他建议数据应该分成列、验证和
测试
集训练集用于训练
模型
,验证集用于
优化
超
参数
,
测试
集用于对泛化误差进行无偏估计。当我看人们是
如何
实现这个设计
的
时候,他们通常
使用
gridseachCV来评估深度
浏览 0
提问于2019-04-14
得票数 0
1
回答
Keras调谐器传递学习
模型
的
超
参数
优化
hyperparameters
、
transfer-learning
、
keras-tuner
我想用Keras对我
的
传输学习
模型
进行
超
参数
优化
。我不知道该怎么做,因为我有两个阶段
的
训练, 解冻和训练网络。
在
和
中
,提出了一种基于传递学习
的
超
参数
优化
方法--共享
超
参数
优化
。他们说,在这两个阶段之间共享一组
超
参数
会得到最
浏览 5
提问于2021-04-30
得票数 0
1
回答
“对培训集
的
交叉验证”,而开发和
测试
集与培训是不同
的
:这有意义吗?语义错误?
cross-validation
、
bert
我被“测量新闻情绪”
的
学术文章“衡量新闻情绪”
中
的
这段文字卡住了:https://www.sciencedirect.com/science/article/pii/S0304407620303535#tbl3 “作为最佳实践,
我们
将标记
的
数据集分成一个训练集、一个开发集和一个持久
测试
集。开发和
测试
集各有100个观测值,为训练集留下600个观测值。(.)
超
参数
优化</
浏览 0
提问于2022-10-10
得票数 3
2
回答
在
使用
scikit学习
优化
超
参数
时,是否有可能修复验证集?
scikit-learn
、
hyperparameter-tuning
我有一个问题,
在
科学学习
中
的
超
参数
优化
。我最熟悉tensorflow,您首先将数据分成三组:训练、验证和
测试
。利用训练集和验证集对
超
参数
进行
优化
,最后用
测试
集对
模型
进行评估。所有数据都是
使用
来自
测试
集
的
统计信息进行规范化
的
,据我所理解,这背后
的
原理是,
模型
没有“看到”来自验证
浏览 0
提问于2021-04-16
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
机器学习中的模型评价、模型选择和算法选择!
机器学习中的模型评价、模型选择与算法选择
综述论文:机器学习中的模型评价、模型选择与算法选择
你用iPhone打游戏,有人却用iPhone来训练神经网络
如何写一篇不水的机器学习论文?
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券