腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(611)
视频
沙龙
1
回答
C++
多线程
嵌套
for
循环
--
超
参数
网格
搜索
的
组合
爆炸
问题
c
、
multithreading
、
combinatorics
、
hyperparameters
我有一个不到500行代码
的
小C程序。这是一个简化
的
版本。实际情况是计算密集型
的
。{ { for (int c = 0; c < 1000;
c+
核cpu上执行手动
多线程
,我编译了4个不同版本
的
代码。使用上面的示例,每个进程将使用400MB
的
ram,总共使用1.6 GB
的
ram。我只需要在第一个for
循环</e
浏览 43
提问于2019-03-13
得票数 0
1
回答
MLR:在
嵌套
重采样中使用顺序优化
的
过程到底是怎样
的
?
cross-validation
、
mlr
这是一个理解
的
问题
。假设我想进行
嵌套
交叉验证(例如外部:5x内部:4),并使用顺序优化来找到最佳
的
参数
集。调优
参数
发生在内部
循环
中。在进行正常
网格
搜索
时,对每个
超
参数
组合
进行三倍训练和1倍内环测试,然后选择最佳
参数
集。然后,对内环
的
超
参数
组合
进行训练,并以类似于内环
的
方式对外
浏览 1
提问于2020-01-08
得票数 0
回答已采纳
1
回答
如何以最佳
的
方式调整我的人脸识别常数(即阈值)?
python
、
opencv
、
face-detection
、
face-recognition
、
cv2
我编写了一个工作人脸识别程序,但有时它可以: 1)不检测人脸/检测额外
的
非人脸作为一张脸。2)当它得到一个熟悉
的
面孔时,他可能会认识到它是一个新的人/认识到一个陌生
的
新面孔是另一个人。这两个
问题
的
假正负和真负是由于常数,如在cascade.detectMultiScale
参数
: scaleFactor,minNeighbors,minSize,maxSize。所以我
的
问题
是如何找到这些
参数
的
最优值
浏览 0
提问于2018-12-21
得票数 0
回答已采纳
1
回答
帮助理解
嵌套
交叉验证
cross-validation
、
model-selection
根据我在网上所读到
的
,
嵌套
简历
的
工作原理如下:有一个外部
循环
,在测试集上,我们测量在内部折叠中获胜
的
模型
的
性能。我无法理解
的
是,因为我们在运行
的
浏览 0
提问于2019-08-08
得票数 5
回答已采纳
2
回答
在sklearn中,
网格
搜索
组合
处理
的
顺序是什么?
python
、
numpy
、
machine-learning
、
scikit-learn
、
grid-search
关于sklearn
的
GridSearchCV对象处理其
超
参数
组合
的
顺序,我有一个
问题
。具体来说,我使用带有
参数
的
sklearn执行了
网格
搜索
:param2 = [num1, num2] mean_test_score属性
的
cv_results_是一个长度为10
的
数组,如预期
的
( le
浏览 5
提问于2020-11-15
得票数 1
回答已采纳
1
回答
网格
搜索
方法是否值得用于神经网络?
machine-learning
、
scikit-learn
、
neural-network
、
grid-search
我已经成功地尝试应用GridSearch方法来找到支持向量机
的
最佳
参数
,现在我想将其应用到神经网络(MLPClassifier)中,以找到最佳结构(即层数和神经元/层),最佳激活函数,...此外,我应该如何定义我
的
“
网格
”
的
层数和神经元?这已经被测试过了吗?谢谢
浏览 0
提问于2017-09-08
得票数 0
2
回答
如何设置神经网络
的
学习速率
neural-network
参考这个关于在NN:中选择隐藏层和单元数
的
答案但我
的
问题
是学习速度。给定隐藏单元
的
值(例如,图中
的
一个数据点或一个特定
的
体系结构,例如10个隐藏单元),如何设置学习速率和训练多少个时代?使用固定
的
学习速率(在检查它之后收敛,即成本下降)并运行n个周期,或直到成本(或验证错误)稳定(如果它确实以一种良好
的
渐进方式下降)。如1中
的
早期停止一样 如1或2所示,但在
浏览 4
提问于2014-08-28
得票数 0
回答已采纳
1
回答
我能否直接应用到
超
参数
调整
的
技术中,并选择最佳
的
模型?
scikit-learn
、
hyperparameter-tuning
我注意到,在一些消息来源中,作者首先用默认
的
超
参数
来训练模型(比如来自scikit-learn
的
模型),模型自然会给出结果。然后,他们会尝试优化
超
参数
,即使
参数
网格
包含相同
的
默认
参数
(例如,对穷举
网格
搜索
),然后选择具有最佳
参数
的
最优模型。当我练习
的
时候,我做了同样
的
步骤,但是在我解剖了这个过程之后,我意识到这
浏览 0
提问于2021-09-22
得票数 1
2
回答
设置最佳SVM
超
参数
classification
、
svm
、
matlab
、
hyperparameter
、
hyperparameter-tuning
我有一个非线性数据集,我使用支持向量机(RBF核)建立分类模型,但不确定如何在Matlab fitcsvm中设置支持向量机、C和γ
的
最佳
超
参数
。如果尝试和错误
的
方法设置任意
的
值,直到找到最佳
的
性能,这是否可以接受?
浏览 0
提问于2019-03-26
得票数 3
3
回答
超
参数
调谐
python
、
machine-learning
、
scikit-learn
、
cross-validation
、
hyperparameters
对于这个项目,我试图比较多个算法
的
结果。但是我想确保每个测试
的
算法都被配置成给出了最好
的
结果。谢谢你
的
帮助
浏览 0
提问于2020-02-05
得票数 1
回答已采纳
1
回答
使用小数据集
的
嵌套
交叉验证
cross-validation
、
model-selection
我目前正在使用一个小
的
数据集(只有175个样本,45个特性),并且一直在阅读正确
的
方法交叉验证我
的
模型。我从使用
网格
搜索
的
基本交叉验证开始,但发现
嵌套
的
CV结构更好,因为它减少了模型和模型选择偏差后
的
偏差。我遇到
的
问题
是,对于一个小
的
数据集,我担心在我
的
内部
循环
中设置了一个不够大小
的
培训集,因为我需要留出数据集
的</em
浏览 0
提问于2022-07-01
得票数 2
1
回答
如何实现多层感知器
的
超
参数
调谐?
python
、
scikit-learn
、
deep-learning
、
neural-network
我是Python
的
初学者。我试图调整我
的
MLP模型如下。我有以下
问题
:2)在运行代码之后,在给出最佳
参数
之前,它一直给我以粉红色
的
长警告,这个警告是什么?(我提供了下面模型
的
输出)。 3)“隐藏层
的
大小”:(100,),(50,100,),(50,75,100 ),我不确定这一行代码中隐藏层
的
数目和中子数,我需要改变这些数字吗?我有9个输入和19个输出,如果我需要改变这些数字,
浏览 2
提问于2022-07-11
得票数 1
2
回答
交叉验证后使用训练测试确定最优算法使用?
machine-learning-model
、
training
、
cross-validation
我对在数据集上训练不同
的
算法和观察性能指标很感兴趣。目前,我
的
方法是对训练数据进行不同
的
算法训练,然后在测试集上进行性能评估。然后,我使用带有交叉验证
的
GridSearch来为性能最好
的
模型找到最优
的
超
参数
,然后再用这些
参数
进行测试。 我对交叉验证有点困惑--这是正确
的
方法吗?还是有一种方法可以/应该对所有模型进行交叉验证?
浏览 0
提问于2022-04-22
得票数 1
1
回答
Sklearn: GridSearchCV over n_iter
参数
python
、
scikit-learn
、
grid-search
对于迭代估计器,迭代次数应该由
的
n_iter
参数
指定。estimator.fit(X, y, n_iter=4) 要找到alpha和θ
的
最佳<
浏览 1
提问于2017-10-10
得票数 2
3
回答
使用Python将巨大
的
嵌套
循环
划分为8个(或更多)进程
的
巧妙方法是什么?
python
、
multiprocessing
这一次,我面对
的
是一个“设计”
问题
。使用Python,我实现了一个使用5个
参数
的
数学算法。为了找到这5个
参数
的
最佳
组合
,我使用了5层
嵌套
循环
来枚举给定范围内
的
所有可能
组合
。完成它所需
的
时间似乎超出了我
的
预期。所以我认为是时候使用
多线程
了……
嵌套
循环
的
核心任务是计算和保存。在当前
的</
浏览 1
提问于2011-07-05
得票数 8
回答已采纳
1
回答
使用make_scorer创建真阳性
的
度量
python
、
decision-tree
、
metrics
我正在尝试创建一个度量来优化决策树分类器中正面类
的
True Positives
的
精度: average="binary")random_search = RandomizedSearchCVparam_distributions=param_di
浏览 0
提问于2018-09-19
得票数 0
3
回答
scikit中
嵌套
交叉验证
的
混淆示例--学习
scikit-learn
、
cross-validation
我从scikit学习文档中查看这个示例: 在我看来,交叉验证在这里不是以一种公正
的
方式执行
的
。GridSearchCV (据说是内部CV
循环
)和cross_val_score (据称是外部CV
循环
)都使用相同
的
数据和相同
的
折叠。因此,对分类器进行训练和评估
的
数据之间存在重叠。我做错什么了?
浏览 4
提问于2016-12-13
得票数 4
3
回答
在数据丰富
的
上下文中,我是否应该使用GridSearch CV进行
超
参数
调优?
cross-validation
由于数据往往是稀缺
的
,这通常是不可能
的
。为了解决这个
问题
,K折叠交叉验证使用部分可用数据来拟合模型,另一部分则用于测试。(Hastie,“统计学习
的
要素”,第7.10节,第241页)这是可能
的
,并建议
搜索
超<
浏览 0
提问于2022-02-23
得票数 2
1
回答
用XGBoost调优RandomizedSearchCV
超
参数
python
、
machine-learning
、
scikit-learn
、
xgboost
我试图使用XGBoost来处理一个包含大约50万个观测值和10个特性
的
特定数据集。我试图使用RandomizedSeachCV进行一些
超
参数
优化,而具有最佳
参数
的
模型
的
性能要比默认
参数
的
模型差。score(y_test["speed"],y_predict_speed, multioutput='variance_weighted'))随机
搜索<
浏览 8
提问于2021-10-31
得票数 5
回答已采纳
1
回答
两种方案中哪一种更适合模型优化: 1)套式CV错误平均内部CV评分。2) X_all上连续两次简历。阿尔特恩特?
machine-learning
、
python
、
cross-validation
、
optimization
、
hyperparameter-tuning
目的:比较预处理方法、模型和
超
参数
,而不泄漏到最终
的
泛化估计,应用交叉验证(cv),即不使用任何固定
的
训练/测试分割。到目前为止发现
的
“
嵌套
cv":在外部cv中对不同
的
超
参数
(来自内部SearchCVs)
的
分数进行平均,并选择最佳得分。此外,我如何在
搜索
中包括不同
的
预处理方法,因为预处理定义了X(必须在分割X之前完成)?
浏览 0
提问于2023-02-25
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
浅谈深度学习中超参数调整策略
如何使用Python超参数的网格搜索ARIMA模型
10,模型的优化
详细讲解leetcode问题:4Sum
使用Optuna进行PyTorch模型的超参数调优
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券