腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(3343)
视频
沙龙
1
回答
Sklearn
MLP
分类
器
超
参数
优化
(
RandomizedSearchCV
)
python
、
machine-learning
、
scikit-learn
、
hyperparameters
我设置了以下
参数
: 'hidden_layer_sizes': [(sp_randint(100,600),sp_randint(100,600),),: stats.uniform(0.0001, 0.9),除hidden_layer_sizes之外的所有
参数
都按预期工作但是,拟合此
RandomizedSearchCV
模
浏览 17
提问于2018-08-27
得票数 3
回答已采纳
2
回答
基于
RandomizedSearchCV
的scikit学习
超
参数
的条件
优化
python
、
scikit-learn
、
hyperparameters
我希望在
sklearn
中使用
RandomizedSearchCV
为我的数据集上的支持向量
分类
器
搜索最优的
超
参数
值。我正在
优化
的
超
参数
是“内核”、"C“和”伽马“。但是,对于"poly“核,我还想
优化
第四个
超
参数
”度“(多项式核函数的索引)。我意识到,由于在内核不是"poly“时忽略了度数
超
参数
,所以我只需在我提供给<
浏览 6
提问于2019-09-30
得票数 2
回答已采纳
4
回答
如何使用Keras模型?
python
、
machine-learning
、
keras
、
pickle
然而,我对酸洗Keras模型的需求源于使用
sklearn
的
RandomizedSearchCV
(或任何其他
超
参数
优化
器
)进行的
超
参数
优化
。从本质上讲,我想:pickle.dump( trial_search,
浏览 20
提问于2018-01-17
得票数 20
1
回答
Sklearn
MLP
分类
器
隐层
优化
(
RandomizedSearchCV
)
python
、
machine-learning
、
scikit-learn
、
hyperparameters
我设置了以下
参数
: 'hidden_layer_sizes': [(sp_randint.rvs(100,600,1),sp_randint.rvs(100,600,1: stats.uniform(0.0001, 0.9),除hidden_layer_sizes之外的所有
参数
都按预期工作有没有办法在
RandomizedSearch
浏览 0
提问于2018-08-27
得票数 1
2
回答
使用特定于深度学习的
超
参数
优化
工具相对于
sklearn
的好处?
python
、
deep-learning
、
keras
、
hyperparameter
、
hyperparameter-tuning
有许多用于
超
参数
优化
的库是针对Keras或其他深度学习库(如金丝或塔罗斯 )的。我的问题是,与
sklearn
.model_selection.GridSearchCV()或
sklearn
.model_selection.
RandomizedSearchCV
相比,使用这些库的主要好处是什么
浏览 0
提问于2018-07-22
得票数 4
1
回答
在learning_rate中定义日志统一的
RandomizedSearchCV
参数
python
、
machine-learning
、
scikit-learn
、
hyperparameters
我正在进行
超
参数
调优,我使用scikit-optimize进行贝叶斯
优化
,使用
RandomizedSearchCV
进行随机搜索。在sci
优化
中,我可以轻松地定义learning_rate,如下所示: ...我如何使用
浏览 0
提问于2018-04-24
得票数 0
回答已采纳
1
回答
随机搜索的
优化
目标是什么?
optimization
、
hyperparameter-tuning
、
randomized-algorithms
最近,我了解了随机搜索(或者
sklearn
.model_selection.
RandomizedSearchCV
中的Python),并思考了
优化
过程背后的理论。特别是我的问题是,考虑到对某个算法(例如随机森林)执行随机搜索,基于什么是最佳的
超
参数
?更具体地说,从什么意义上说,它们是模型的“最佳”
超
参数
?他们是否最大限度地提高了模型的准确性?如果不是,
优化
的(性能-)标准是什么?还是熵/基尼?
浏览 0
提问于2020-05-01
得票数 0
回答已采纳
2
回答
如何将随机林
分类
器
应用于未标记的数据集?
python
、
scikit-learn
、
classification
、
random-forest
使用
sklearn
,我刚刚完成了训练,调优
超
参数
和测试一个随机森林多类
分类
器使用
RandomizedSearchCV
。我得到了最好的
参数
,最好的分数等等。所有这些都是用标签数据集完成的。现在,我想将这个
分类
器
应用到一个没有标签的数据集上(这意味着只有特性而没有类)来进行类/标签预测。我还没试过什么,因为我被卡住了。
浏览 12
提问于2022-11-29
得票数 -2
2
回答
如何调整
MLP
分类
器
的
超
参数
以获得更好的性能
scikit-learn
、
hyperparameter-tuning
、
mlp
我刚接触到多层感知
器
。在用
MLP
对DEAP数据进行
分类
时,我得到了这样的精度。然而,我不知道如何调整
超
参数
以改善结果。📷import scipy.ioDEAP_y_train_A = y_vals_Arousal[:-256] ###
浏览 0
提问于2018-07-26
得票数 21
回答已采纳
2
回答
如何将Keras模型插入到scikit-learn管道中?
machine-learning
、
scikit-learn
、
pipeline
、
keras
、
hyperparameters
我正在结合
RandomizedSearchCV
使用Scikit-Learn自定义管道(
sklearn
.pipeline.Pipeline)进行
超
参数
优化
。这很好用。模型的
参数
应进行
优化
。计算(拟合)的Keras模型应该在以后通过其他步骤在管道中使用,所以我认为我必须将该模型存储为全局变量,以便其他管道步骤可以使用它。是这样的吗?我知道Keras为Scikit-Learn API提供了一些包装
器
,但问题是这些包装
器
已经进行了
分类
浏览 0
提问于2017-02-23
得票数 41
回答已采纳
1
回答
在
MLP
比赛中提前停止比赛的目的是什么?
python
、
scikit-learn
我正试图通过使用RandomizedSearch CV和GridSearchCV来调整
参数
,为我的
MLP
回归
器
寻找最佳
参数
。我的问题是,我应该把early_stopping标记为真还是假?为什么?from
sklearn
.neural_network import MLPRegressor from
sklearn
.model_selection import
RandomizedSearchCV
mlp
= MLPRegressor(random_st
浏览 4
提问于2022-07-19
得票数 1
1
回答
用于RandomForestClassifier的scaling
sklearn
python
、
scikit-learn
、
random-forest
、
hpc
仅训练这个
分类
器
就运行得相当快,使用机器上的所有核,并使用~93 on:rfc =
sklearn
.ensemble.RandomForestCla
浏览 0
提问于2019-03-27
得票数 3
回答已采纳
1
回答
使用make_scorer创建真阳性的度量
python
、
decision-tree
、
metrics
我正在尝试创建一个度量来
优化
决策树
分类
器
中正面类的True Positives的精度: average="binary")random_search =
RandomizedSearchCV
p
浏览 0
提问于2018-09-19
得票数 0
1
回答
如何将
参数
绑定到scikit-learn管道中?
scikit-learn
、
keras
我有一个pipeline对象,它的
超
参数
我想要使用
RandomizedSearchCV
进行
优化
,但是我需要绑定两个
参数
,也就是说,如果一个
参数
被设置为一个值,另一个
参数
将自动设置为相同的值。这里是我的具体案例:我链接一个PCA,它降低到nbFeature维数,一个Keras
分类
器
,它需要它的输入模糊nbFeature被解释。显然,当两者不匹配时,这一点就失败了。参见下面的玩具示例:import numpy as np
浏览 0
提问于2018-02-19
得票数 3
回答已采纳
1
回答
将
RandomizedSearchCV
指向一个
分类
器
python
、
scikit-learn
、
data-science
我正在使用下面的工作流程来训练一个随机的森林
分类
器
供生产使用。我使用
RandomizedSearchCV
来调整
分类
器
的
参数
,方法是打印结果,然后使用
RandomizedSearchCV
的结果创建一个新的管道。我假设必须有一种方法来简单地将
RandomizedSearchCV
的最佳结果指向
分类
器
,这样我就不必手动地去做了,但是我不知道怎么做。select =
sklearn
.feature_selec
浏览 2
提问于2016-04-08
得票数 0
回答已采纳
1
回答
在多标签
分类
中将
参数
传递给较低级别的XGBoost估计
器
python
、
scikit-learn
、
xgboost
、
multilabel-classification
、
hyperparameters
我有一个多标签
分类
问题,我想要为每个标签(总共4个)训练一个XGBoost模型;然后,由于
sklearn
.multioutput.MultiOutputClassifier (),我组合了四个XGBoost另外,多亏了
RandomizedSearchCV
,我想对XGBoost的
超
参数
执行一个随机搜索。from
sklearn
.model_selection import train_test_spli
浏览 23
提问于2020-05-22
得票数 0
回答已采纳
1
回答
不带交叉验证的GridSearchCV CV =1
deep-learning
、
hyperparameters
、
gridsearchcv
我需要在没有拆分训练集的情况下为MLPRegressor进行
超
参数
调整。平均cv = 1。这在GridSearchCV中是可能的吗?
浏览 0
提问于2020-06-26
得票数 0
1
回答
在做了GridSearch之后,为什么我得到的结果不太准确?
python
、
scikit-learn
问题是,对于随机搜索(隐藏层18、18、18 (R^2= 0.90))所建议的最佳
参数
,我的R^2要好于网格搜索(隐藏层17、17、17 (R^2= 0.89) ),为什么呢?from
sklearn
.neural_network import MLPRegressor 'early_stopping': [False],
浏览 9
提问于2022-07-18
得票数 1
回答已采纳
1
回答
RandomizedSearchCV
使用相同的random_state给出不同的结果
python
、
machine-learning
、
scikit-learn
、
random-seed
、
grid-search
我使用管道来执行特征选择和使用
RandomizedSearchCV
进行
超
参数
优化
。以下是代码的摘要:from
sklearn
.ensemble import RandomForestClassifierfrom
sklearn
.feature_selection import SelectKBest from
sklearn
.grid_sear
浏览 1
提问于2017-01-06
得票数 5
回答已采纳
1
回答
如何从火花放电的
MLP
管道模型中获得最佳的
超
参数
?
python
、
pyspark
、
apache-spark-ml
我正在使用来自pyspark.ml.classification.的
MLP
分类
器
。我正在使用交叉验证(即ParamGrid方法)将我的
MLP
模型拟合到数据集。我正在使用ParamGrid方法迭代几个
超
参数
。在此之后,我将使用交叉验证类进行培训,并获得最佳的
超
参数
。经过训练,当我试图从交叉验证对象访问最好的
超
参数
时,我会得到一个错误。有人能告诉我如何得到最好的
超
参数
吗?py4j.Ga
浏览 0
提问于2018-11-06
得票数 1
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券