腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
max_features参数在DecisionTreeClassifier中是如何工作
的
?
scikit-learn
、
decision-trees
max_features中
的
参数DecisionTreeClassifier负责什么? 我认为它定义了树用于生成节点
的
特性
的
数量。但是,尽管这个参数
的
值不同(n =1和2),但我
的
树使用了我所拥有的这两个特性。有什么变化吗?
浏览 0
提问于2018-11-19
得票数 13
回答已采纳
1
回答
理解
随机
森
林中
的
max_feature
python
、
scikit-learn
、
random-forest
我在训练森林
的
时候有个问题。我使用了5折交叉验证和rmse作为指导,以找出模型
的
最佳参数。我最终发现,当
max_feature
=1时,我得到了最小
的
rmse。这对我来说很奇怪,因为
max_feature
是每次拆分时都要考虑
的
特性。一般来说,如果我想在分裂中找到“最佳”参数来降低杂质,那么树应该最好考虑所有的特征,并在分裂后找到一个最低杂质
的
结果。然而,在交叉验证方面,我得到
的
max_feature
=1是rmse最低
的
浏览 154
提问于2020-08-14
得票数 0
回答已采纳
6
回答
随机
森林sklearn
python
、
scikit-learn
、
random-forest
、
cross-validation
我对
随机
森林是否需要显式交叉验证感到困惑?在
随机
森
林中
,我们有现成
的
样本,这可以用于计算测试精度。是否需要显式交叉验证。在
随机
森
林中
显式使用CV有什么好处吗?基于下面的代码,我发现很难
理解
随机
森
林中
的
CV是如何工作
的
: model = BaggingClassifier(base_estimator=cart, n_estimators=num_trees,
浏览 0
提问于2018-10-11
得票数 2
2
回答
n_estimators和max_features在RandomForestRegressor中
的
含义
scikit-learn
我正在阅读关于使用GridSearchCV对模型进行微调
的
文章,我遇到了一个参数网格,如下所示:{'n_estimators': [3, 10, 30], 'max_featuresscoring='neg_mean_squared_error')这里我不
理解
n_estimator和
max_feature
的
概念。是否像n_estimator表
浏览 0
提问于2017-09-15
得票数 5
回答已采纳
2
回答
随机
森林分类器中
的
单热编码
machine-learning
、
scikit-learn
、
random-forest
是否需要对python中
的
随机
森林分类器进行一次热编码?我想从逻辑上
理解
,
随机
林中
是否可以用标签编码来处理分类特性,而不是单热编码。
浏览 4
提问于2021-01-14
得票数 0
1
回答
利用R中
的
randomForest包将
随机
森林转化为决策树
r
、
random-forest
据我所知,与单个决策树相比,
随机
森林有两个导致“
随机
性”
的
参数:2)为创建树而绘制
的
训练示例
的
数量。直观地说,如果我将这两个参数设置为它们
的
最大值,那么我应该避免“
随机
性”,因此每个创建
的
树都应该完全相同。因为所有的树都是完全相同
的
,所以不管森
林中
有多少树或不同
的
运行(即不同
的
浏览 2
提问于2014-04-29
得票数 0
1
回答
随机
森
林中
的
out - of - bag错误是什么?
language-agnostic
、
machine-learning
、
classification
、
random-forest
随机
森
林中
的
out - of - bag错误是什么?它是在
随机
森
林中
找到正确数量
的
树
的
最佳参数吗?
浏览 1
提问于2013-08-31
得票数 71
回答已采纳
1
回答
TfidfVectorizer中'max_features‘
的
用法是什么
scikit-learn
、
tfidfvectorizer
我从中得到
的
理解
是,如果
max_feature
=n,这意味着它是根据Tf-IDF值选择前n个特征。我浏览了scikit learn上
的
TfidfVectorizer文档,但没有正确地
理解
它。
浏览 0
提问于2018-07-06
得票数 0
2
回答
如何使决策树规则更容易
理解
?
r
、
machine-learning
、
scikit-learn
、
random-forest
、
decision-tree
我想从决策树/
随机
森
林中
提取有用
的
规则,以便开发一种更适用
的
方法来处理规则和预测。所以我需要一个能让规则更容易
理解
的
应用程序。 对我
的
目的有什么建议(如可视化、验证方法等)?
浏览 4
提问于2015-07-09
得票数 1
回答已采纳
1
回答
我有二进制数据(不同森
林中
鸟类
的
存在/不存在),我想知道是否有一个包含
随机
效应
的
模型
r
、
logistic-regression
、
mixed-models
我将不同林区不同鸟类
的
缺席数据作为响应变量。作为预测变量,我有森林
的
大小和每个森林记录
的
树木数量。 我想把森林作为一个
随机
因素来考虑我们无法测量
的
变量。我怎样才能做到这一点呢?使用混合效果逻辑回归是最好
的
吗?
浏览 6
提问于2021-10-05
得票数 1
1
回答
什么时候需要进行特性转换?
machine-learning-model
我正在安装机器学习模型来清理数据(估算丢失
的
值,删除不必要
的
功能等等)。我没有改变扭曲
的
特征。在进行下一步之前,我想了解特性转换对于将数据融入模型是多么重要。有什么意见吗?(我知道在
随机
森
林中
发生了什么,但无法
理解
其他ML模型)
浏览 0
提问于2018-06-18
得票数 1
回答已采纳
1
回答
随机
森
林中
的
随机
性从何而来?
machine-learning
、
random-forest
、
ensemble-modeling
正如标题所述:
随机
森
林中
的
随机
性从何而来?
浏览 0
提问于2016-07-08
得票数 2
回答已采纳
1
回答
sklearn集成
的
自定义random_sampling
scikit-learn
、
random-forest
、
ensemble-learning
、
boosting
我需要在scikit中编写一个自定义random_selection (用于
随机
选择特征,即"
max_feature
“和训练数据
的
子集,即”子样本“)模块,以便与sklearn.ensemble.RandomForestClassifier想法是在RandomForestClassifier中使用训练数据中
的
一列(不依赖,即Y)进行分层
浏览 22
提问于2020-04-19
得票数 2
1
回答
随机
森林去相关
random-forest
、
ensemble-learning
在
随机
森
林中
,您可以从每个节点
的
m个特征中进行选择,而不是选择完整
的
特征集。这被认为是去相关
的
预测因素。直观地说,我
理解
这一点,但是在什么时候可以说预测因子是去相关
的
,以及我们如何证明在这种情况下,有没有任何统计数据在这种情况下
浏览 1
提问于2018-03-14
得票数 0
1
回答
随机
森
林中
的
网格搜索结果max_features = 'sqrt‘-如何
理解
python
、
scikit-learn
、
random-forest
、
features
我在
随机
林场做了一个网格搜索。
的
结果结果为:{'max_depth':28,‘n_估计器’:500 ',max_features:'sqrt','min_samples_split':2,'min_samples_leaf':1'}
随机
森林文档:如果“自动”,那么max_features=sqrt(n_features)。所以“sqrt”就像max_features=
浏览 0
提问于2020-10-04
得票数 0
回答已采纳
1
回答
随机
森林分类器树中
的
特征数-Python
python
我正在使用
随机
森林分类器对数据集进行分类。我使用python语言。但是,即使我设置了
max_feature
参数,
随机
森林分类器中
的
树也没有使用所有的特征。如何找到单个树中使用
的
特征数量?或者它有默认值吗?
浏览 3
提问于2018-11-13
得票数 0
2
回答
科技界多数投票-学习
随机
森林
scikit-learn
、
random-forest
我主要关心
的
是,我需要
理解
随机
森林是如何在scikit中进行多数投票来学习源代码
的
。我没有在RandomForest
的
源代码中找到特定
的
代码。如果有人知道,请解释一下。谢谢
浏览 0
提问于2019-10-24
得票数 1
1
回答
C5.0算法
的
交叉验证
machine-learning
、
data-mining
、
classification
、
random-forest
、
decision-trees
我想在R
的
C5.0算法中尝试K倍交叉验证,是否需要对
随机
森林进行
浏览 0
提问于2015-07-01
得票数 0
回答已采纳
1
回答
h2o分布
随机
森林最大特征参数
python
、
random-forest
、
h2o
、
hyperparameters
我是在调优
随机
森林
的
超参数,我想调优每棵树
的
最大特性
的
参数。通过sklearn
的
,它是: 在寻找最佳拆分时要考虑
的
特性数量:如果为int,则在每次拆分时考虑max_features特性。h2o中是否存在此参数或可以调整该参数
的
任何不同方法(例如,功能日志)?
浏览 1
提问于2018-09-11
得票数 1
回答已采纳
2
回答
在分类问题(
随机
森林)中评价特征重要性
的
度量方法
feature-selection
、
feature-engineering
我想在
随机
森林
的
分类问题中评估2000x60数据集
的
每个特性
的
重要性。最广泛使用
的
显然是:基尼重要性(__SkLearn implementation `feature_importances`_)阿尔特曼排列 递
浏览 0
提问于2018-08-30
得票数 6
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券