腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(5387)
视频
沙龙
1
回答
种子在
随机
森
林中
做什么?
、
、
我知道seed一般是用来让我们重现相同
的
结果。但是,在
随机
森林部分设置种子实际上是做什么
的
。它是否改变了R中randomForest()函数
的
任何参数,如nTree或sampSize。我每次都为我
的
随机
森林模型使用不同
的
种子,但我想知道不同
的
种子如何影响
随机
森林模型。
浏览 0
提问于2016-03-30
得票数 6
1
回答
随机
森林数据
的
测试?
、
、
我想澄清一下
随机
森林文献中
的
观点。在
随机
森
林中
,我们从一个数据
子集
中选择
随机
特征,即从单个树
的
数据
子集
中选择特征
子集
。但是当我们测试数据时,让我们从测试数据中获取一个测试样本'v‘。第一棵树是利用特征3和2构建
的
。第三棵树是利用特征1、2和3构建
的
。在叶节点,我们将有概率显示
浏览 0
提问于2018-06-03
得票数 1
1
回答
随机
森
林中
的
子集
、
在
随机
forest..each中,
随机
抽取
子集
来建树。但是,我们如何才能注意到我们采用
的
是一个独特
的
子集
。有什么机制可以做到这一点吗?
浏览 9
提问于2017-03-03
得票数 0
1
回答
随机
森林回归中
的
树木数量
、
我正在学习
随机
森林回归模型。我知道它形成了许多树(模型),然后我们可以通过平均所有树
的
结果来预测我们
的
目标变量。我对决策树回归算法也有一定
的
了解。我们怎样才能形成最佳
的
树木数量呢?例如,我有一个数据集,其中我正在预测人员工资,而我只有两个输入变量,分别是“经验年限”和“绩效得分”,那么使用这样
的
数据集我可以形成多少
随机
树?
随机
森林树依赖于输入变量
的
数量吗?任何好
的
例子都会受到高度赞赏.. 提前感谢
浏览 127
提问于2019-06-08
得票数 1
1
回答
改变randomForest R代码中节点特征
子集
选择
的
采样方法
、
、
、
我正在开发"randomForest“R包,以更改森
林中
树节点上特征
子集
选择
的
采样方法。目前,
随机
森林使用简单
的
随机
采样来实现这一点。我尝试使用以下命令查看R代码getAnywhere(randomForest.default) 但是找不到选择了"mtry“特征
的
相关代码块。
浏览 12
提问于2017-07-26
得票数 1
回答已采纳
1
回答
在scikit-learn中如何控制
随机
森
林中
的
特征
子集
?
、
、
我正在尝试改变
随机
森林算法在为每个节点设置特征时所使用
的
方式。在Scikit-learn方式中实现
的
原始算法是
随机
子集
。我想从几个
子集
的
几个选项中为每个新节点定义哪个
子集
。有没有直接
的
方法来控制这样
的
方法呢?如果没有,有没有办法更新Scikit-learn
的
相同代码?如果是,您认为源代码中
的
哪个函数应该更新?
浏览 0
提问于2015-07-02
得票数 2
1
回答
使用SequentialFeatureSelector,但没有提高模型
的
精度
、
、
我选择
的
特点,以建立一个流失预测模型。使用RandomForestClassifier,我获得了0.9517
的
精度,它显示了作为其中一部分
的
16个特性。然而,如果我用RandomForestClassifier分别使用相同
的
16个特性列表来拟合一个模型,那么它
的
精度分数为0.8714,为什么我使用了SequentialFeatureSelector所选择
的
相同
的
特征列表,但精度分数却有很大
的
差异?
浏览 2
提问于2019-01-29
得票数 1
1
回答
ExtraTreesRegressor准则
、
、
、
据我所知,来自ExtraTreesRegressor
的
sklearn
的
工作方式是进行
随机
分割,而不是最小化一个度量,比如gini用于分类,mae用于回归。我不明白为什么有一个criterion参数,因为分裂
的
标准应该是
随机
的
。 这只是为了代码兼容性,还是我遗漏了什么?
浏览 2
提问于2020-06-17
得票数 1
回答已采纳
1
回答
随机
森
林中
树中每个结点变量
的
随机
选取
、
、
在
随机
森林方法中,对于每棵树,我们
随机
选择一组固定大小
的
变量(特征)。但是,一旦为该特定树冻结了该集合,该树
的
行为是否与常规决策树算法类似?我假设
随机
森林只是生成一堆经典
的
“决策树”,并将它们
的
投票推向最终
的
分类。真的是这样吗? 这是否意味着在树中
的
每个节点,我们从为该树固定
的
变量集中
随机
选择m个变量?还是来自训练数据集
的
全局变量集?然后从选择
的
一组变量中,我们启
浏览 1
提问于2017-04-08
得票数 1
1
回答
RandomForest算法选择了多少特性?
、
、
我正在使用
随机
森林,我想知道特性选择是如何工作
的
。我有一组423个特性,我知道它们是
随机
选择
的
,使用log2(F)+ 1,所以这样我就得到了一个12/13
的
特征
子集
。但我无法理解
的
是,选择
的
随机
性有多大,对于每棵树,这些
子集
是否应该是不同
的
,或者对于所有的树,
子集
是否是相同
的
,但不同
的
是多个组合。如果我有一个有10棵树
的</em
浏览 4
提问于2014-12-12
得票数 0
2
回答
随机
森
林中
的
每棵树在Scikit-Learn中被训练
的
样本列表
、
、
、
在Scikit-learn
的
随机
森
林中
,您可以设置bootstrap=True,每一棵树都会选择一个样本
子集
来进行训练。有什么方法可以看出每棵树都使用了哪些样本?我浏览了文献资料关于树估计器和所有由Scikit-learn提供
的
树
的
属性,但是它们似乎都没有提供我想要
的
东西。
浏览 0
提问于2021-04-18
得票数 3
1
回答
Scikit学习
随机
森林分类器:如何根据树数生成OOB错误图
、
、
、
编辑2:现在中有一个很好
的
例子。 使用staged_d
浏览 0
提问于2015-03-26
得票数 1
回答已采纳
1
回答
RandomForest:“预测”成分
的
含义及其与袋外误差
的
关系
、
对
随机
森林对象
的
预测值
的
解释是“基于袋外样本
的
输入数据
的
预测值”。 英语不是我
的
母语,我很难理解这句话。我目前正在使用
随机
森林技术处理一个模拟回归问题。目标是在仿真中找出每个样本
的
袋外误差.搜索了一下之后,我找到了这个predicted组件。根据我从句子中所理解
的
,对于每一棵树,predicted返回整个数据
子集
的
预测值,这些数据
子集
是而不是用于该特定树
的
。假设我
浏览 1
提问于2020-03-17
得票数 1
回答已采纳
3
回答
为什么
随机
森林是决策树
的
一种改进?
、
假设我们有5个特征,那么决策树将在第一步中选择最优
的
特征,并在这个特征上选择最佳
的
阈值来分割数据集,然后继续使树更深。best
的
定义是分类误差最小
的
。我
的
问题是:既然决策树在每一步都会选择最佳
的
特征来分割,那么为什么
随机
森林(也就是许多决策树)是对决策树
的
改进?一个决策树不就足够了吗?更新 我
的
意思是:如果你有一个decision tree classifier和一个参数相同
的
random forest classi
浏览 0
提问于2019-05-01
得票数 2
6
回答
随机
森林sklearn
、
、
、
我对
随机
森林是否需要显式交叉验证感到困惑?在
随机
森
林中
,我们有现成
的
样本,这可以用于计算测试精度。是否需要显式交叉验证。在
随机
森
林中
显式使用CV有什么好处吗?基于下面的代码,我发现很难理解
随机
森
林中
的
CV是如何工作
的
: model = BaggingClassifier(base_estimator=cart, n_estimators=num_trees,
浏览 0
提问于2018-10-11
得票数 2
1
回答
随机
森
林中
的
out - of - bag错误是什么?
、
、
、
随机
森
林中
的
out - of - bag错误是什么?它是在
随机
森
林中
找到正确数量
的
树
的
最佳参数吗?
浏览 1
提问于2013-08-31
得票数 71
回答已采纳
1
回答
RandomForestClassifier是如何进行分类
的
?
、
、
、
、
我了解到Sklearn将多类分类问题视为二进制问题
的
集合。引用Sklearn用户指南: 在将二进制度量扩展到多类或多标签问题时,数据被视为二进制问题
的
集合,每个类都有一个问题。因此,像LogisticRegression或支持向量矩阵这样
的
二进制分类模型可以通过使用1-VS-1或1-VS-Rest策略来支持多类情况。在Sklearn中
的
其他分类器呢?在处理多类问题时,它们是否都被用作隐藏
的
二进制分类器?
浏览 9
提问于2021-06-02
得票数 0
回答已采纳
1
回答
scikit RandomForestClassifier查询
我很难理解这两个使用scikit
的
步骤是否相似: 1)使用compute_importance=True进行RandomForestClassifier,并手动选择返回
的
前10个特征,进一步创建10个特征
的
新训练集2)使用max_feature=10 compute_importance=True进行RandomforestClassifier,并进一步使用rf.fit_transform(训练,目标)和进一步
的
rf.fit
浏览 2
提问于2013-06-28
得票数 1
1
回答
机器学习-哪一种方法最适合从不同
的
重要特征预测离散
的
连续解?
、
我需要提出一个公式,以N输入,并计算一个单一
的
数字,应该预测“正确”
的
答案尽可能多。每个输入都是一个十进制值或整数。输出也是十进制值。这些特征都是相互关联
的
(例如,当一个是高
的
时候,另一个更有可能是低
的
),它们与答案有不同程度
的
关联。没有“完美的”公式,但在许多有统计意义
的
案例中,应该有一个是正确
的</
浏览 3
提问于2012-07-03
得票数 3
1
回答
我有二进制数据(不同森
林中
鸟类
的
存在/不存在),我想知道是否有一个包含
随机
效应
的
模型
、
、
我将不同林区不同鸟类
的
缺席数据作为响应变量。作为预测变量,我有森林
的
大小和每个森林记录
的
树木数量。 我想把森林作为一个
随机
因素来考虑我们无法测量
的
变量。我怎样才能做到这一点呢?使用混合效果逻辑回归是最好
的
吗?
浏览 6
提问于2021-10-05
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
对象存储
云直播
腾讯会议
活动推荐
运营活动
广告
关闭
领券