腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
如何使用
交叉
验证
方法创建
决策树
?
algorithm
、
decision-tree
、
cross-validation
我想知道当我们使用
交叉
验证
时,
决策树
是如何生成的,在教程中,我读过
交叉
验证
,试图找到最好的准确性或最低的错误率,但
决策树
到底是如何生成的还不清楚。
浏览 36
提问于2019-04-23
得票数 3
2
回答
sklearn中的网格搜索
交叉
验证
scikit-learn
可以使用网格搜索
交叉
验证
来提取
决策树
分类器的最佳参数吗?
浏览 3
提问于2015-07-01
得票数 6
1
回答
决策树
交叉
验证
问题
tree
、
data-mining
、
decision-tree
、
cross-validation
所以我正在写一个
决策树
程序。假设我有一个包含1000个实例的数据集。据我所知,通过
交叉
验证
,我将数据集分为900-100组。每次使用不同的900集合来创建树,使用100来测试它 我不理解的是这些问题: 1.我使用哪棵树作为我的最终
决策树
(选择误差最小的那棵树不是一个好的选择,因为我猜这可能是因为过度拟合) 2.
交叉
验证
只用于估计最终树中的错误吗3.我发现了一些关于
交叉
验证
的不同算法,一些使用相同的拆分标准,还有一些使用不同的算法来选择最好的树-你能告诉
浏览 0
提问于2013-02-08
得票数 0
6
回答
帮助理解
交叉
验证
和
决策树
algorithm
、
machine-learning
、
decision-tree
我一直在阅读
决策树
和
交叉
验证
,我理解这两个概念。但是,我很难理解
交叉
验证
,因为它涉及
决策树
。基本上,
交叉
验证
允许您在数据集相对较小时在培训和测试之间进行交替,以最大限度地提高您的错误估计。在您的迭代中平均错误,以预测总体错误 我不知道的问题是,在最后你会有k个
决策树
,因为它们可能不会以相同的方式分裂,所以它们都可能略有不同。你选择哪棵树?正如我所理解的,
交叉
验证
的重点是在节点统计中进行计算,这些统计
浏览 0
提问于2010-02-22
得票数 37
回答已采纳
1
回答
变量重要性比
决策树
图显示更多的变量。
r
、
caret
、
rpart
我用R.中的Caret库对我的数据安装了一个rpart模型--“离开一个
交叉
验证
”,但是我想了解模型的变量重要性和
决策树
图之间的区别。怎么可能呢?为什么
决策树
图没有显示变量重要性表中相同的九个变量?
浏览 6
提问于2021-11-29
得票数 2
回答已采纳
1
回答
交叉
验证
是否用于找到最佳模型/体系结构或模型/体系结构的最佳参数?
machine-learning
在我看来,
交叉
验证
用于通过使用尽可能多的数据来比较模型。例如,对于相同的问题,它可以用来比较感知器神经网络和
决策树
。或者,它可以用于研究特定问题的神经网络的神经元数量。这里是关于比较模型/架构的。然而,在我看来,
交叉
验证
似乎不适合找到神经网络的最佳权重,因为在每一轮
交叉
验证
中,权重都会重新初始化。谢谢。
浏览 0
提问于2012-04-11
得票数 1
回答已采纳
1
回答
如何将在同一类型数据中学习的两个购物车
决策树
结合起来?
machine-learning
、
classification
、
data-mining
、
decision-trees
、
distributed
我们有分布式数据中心,我们在每个数据中心建立
决策树
。我们的问题是将我们的购物车
决策树
组合成一个购物车
决策树
。每个数据中心中的数据与同一事件相关(例如来自光传感器的数据)。
浏览 0
提问于2016-10-20
得票数 1
回答已采纳
1
回答
如何计算
决策树
的AUC?
machine-learning
、
decision-tree
假设我有一个只有一个连续变量的数据集,我尝试使用
决策树
算法来构建一个模型,该模型从数据集中对+ve和-ve标签进行分类。我运行10折
交叉
验证
。 如何计算
决策树
分类器的AUC?
浏览 5
提问于2014-03-12
得票数 1
2
回答
Matlab机器学习培训,
验证
,测试分区
matlab
、
validation
、
machine-learning
我使用Matlab的统计和机器学习工具箱创建
决策树
、集合、Knn模型等。我希望将数据分离到训练/测试分区中,然后让模型使用训练数据进行训练和
交叉
验证
(实际上是将训练数据分成训练数据和
验证
数据),同时保存测试数据以进行错误度量。对于我的
决策树
,我有如下代码:predictors = chess(:,1:6); cvpart = cvpartition我尝试了几种类似方法的组合,使用不同类型的分类算法,
浏览 1
提问于2016-01-27
得票数 3
回答已采纳
1
回答
我可以在受监管的数据上使用ADtree吗?
machine-learning
、
decision-tree
我尝试了许多
决策树
,以获得良好的准确性,但没有一个给我最好的解决方案,如ADtree (交替
决策树
)给了我。我的工作需要
验证
(通过
交叉
验证
),我不确定我是否能够使用ADtree。 我的问题是:我可以使用这棵树吗?
浏览 1
提问于2013-12-23
得票数 0
1
回答
交叉
验证
决策树
python
、
for-loop
、
machine-learning
、
tree
、
training-data
在创建了
决策树
函数后,我决定检查树的准确性,并确认如果我将使用相同的数据创建其他树,则至少第一次分割是相同的 from sklearn.model_selection import train_test_split
浏览 17
提问于2020-12-28
得票数 1
回答已采纳
1
回答
为什么C4.5算法使用剪枝来减少
决策树
,剪枝如何影响预测精度?
weka
、
decision-tree
、
pruning
我已经在谷歌上搜索过这个问题,但我找不到任何东西可以简单而详细地解释这个算法。因此,C4.5为了支持连续特征,它使用了剪枝,但这是唯一的原因吗?谢谢
浏览 3
提问于2012-06-03
得票数 9
回答已采纳
1
回答
利用
交叉
熵建立
决策树
分类器
decision-trees
、
multiclass-classification
熵和
交叉
熵是否与基本定义相同?
决策树
分解取熵或基尼指数,可以用
交叉
熵来分割
决策树
吗?或者,在运行
决策树
算法之后,我应该使用它作为评估指标吗? 此外,
决策树
算法是否假定有任何分布?以下是我对多类
决策树
的关注。
浏览 0
提问于2020-01-16
得票数 2
1
回答
决策树
回归与
交叉
验证
在学习中的应用
python
、
scikit-learn
、
regression
当使用sklearn的
决策树
回归(例如DecisionTreeRegressor和RandomForestRegressor)时,我在理解
交叉
验证
的执行过程中遇到了问题。因此,我试图用
交叉
验证
(10倍)对回归者进行评分,以获得更真实的准确性表示:rf = RandomForestRegressor() dt.fit基本KFold
交叉
验证
指南中给出的解释是:每一折叠一次作为
验证
,而k-1剩余的
浏览 0
提问于2017-06-21
得票数 5
回答已采纳
1
回答
使用
交叉
验证
的Rapidminer
决策树
rapidminer
我正在使用十折
交叉
验证
运算符。我是第一次使用rapidminer,所以我有一些困惑,因此我会得到10个
决策树
。我读到准确率是所有结果的平均值,那么最终输出是什么。所有数据的平均值?
浏览 5
提问于2014-03-29
得票数 0
1
回答
树中分类错误的实例与混淆矩阵不匹配
weka
、
j48
所有规则中错误分类的总和(见树)是2097 (来自895+700+428+74)。但是混淆矩阵是2121 (来自1999+122)。有人能解释一下这种差异吗?数字怎么会不一样呢?
浏览 6
提问于2016-08-27
得票数 0
1
回答
在RapidMiner中优化
决策树
参数
machine-learning
、
data-mining
、
rapidminer
我正在处理一个相当大的数据集(770K记录,2K属性,几乎所有这些属性都是二项式的,但都是整数形式的),1.为什么
决策树
(例如深度为10的
决策树
)需要这么多时间来训练?实际上,在训练树之前,我平衡了数据(因为它是不平衡的)到原始大小的40% (~320K记录),但这仍然需要很多时间,有没有其他版本的
决策树
可以产生相同的性能和更少的时间?2.如何优化
决策树
的参数?我应该在整个X-validation上对其进
浏览 1
提问于2012-12-30
得票数 0
1
回答
基于sklearn的
决策树
分类器的100%准确率
python
、
machine-learning
、
scikit-learn
、
decision-tree
我正在使用sklearn的
决策树
分类器,但是我得到了100%的分数,我不知道出了什么问题。我已经测试了svm和knn,两者的准确率都在60%到80%之间,看起来也不错。(max_depth=1)的
交叉
val评分为1.0。
决策树
分类器(max_depth=5)的
交叉
值得分为0.9996212121212121。
决策树</em
浏览 2
提问于2020-07-02
得票数 0
回答已采纳
1
回答
基于Orange数据挖掘工具的不平衡数据集
交叉
验证
cross-validation
、
class-imbalance
、
orange
我正在使用Orange数据挖掘工具来建立和分析模型(
决策树
,ANN,.)预测客户流失。因为这是一个不平衡的类问题(10%搅动,90%不是搅动),所以我需要在
交叉
验证
中过采样。
浏览 0
提问于2020-12-14
得票数 2
2
回答
我的数据是高度重叠的,但当我应用逻辑回归,它是一个令人印象深刻的准确性79%。为什么?
visualization
、
logistic-regression
、
data-science-model
、
accuracy
logistic回归模型比
决策树
法、KNN法、随机森林法(适用于重叠数据的方法)具有更好的精度。即使
交叉
验证
得分较高,我的logistic回归模型。 📷
浏览 0
提问于2021-09-26
得票数 4
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
机器学习之交叉验证
参数调优与交叉验证
浅论渠道业务的交叉验证
Python基础——6 交叉验证法
时间序列的蒙特卡罗交叉验证
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券