腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
为什么
这个
决策树
在
每
一步
的
值
不等于
样本
的
数量
?
python
、
machine-learning
、
scikit-learn
、
decision-tree
我正在阅读有关
决策树
和打包分类器
的
内容,并尝试展示在打包分类器中使用
的
第一个
决策树
。我对输出感到困惑。bag_clf.fit(X_train, y_train) Source(tree.export_graphviz(bag_clf.estimators_[0], out_file=None)) 下面是输出中
的
一个片段据我所知,value应该显示有多少
样本
被归类为每个类别。在这种情况下,value字段中
的
数字不应该与samples字段相加吗?
为什么
这
浏览 53
提问于2019-05-13
得票数 3
回答已采纳
3
回答
为什么
随机森林是
决策树
的
一种改进?
random-forest
、
decision-trees
假设我们有一个二进制分类问题,我们在数据集上构建了一个
决策树
。我
的
问题是:既然
决策树
在
每
一步
都会选择最佳
的
特征来分割,那么
为什么
随机森林(也就是许多
决策树
)是
浏览 0
提问于2019-05-01
得票数 2
2
回答
使用ExtraTreesClassifier返回全零
的
功能重要性
python
、
machine-learning
、
feature-selection
我想使用ExtraTreesClassifier计算给定数据集
的
特征重要性。我
的
目标是为进
一步
的
分类过程找到高得分
的
特征。X数据集
的
大小为(10000,50),其中50列是特征,该数据集仅表示从一个用户(即,来自同一类)收集
的
数据,Y是标签(全零)。feat_importances.nlargest
浏览 0
提问于2019-12-06
得票数 0
1
回答
cforest party不平衡类
r
、
random-forest
、
party
我想用party库中
的
cforest函数来衡量特征
的
重要性。有没有办法做到这一点?随机森林是一组
浏览 2
提问于2014-10-16
得票数 4
1
回答
吉尼指数作为叶节标记策略
的
研究
machine-learning
、
decision-trees
我们可以使用gini索引将类分配给叶节点吗?如果是,怎么做?据我所知,吉尼指数只能作为分裂指标。
浏览 0
提问于2020-04-22
得票数 2
1
回答
这个
抽搐脚趾
的
伪码是对
的
吗?
artificial-intelligence
、
decision-tree
我是人工智能领域
的
新手,我正在尝试用minimax算法实现tic tac游戏,但在进入之前,我想检查一下我对实现
的
理解: 首先,
在
移动
的
每
一步
,根据网格的当前状态,创建
决策树
,
在
决策树
生成后,应用最小
值
对树进行标记,然后根据该标记进行选择,找到下
一步
的
最佳移动,然后从零开始,再对所选
的
移动进行
决策树
,并再次应用最小
值
并选择最佳<
浏览 1
提问于2014-01-03
得票数 1
回答已采纳
1
回答
随机森林回归:提取每棵树终端节点
的
训练
样本
r
、
regression
、
random-forest
我想实现
的
预测处方方法,在这里,他们将机器学习方法和优化方法结合起来。为此,我需要查看森林中每个
决策树
的
终端节点(disjuct区域)。具体来说,我想了解
每
一棵树
的
以下情况: 这里,对于第一个终端节点,我不感兴趣
的
是预测m,而是对构成预测基础
的
值
y1、y4和
浏览 3
提问于2020-08-24
得票数 1
1
回答
你能在你
的
最终测试数据中重用你
的
火车数据中
的
观察结果吗?
classification
、
r
、
xgboost
在
大多数机器学习问题中,您尝试根据未观察到
的
数据进行预测,与之不同
的
是,我将处理相同
的
问题,因为您不会在短时间内看到大量
的
员工更替。 我正在使用XGboost实现。
在
整个人群中,我
的
标签告诉员工是否受伤。我使用了70%
的
数据作为我
的
训练集,同时测试了其余
的
30%
的
准确性。我得到了相当不错
的
精确等级。我能够准确地对受伤员工进行90%
的
分类(特异性)。虽然我
的
浏览 0
提问于2018-05-25
得票数 2
5
回答
决策树
算法是线性
的
还是非线性
的
?
machine-learning
、
classification
、
decision-trees
、
algorithms
、
pac-learning
最近,我
的
一位朋友
在
一次采访中被问及
决策树
算法是线性算法还是非线性算法。我试图寻找
这个
问题
的
答案,但没有找到令人满意
的
解释。有人能回答并解释
这个
问题
的
解决方案吗?另外,还有其他一些非线性机器学习算法
的
例子吗?
浏览 0
提问于2015-08-13
得票数 37
4
回答
在
决策树
中处理异常值和空
值
classification
、
regression
、
decision-trees
、
outlier
离群
值
:据我所知,
决策树
对异常值是稳健
的
。有人能证实我
的
假设是否正确吗?(如果我
的
特征从0到9不等,但存在一个
值
为10000
的
异常值,那该怎么办?)它是否为
这个
离群点
样本
创建了一个单独
的
叶子,还是会与其他树
的
叶子合并?谢谢。
浏览 0
提问于2018-05-09
得票数 6
回答已采纳
2
回答
Weka如何在J48和其他分类器中计算输出预测?
weka
我
在
Weka语言中使用了J48分类器
的
输出预测,并得到了预测
的
结果(概率)。由于我需要在我
的
研究中使用这些预测数,我需要知道weka是如何计算这些数字
的
?公式是什么?是为每个分类器指定
的
吗?
浏览 2
提问于2015-11-27
得票数 0
1
回答
关于如何平衡不平衡
的
数据
machine-learning
、
scikit-learn
、
imbalanced-data
当我
在
Scikit学习中阅读
决策树
时,我发现: 我很困惑。(1) 类平衡可以通过从每个类中抽取相同
数量
的
样本
浏览 2
提问于2016-08-24
得票数 1
1
回答
随机森林模型
的
假设/局限性
random-forest
、
ensemble-modeling
随机森林模型
的
一般假设是什么?我在网上搜索找不到。例如,在线性回归模型中,限制/假设是:假设模型误差不相关且均匀(无奇异性)。 类似的条款是否有任何假设/限制。
浏览 0
提问于2015-06-05
得票数 7
回答已采纳
1
回答
TP、TN、FP和FN
的
总数
不等于
观测
值
的
总数。
python
、
tensorflow
、
keras
、
metrics
、
confusion-matrix
我是通过 TensorFlow
的
。
在
本教程中,他们使用了。
在
部分,您可以看到培训示例
的
数量
是182276,验证示例
的
数量
是45569。但是,如果您查看部分中
的
培训日志,那么您可以看到,FP+TP+FN+TN
的
和并
不等于
培训示例
的
数量
。也
不等于
验证数据
的
验证示例数。随后
的
所有时代也是如此。
为什么
是这种情况? 第2
浏览 2
提问于2021-01-12
得票数 1
1
回答
基于信息增益
的
决策树
tree
、
decision-tree
如果我
在
相同
数量
的
节点上得到两个
决策树
,哪一个被认为更好?树1:(F为假,T为真)这意味着第一个更宽,而第二个更深。
浏览 6
提问于2010-12-29
得票数 0
回答已采纳
2
回答
随机森林分类器中
的
单热编码
machine-learning
、
scikit-learn
、
random-forest
是否需要对python中
的
随机森林分类器进行一次热编码?我想从逻辑上理解,随机林中是否可以用标签编码来处理分类特性,而不是单热编码。
浏览 4
提问于2021-01-14
得票数 0
1
回答
在
每个时期使用不同批次
的
数据拟合深度学习模型
python
、
tensorflow
、
keras
、
deep-learning
我有一个由不同层组成
的
深度学习模型。我正在运行它20个时期。我想将整个数据分成20个批次,每个批次将在每个时期进行。那么,如果我有20个切片
的
数据,有没有一种方法来适应每个时期
的
每个切片。text_model.fit(x_train, y_train, epochs=20),模型类
的
名称是text_model,我希望它适合每个时期。我将非常感谢大家对我
的
帮助。
浏览 0
提问于2021-04-21
得票数 0
1
回答
无法理解
决策树
参数
的
含义
python
、
scikit-learn
female_age = np.array([51,35,33,67,61]) 无法获得
的
培训数据42,97,78,76,86])因此,完整
的
培训数据如下:完整
浏览 3
提问于2014-11-09
得票数 0
回答已采纳
2
回答
为什么
我们
在
随机森林中选择随机特征?
machine-learning
、
random-forest
据我所知,随机森林是树木套袋
的
程式化版本。我们选择随机数据点和随机特征来构造随机森林。但是,如果我们只使用普通版本
的
套袋,只随机选择数据点,那么我们就有了树,它们已经训练了更多
的
特征,不像样式化版本中
的
随机森林。由于学习具有更多
的
特征,每个个体树都有更多关于数据点
的
信息,因此
在
某种意义上比随机森林中
的
个体树更“智能”。 那么,
为什么
使用套袋
的
程式化版本
的
随机森林比使用普通套袋实现
的
浏览 0
提问于2017-07-10
得票数 4
回答已采纳
2
回答
分类树中“实数”与“判定
值
”
的
混淆
machine-learning
、
decision-trees
、
xgboost
、
lightgbm
我正在阅读XGBoost指南,我对它在
决策树
的
评分系统和分类/回归树之间
的
区别感到困惑。我挂
的
那一段是:我一点也不确定这意味着什么。我对回归
决策树
的
理解是,每个叶都有一
浏览 0
提问于2021-09-13
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
opencv_cascade各个训练输出参数
机器学习算法之决策树!ID3以及C4.5两种算法区别与联系
随机森林概述
你可能不知道的对称树和GBM模型的快速预测
机器学习(九)——构建决策树(离散特征值
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券