腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
决策树
的
特征重要性、离散化及判别
准则
classification
、
decision-tree
、
feature-selection
、
entropy
、
information-theory
我正在处理数值特征,我想在sklearn中使用
决策树
分类器来找到特征
的
重要性。 特征
的
重要性。越高,功能就越重要。特征
的
重要性计算为该特征所带来
的
标准
的
(规范化)总体缩减。它也被称为基尼重要性R19
浏览 6
提问于2015-05-31
得票数 0
1
回答
与
信息
增益
不同
分裂
准则
的
决策树
python
、
machine-learning
我想在python中创建一个
决策树
,使用
与
信息
增益
不同
的
拆分标准,类似于“1-
信息
增益
”(类似于不纯度量
的
对立面,比如相似性度量)。已经存在这样
的
东西了吗?包括纸张。谢谢
浏览 15
提问于2020-01-10
得票数 0
回答已采纳
1
回答
决策树
分类器如何在全局约束下工作?
python
、
machine-learning
、
scikit-learn
、
classification
、
decision-tree
我用Python生成了一个使用sklearn
的
决策树
分类器,该分类器在准确性方面运行良好。我用线性规划
的
最优解训练分类器,它将项目的最优分配返回给类,同时考虑全局成本约束(即将项目1分配给A类,代价为x。所有项目和类
的
总结果成本需要小于y值)。在使用分类器对所有项目进行重新分类后,虽然分类精度是可以接受
的
,但在大多数分类运行过程中都违反了全局成本约束。当然,因为python中sklearn中
的
标准
决策树
不考虑约束。之后
的
全局约束合并为?在下一次作业选择
浏览 1
提问于2019-01-19
得票数 2
回答已采纳
2
回答
分类特征值
的
独立
决策树
classification
、
random-forest
、
decision-trees
、
xgboost
无论是基于特定特征值
的
不同
决策树
(如每个男性和女性
的
单独模型)还是单个
决策树
,两者都应该给出相同
的
结果吗?
浏览 0
提问于2017-12-31
得票数 1
4
回答
特征重要性语境下
的
决策树
解释
machine-learning
、
visualization
、
scikit-learn
、
data
、
decision-trees
我试图了解如何充分理解
决策树
分类模型
的
决策过程。我要看
的
两个主要方面是树
的
图形表示和特性重要性列表。我不明白
的
是特性
的
重要性是如何在树
的
上下文中确定
的
。例如,下面是我
的
特性重要性列表:FeatureJ (0.039006)FeatureL (0.008136)然而,当我看到树
的
顶端时,它看起来是
浏览 0
提问于2017-02-02
得票数 13
回答已采纳
1
回答
决策树
排序
decision-trees
我想知道
决策树
是如何选择它们
分裂
的
顺序
的
。我知道
分裂
是基于
信息
的
增益
。选择
信息
增益
最低
的
属性作为根节点。如果我有一个列
的
数据集:年龄婚姻状况 我感兴趣
的
是找出是什么决定了一个人
的
信用状况,我说得对吗?我说得对吗?我根据独立
的
属性计算熵和
信息
增益
,比如我正在调查
的<
浏览 0
提问于2017-11-16
得票数 1
回答已采纳
2
回答
使用连续变量
的
决策树
r
、
machine-learning
、
cart
、
decision-tree
、
rpart
我有一个关于使用连续变量
的
决策树
的
问题。 关于两个案例,我们如何才能得到像基尼指数或
信息
增益
这样
的
分割标准当我在R中使用rpar
浏览 10
提问于2016-11-30
得票数 9
1
回答
吉尼指数作为叶节标记策略
的
研究
machine-learning
、
decision-trees
据我所知,吉尼指数只能作为
分裂
指标。
浏览 0
提问于2020-04-22
得票数 2
1
回答
随机森林
与
log_loss度量?
random-forest
、
lightgbm
轻型gbm具有
与
log_loss相结合
的
二值或多分类度量。 随机森林也有log_loss
的
损失函数吗?
浏览 0
提问于2020-02-11
得票数 1
1
回答
用Scikit-Learn
的
决策树
分类器计算特征重要性
scikit-learn
、
decision-trees
我试图确定多波段图像分类中最有用
的
波段(即用于像素分类
的
红、绿、蓝、近红外等),并编写了以下函数来构建
决策树
。它采用带熵
的
sci-工具包学习
的
决策树
分类器作为
分裂
准则
。1] print(f"Band {idx + 1}: {importances[idx]}\n") 我假设,由于
决策树
上
的
分裂
浏览 0
提问于2023-06-01
得票数 0
回答已采纳
2
回答
为什么我们需要一个
增益
比
machine-learning
、
decision-trees
、
algorithms
我正在学习
决策树
,到目前为止,我觉得我已经很好地理解了它们及其背后
的
数学,除了一件事:
增益
比。 据我所知,实现
增益
比是为了惩罚可能具有许多可能值
的
特性。换句话说,我们在这个特性上
分裂
的
唯一原因是,这个特性可能包含很多值,因此其中很多值都是专门指向单个标签
的
。因此,我们
的
决策树
算法最终会
分裂
成"ID #“之类
的
东西,错误地计算出我们只是获得了巨大
的
浏览 0
提问于2018-09-16
得票数 1
回答已采纳
1
回答
scikit adaboost feature_importance_
feature-selection
、
adaboost
、
ensemble-learning
在python中实现
的
adaboost算法是如何为每个特性分配特性重要性
的
?我正在使用它进行特征选择,我
的
模型在基于feature_importance_值
的
特征选择方面表现得更好。
浏览 4
提问于2016-04-16
得票数 4
回答已采纳
1
回答
决策树
-如何解释图形数据上
的
决策树
节点
分裂
python
、
machine-learning
、
pygraphviz
我有一个一般性
的
问题,可能不适合堆栈溢出。提前道歉。 在所有的在线文章中,他们都会显示这些图表。我知道吉尼用在熵里。在<=生成之后,第一行中
的
值是如何生成
的
?我明白它
的
字面意思。我不明白它是怎么衍生出来
的
。花瓣长度小于或等于2.45似乎是一个任意
的
值。如果下面的false路径决策节点
的
花瓣长度小于或等于1.75,则没有意义。
浏览 4
提问于2022-05-26
得票数 0
1
回答
基尼指数
的
含义是什么?
machine-learning
、
random-forest
、
decision-trees
、
gini-index
我在研究随机森林模型,但我不明白吉尼指数是什么,它是干什么用
的
。谢谢!
浏览 0
提问于2021-09-23
得票数 2
回答已采纳
1
回答
基于多种数据类型特征
的
决策树
python
、
scikit-learn
、
decision-tree
我正在尝试用scikit-learn
的
DecisionTreeClassifier构建一个
决策树
。我
的
数据具有由整数和浮点数组成
的
数字特性。如果将整数特性转换为浮动,树<e
浏览 2
提问于2016-01-09
得票数 3
回答已采纳
6
回答
基尼系数
与
基尼杂质
决策树
data-mining
问题涉及
决策树
的
建立。根据维基百科
的
说法,'基尼系数‘不应该
与
'基尼杂质’混淆。然而,这两种方法都可以在构建
决策树
时使用--它们可以支持我们在拆分项目集时
的
选择。1)“基尼杂质”--这是一种标准
的
决策树
分裂
度量(见上面的链接); 2)“基尼系数”--每一次
分裂
都可以根据AUC
准则
进行评估。对于每个
分裂
场景,我们可以构建一个ROC曲线并计算AUC度量。另一方面,这
浏览 0
提问于2014-09-09
得票数 33
1
回答
找出区分两组
的
最重要
的
特征
machine-learning
、
data-cleaning
假设我们有两个小
的
特征向量集(每个特征向量代表一个项)。在这两个集合(小样本,50个样本)之间有最大差异(分布)
的
特征是什么?考虑到每个特性
的
数据分布不一定正常。
浏览 0
提问于2018-05-28
得票数 3
回答已采纳
1
回答
为什么在
决策树
中使用交叉熵而不是0/1损失?
machine-learning
、
scikit-learn
、
statistics
、
random-forest
、
decision-tree
我知道交叉熵/互
信息
在分类决策中是如何作为损失函数工作
的
。但我不知道为什么0/1
的
输球不是一个好
的
选择。
浏览 1
提问于2018-05-12
得票数 1
回答已采纳
1
回答
表示
决策树
归纳
的
数据结构
java
、
machine-learning
、
data-mining
、
decision-tree
、
entropy
目前,我参与了一些
与
数据挖掘相关
的
项目。并利用
决策树
归纳法将给定
的
数据集(.csv格式)分类为
不同
的
类,并以GINIsplit作为
分裂
准则
。所有这些我都是在java平台上做
的
,没有使用任何工具,比如WEKA,ORANGE...etc。 我
的
问题是-什么是最好
的
数据结构来表示
决策树
,以便分类速度快、效率高?而且,如果属性是名义
的
、数值
的
或序号<em
浏览 4
提问于2013-01-12
得票数 0
回答已采纳
1
回答
关于分类特性
的
特性重要性
的
查询
feature-selection
、
feature-engineering
、
categorical-data
关于分类特性
的
特性重要性
的
查询:查询:是否有基本和优雅
的
方式来选择最重
浏览 0
提问于2018-12-15
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
决策树与信息增益
详解决策树 C4.5 算法
C4.5算法(上)
数据挖掘分类算法之决策树算法ID3
机器学习之决策树(一)
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券