腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
决策树
-非常稀疏
特征
的预
处理
decision-trees
、
preprocessing
如何为
决策树
的稀疏特性预
处理
数据?它提到这一点: 为什么选择
决策树
?不同的型号有不同的优点。
决策树
模型
非常擅长
处理
具有数值
特征
的表格数据,或少于数百个类别的
分类
特征
。与线性
模型
不同,
决策树
能够捕捉
特征
与目标之间的非线性交互.一个重要的注意事项是,基于树的
模型
的设计并不是为了
处理
非常稀疏的特性。当<e
浏览 0
提问于2019-03-07
得票数 2
1
回答
决策树
分类
器
在
使用OneHotEncoder转换
分类
特征
之前是否计算熵,或者应该进行转换
machine-learning
、
python
、
decision-trees
、
information-theory
熵与
决策树
📷import numpy as npimport pandas、湿度和Windy)将变成:作为独立的
特征</em
浏览 0
提问于2019-10-01
得票数 0
0
回答
在
构建
决策树
模型
时
处理
分类
特征
random-forest
、
categorical-data
、
h2o
、
gbm
我使用H2O来
构建
分类
模型
,比如GBM、DRF和DL。我拥有的数据集包含一些
分类
列,如果我想使用它们作为
构建
模型
的功能,是否需要手动将它们转换为虚拟变量?我读到GBM可以在内部哑化
分类
变量?
浏览 4
提问于2017-06-08
得票数 3
回答已采纳
2
回答
为什么连续
特征
在
决策树
模型
中比
分类
特征
更重要?
machine-learning
、
feature-selection
、
decision-trees
、
logistic-regression
、
explainable-ai
我的预测
模型
中既有
分类
特征
,也有连续
特征
,我希望选择(和排序)最重要的
特征
。 我使用一个热编码将所有的
分类
变量转换为虚拟变量(为了更好地解释我的logistic回归
模型
)。一方面,我使用LogisticRegression (sklearn),并通过使用它们的系数对最重要的
特征
进行排序。通过这种方式,我将
分类
变量和连续变量都视为最重要的特性。另一方面,当我想使用
决策树
模型
(SelectFromMod
浏览 0
提问于2020-01-15
得票数 9
回答已采纳
1
回答
Catboost回归者如何在预测时间
处理
分类
特征
?
regression
、
encoding
、
gradient-boosting-decision-trees
、
catboost
我理解Catboost回归器
在
训练
时
使用基于目标的编码将
分类
特征
转换为数字
特征
。但是
在
标签完全未知的时候,Catboost是如何
处理
分类
特征
的呢?如果
决策树
期望将
分类
特征
值作为数字来看待,那么
在
预测时间内,一个对象如何沿着Catboost
决策树
下降? 我试着查看正式文档,但只有
在
培训期间,当标签可用时,才能找到编码。
浏览 0
提问于2022-06-29
得票数 0
回答已采纳
2
回答
决策树
:冲刺对SLIQ?
machine-learning
、
decision-trees
我发现了不同类型的
决策树
,例如SPRINT和SLIQ方法。这两种方法都用于解决
分类
问题,使用Gini索引进行
特征
选择并遵循步骤(根据幻灯片8上的这 ):所以,我的问题是: SPRINT算法和SLIQ算法有什么区别?
浏览 0
提问于2022-03-29
得票数 1
回答已采纳
1
回答
基于树的标签编码器和热编码器
分类
器
machine-learning
、
python
、
scikit-learn
、
random-forest
、
decision-trees
我正在使用基于树的
分类
器
在
scikit-学习
决策树
和随机森林中,作为数据
分类
用例,并且
特征
集是
分类
(多数)和数字
特征
的混合。科学工具包-学习
决策树
/随机森林只能
处理
数值,所以我使用了LabelEncoder和OneHotEncoder的框架来将
分类
特性转换为数值特性。通过比较每一种性能指标(这是相似的),LabelEncoded数据
在
处理
时间、资源消耗和最终精度统计方面表
浏览 0
提问于2021-12-13
得票数 0
1
回答
Scikit学习:预测
分类
特征
machine-learning
、
scikit-learn
、
classification
、
categorical-data
我正在尝试找出在scikit-learn中预测
分类
特征
的最好的通用方法,并想要一些建议。特别是,我可以只做一个
决策树
,它可以很好地
处理
分类
数据,但我想尝试一些其他的多
分类
模型
。我可以使用one-hot方法将
分类
特征
转换为大量的二进制
特征
。0 | 1 0 75 | 0 0 1 | 1 0 1 0 0 0 0 1 然后我可以用各
浏览 4
提问于2014-11-15
得票数 0
1
回答
在
验证
模型
之后,如何根据给定的输出提取最优输入?
classification
、
prediction
、
multi-output
在
我训练和测试了一个
分类
模型
之后,我明白了如何为它提供一个新的输入来生成一个预测的输出。但是我如何做反向任务--为它提供一个输出,并提取最佳或最佳的输入参数?(即预测会产生给定输出的输出)?
浏览 0
提问于2022-08-13
得票数 0
1
回答
用套袋
分类
器进行logistic回归的
特征
重要性
python
、
scikit-learn
、
ensemble-learning
我正在
处理
一个二进制
分类
问题,我
在
包装
分类
器中使用了logistic回归。10, model.fit(X,y,sample_weights)当
决策树
被用作套袋
分类
器的估计器
时
,我能够得到
特征</
浏览 1
提问于2019-02-04
得票数 2
回答已采纳
1
回答
在
决策树
中
处理
标称类别
特征
python
、
scikit-learn
、
decision-trees
、
categorical-data
、
one-hot-encoding
我一直
在
阅读一些关于如何
处理
决策树
(sklearn实现)的标准特性的堆栈溢出问题。
浏览 0
提问于2021-05-24
得票数 1
回答已采纳
1
回答
将先验知识集成到
决策树
中的机器学习方法
algorithm
、
machine-learning
、
decision-tree
你们中有谁知道机器学习的方法或方法的组合,从而能够
在
决策树
的
构建
过程中集成先验知识吗? 有了“先验知识”,我指的是如果某个特定节点中的某个特性确实对最终的
分类
负责的信息。想象一下,我们只有很短的时间来测量我们的
特征
,而在这段时间里,我们有一个
特征
之间的相关性。如果我们现在再次测量相同的特性,我们可能会而不是得到这些特性之间的相关性,因为它们相互关联只是巧合。由此产生的问题是:算法选择进行分割的
特征
并不是
在
现实世界中真正导致分裂的
特征
。
浏览 4
提问于2016-08-16
得票数 2
1
回答
在
预
处理
时
保留数据点之间的关系
preprocessing
问题是,我应该如何预
处理
这些身份证,以保持他们的关系。我只是把它们编码成一个
分类
属性吗?
浏览 0
提问于2022-10-05
得票数 0
2
回答
决策树
与
特征
选择
feature-selection
、
decision-trees
在
应用
特征
选择之前和之后,我尝试对不同机器学习算法的性能进行实验。利用sklearn提供的函数(SelectFromModel),对SVM、随机森林、KNN、线性回归以及
决策树
作为
特征
选择方法进行了测试。 除
决策树
算法外,所有算法
在
应用
特征
选择后都有了明显的改进。这是否意味着
决策树
需要大量的特性才能生成一个好的
模型
?
浏览 0
提问于2020-04-19
得票数 3
1
回答
基于sklearn的
决策树
分类
器的100%准确率
python
、
machine-learning
、
scikit-learn
、
decision-tree
我正在使用sklearn的
决策树
分类
器,但是我得到了100%的分数,我不知道出了什么问题。我已经测试了svm和knn,两者的准确率都在60%到80%之间,看起来也不错。using Decision tree classifier is {0:.8f}%".format(100* 这是输出:
决策树
分类
器
决策树
分类
器(max_depth=5)的交叉值得分为0.9996212121212121。
决策
浏览 2
提问于2020-07-02
得票数 0
回答已采纳
2
回答
基于
决策树
的图像
分类
python
、
decision-tree
好的,我正在学习如何使用
决策树
,并且想要
处理
图像。所以我已经阅读了它们是如何工作的,我需要一些帮助才能继续前进,因为我找不到太多的材料(我知道我没有朝正确的方向看)。我读过许多
决策树
的例子,但它们都有与图像无关的例子(有年龄、性别等
特征
)。我任何人都可以提供有用的资源来阅读如何使用DTs进行图像
分类
,或者可以指导我,因为我对我所拥有的数组应该做什么一无所知。 谢
浏览 4
提问于2019-12-13
得票数 1
1
回答
如何在使用scikit-learn/ sklearn训练
决策树
时
处理
分类
数据?
machine-learning
、
scikit-learn
、
decision-tree
我正在尝试使用sklearn模块来训练
决策树
分类
器。数据由一些
分类
特征
和一些连续
特征
组成。但当我训练
分类
器
时
,具有1、2、3等值的
分类
特征
被视为连续的。我得到的结果给出了一个范围,甚至对于
特征
的
分类
值也是如此。例如,我得到了一个
决策树
,其中X<4.5表示一个特定的类,其中X是一个
分类
特征
。请注意,因为这里的X是
分类
的,所以
浏览 1
提问于2015-05-19
得票数 0
1
回答
为什么
决策树
能很好地
处理
不平衡的数据?
machine-learning
、
linear-regression
、
decision-tree
我采取了线性回归和
决策树
。线性回归按预期工作:我们有很高的查准率和召回率,而抽样不足会使情况更糟。为什么两种模式有这么大的区别?
浏览 0
提问于2017-09-07
得票数 1
回答已采纳
1
回答
将连续变量转换为离散(范畴)变量是否提高了基于树的
模型
的准确性?
decision-trees
、
categorical-data
我读过其他关于一个连续特性是否应该转换为
分类
的问题。但我感兴趣的是基于树的
分类
器,如
决策树
、随机森林、梯度增强等。我的直觉是,由于基于树的
分类
器试图
在
每个节点上找到最优分割或最佳测试,提供一个
分类
特征
将使分割比提供一个连续
特征
更精确。 我的问题是,做上述的数据预
处理
将导致高精度的情况下,基于树的
模型
还是相反的?
浏览 0
提问于2020-05-29
得票数 1
回答已采纳
1
回答
对于二进制
分类
,哪种是最好的随机森林还是神经网络?
neural-network
、
deep-learning
、
classification
、
random-forest
、
machine-learning-model
我必须执行二进制
分类
,从一开始我就开始考虑使用随机森林
分类
器。但现在我在想,如果使用神经网络不会更好。 所以我的问题是,你会选择哪一种模式?如果不是神经网络,最适合神经网络的任务是什么?为什么?
浏览 0
提问于2019-05-22
得票数 1
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券