腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(5392)
视频
沙龙
1
回答
使用
SelectFromModel
和
MultiOutputRegressor
进行
多步
回归
的
特征
选择
。
如何
获取
选定
的
特征
及其
特征
重要性
?
python
、
scikit-learn
我想
使用
sklearn.feature_selection.
SelectFromModel
在
多步
回归
问题中提取
特征
。
回归
问题结合
使用
MultiOutputRegressor
和
RandomForestRegressor来预测多个值。当我尝试
使用
SelectFromModel
.get_support()
获取
选定
的
特性时,它会给出一个错误,指示我需要使
浏览 268
提问于2021-08-04
得票数 2
回答已采纳
1
回答
Scikit learn
SelectFromModel
-实际
获取
潜在预测者
的
特征
重要性
得分
python
、
machine-learning
、
scikit-learn
、
feature-selection
我正在尝试估计我手头
的
分类任务
的
特征
重要性
。对我来说,重要
的
是获得代表每个
特征
重要性
的
具体数字,而不仅仅是“挑选最重要
的
X个
特征
”。显而易见
的
选择
是
使用
基于树
的
方法,它提供了很好
的
feature_importances_方法来
获取
每个
特征
的
重要性
。但我对基于
浏览 8
提问于2017-07-26
得票数 2
回答已采纳
3
回答
scikit中
的
特征
选择
-学习大量
特征
python-3.x
、
machine-learning
、
scikit-learn
、
classification
、
data-science
我是机器学习
的
初学者。我正在做基于49个
特征
的
二进制分类。前7个特性是float64类型
的
。接下来
的
18个要素是多类类型,其余
的
是二进制类类型,即0或1。0.00000000e+00 1.49018368e-05 0.00000000e+00 0.00000000e+00因为它们都不重要,所以我在18个多类类型
的
要素
的
子集上
进行
了尝试0.02915153 0.02044009
浏览 1
提问于2017-12-19
得票数 2
1
回答
Python-带有朴素贝叶斯
的
SelectFromModel
python-2.7
、
machine-learning
、
scikit-learn
、
naivebayes
在文本分类任务中,我
使用
和
相结合
的
方法
进行
特征
选择
。
SelectFromModel
(estimator=MultinomialNB(alpha=1.0))importances = np.linalg.norm(estimator.coef_, axis=0,ord=norm_order) 但这不正是我想要
的
,因为高频率
的</em
浏览 2
提问于2017-09-15
得票数 1
回答已采纳
2
回答
为什么连续
特征
在决策树模型中比分类
特征
更重要?
machine-learning
、
feature-selection
、
decision-trees
、
logistic-regression
、
explainable-ai
我
的
预测模型中既有分类
特征
,也有连续
特征
,我希望
选择
(
和
排序)最重要
的
特征
。 我
使用
一个热编码将所有的分类变量转换为虚拟变量(为了更好地解释我
的
logistic
回归
模型)。一方面,我
使用
LogisticRegression (sklearn),并通过
使用
它们
的
系数对最重要
的
特征
进行
排序。通过这种方式,我将分类变
浏览 0
提问于2020-01-15
得票数 9
回答已采纳
1
回答
为什么我们需要重新拟合模型才能得到分数?
python
、
machine-learning
、
scikit-learn
、
data-science
、
feature-selection
我正在测试用于
特征
选择
的
嵌入式方法。我在用Lasso方法对分类问题
进行
测试。 当我试图得到分数时,我得到
的
错误是,我需要重新拟合模型。为什么我需要这
浏览 7
提问于2020-04-08
得票数 1
回答已采纳
1
回答
SelectFromModel
与RFE -模型性能
的
巨大差异
scikit-learn
、
feature-selection
Note:我已经看过
SelectFromModel
与RFE在Scikit学习中
的
差异 post,我
的
查询与
的
帖子不同 期望:
SelectFromModel
和
RFE在
使用
它们
的
建议构建
的
模型中具有相似/可比较
的
性能。怀疑:是否有任何已知
的
用例可以让RFE表现得更好?作为一个数据科学
的
学生(刚刚开始学习),这对我来说是个奇怪
的
观察。total_rec_in
浏览 0
提问于2020-11-01
得票数 3
回答已采纳
2
回答
决策树与
特征
选择
feature-selection
、
decision-trees
在应用
特征
选择
之前
和
之后,我尝试对不同机器学习算法
的
性能
进行
实验。利用sklearn提供
的
函数(
SelectFromModel
),对SVM、随机森林、KNN、线性
回归
以及决策树作为
特征
选择
方法
进行
了测试。 除决策树算法外,所有算法在应用
特征
选择
后都有了明显
的
改进。这是否意味着决策树需要大量
的
特性才能生成一个好
的
浏览 0
提问于2020-04-19
得票数 3
1
回答
如何
在
回归
树中计算
特征
重要性
?
regression
、
random-forest
、
decision-tree
、
feature-selection
在
使用
决策树算法或随机森林
进行
分类
的
情况下,我们
使用
基尼杂质或信息增益作为衡量标准,以确定首先
选择
哪个
特征
来分割父节点/中间节点,但如果我们
使用
决策树或随机森林
进行
回归
,那么
如何
计算
特征
重要性
或
选择
特征
浏览 62
提问于2020-10-22
得票数 1
3
回答
分类后
的
特征
重要性
classification
、
rnn
我有时间序列数据,每个样本或多或少都有200个
特征
,我
使用
递归神经网络
进行
二值分类任务。分类之后,我想知道哪些特性对目标贡献最大(比如target=1)。有什么建议吗?谢谢
浏览 0
提问于2020-09-16
得票数 8
回答已采纳
1
回答
SelectFromModel
()是
如何
从from_model.py中工作
的
?
machine-learning
、
scikit-learn
、
classification
、
random-forest
、
supervised-learning
fsel = ske.ExtraTreesClassifier().fit(X, y) 我试图在ExtraTreesClassifier上训练一个数据集,函数
SelectFromModel
()是
如何
决定重要值
的
,它返回什么?
浏览 0
提问于2018-07-11
得票数 1
回答已采纳
1
回答
随机森林“
特征
重要性
”
scikit-learn
、
random-forest
随机森林分类器
的
参数之一是“准则”,它有两个选项:基尼系数或熵。基尼系数越低越好,熵值越高越好。默认情况下,gini是随机森林分类器
的
标准。sklearn提供了一个名为feature_importances_
的
属性,我们可以在其中
获取
所提供
的
属性/特性
的
值。通过
使用
,我们可以
选择
一些
特征
,并
使用
"threshold and
SelectFromModel
“消除一些
特征</
浏览 1
提问于2021-02-05
得票数 1
1
回答
(
特征
选择
)与基于L2
和
基于树
的
不同结果
scikit-learn
、
feature-selection
我正在
使用
Sklearn
进行
功能
选择
:基于L2
的
特征
选择
: LogisticRegression.coef培训集是标准化
的
。 当某一
特征
在随机森林估计中表现出显著
的
重要性
,而在Logistic
回归
中表现为负系数时,该
如何
浏览 0
提问于2019-09-19
得票数 1
回答已采纳
3
回答
我应该删除不太重要
的
功能吗?
scikit-learn
、
logistic-regression
、
random-forest
、
xgboost
、
feature-selection
我通过删除相关变量
和
反向消除来
进行
一些
特征
选择
。然而,在所有这些都作为测试完成之后,我抛出了一个随机变量,然后训练了逻辑
回归
、随机森林
和
XGBoost。所有3个模型
的
随机
特征
的
特征
重要性
都大于0。其次,所有型号都将其排在底部,但它不是最低
的
功能。这是另一轮
特征
选择
-i.e
的
有效步骤吗?删除所有得分低于随机
特征
的
浏览 0
提问于2020-06-25
得票数 0
2
回答
为ML
选择
最佳特性
python
、
machine-learning
、
recurrent-neural-network
有没有从数据中提取最佳
特征
的
方法。现在,我正在
使用
sklearn中
的
'KBest‘。在这种情况下,我必须指定需要
选择
的
K个最佳
特征
的
数量。有没有什么方法可以让我不必指定要提取
的
特征
数量?相反,我们提取所有有用
的
特征
?
浏览 4
提问于2019-12-02
得票数 1
1
回答
随机森林
和
XGB‘
回归
者’
如何
计算
特征
重要性
python
、
scikit-learn
、
random-forest
、
xgboost
、
feature-selection
我正在寻找随机森林
和
XGB‘
回归
者’
如何
计算特性
重要性
。然而,大多数
的
讨论都集中在分类器上。 我试图在正式文件中找到答案,但有一些问题。在中,对get_score
的
描述表明,对于线性模型,只定义了“权重”,它是无偏差
的
归一化系数。它是否意味着
特征
的
重要性
仅由输入
和
输出之间
的
系数计算?不是由mse还是gini计算
的
?在中,对feature_importances_<
浏览 0
提问于2021-06-27
得票数 0
1
回答
每个
特征
在分类中
的
贡献?
machine-learning
、
nlp
我有一些特性,我正在
使用
Weka对我
的
实例
进行
分类。Number of adj number of adverb number of punctuation 在我
的
特征
集里。但是,我想知道功能集中每个特性
的
贡献。那么,哪些度量或参数有助于获得特性
的
贡献?
浏览 0
提问于2015-07-27
得票数 5
回答已采纳
2
回答
DNN、随机林
和
梯度增强决策树
的
不同
特征
重要性
结果
machine-learning
、
neural-network
、
feature-selection
、
random-forest
、
explainable-ai
我用3种不同
的
回归
模型对代谢物数据
进行
了建模。通过
使用
随机森林模型
和
梯度增强决策树运行
特征
重要性
,我得到了类似的结果(我
使用
了scikit-学习内置
的
特征
重要性
),但是
使用
深度神经网络,我得到了非常不同
的
结果(
使用
置换
特征
重要性
)。我还运行了PCA,PCA给了我类似于DNN
的
结果!这是正常<e
浏览 0
提问于2020-11-11
得票数 5
1
回答
如何
使用
SelectFromModel
根据
特征
的
重要性
来
选择
特征
?
python
、
scikit-learn
、
feature-selection
、
xgboost
如果您能让我知道
如何
使用
SelectFromModel
根据特性
的
重要性
来
选择
特性,我将不胜感激。f1')print("Tuned rf best params: {}".format(rg_cv.best_params_)) for thresh in thresholds: # sele
浏览 0
提问于2017-12-12
得票数 1
回答已采纳
1
回答
数据少、稀疏、不平衡时
的
特征
选择
machine-learning
、
scikit-learn
、
analytics
、
feature-selection
当我有较少、稀疏
和
不平衡
的
数据时,有什么方法来
选择
这些特性吗?
特征
数量:200个样本数:约1000个
浏览 1
提问于2017-02-01
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
这3个Scikit-learn的特征选择技术,能够有效的提高你的数据预处理能力
特征工程:特征缩放、选择
7,特征的选择
进行机器学习和数据科学常犯的错误
利用scikit-learn进行机器学习:特征工程(二)特征选择
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券