腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
0
回答
递归
特征
消除
SKLearn
、
fit.explained_variance_ratio_)[ 0.57554896 0.42445104]然而,当我做RFE (
递归
特征
消除
浏览 4
提问于2017-12-07
得票数 0
回答已采纳
1
回答
将
sklearn
RFE与另一个包中的估计器一起使用
、
、
是否可以将
sklearn
递归
特征
消除
(RFE)与来自另一个软件包的估计器一起使用? 具体地说,我想使用statsmodel包中的GLM,并将其包装在
sklearn
RFE中。
浏览 4
提问于2018-08-04
得票数 3
回答已采纳
1
回答
如何使用
递归
特征
消除
来修剪这些特性?
我有近1000个地点的一些空间数据,每个地点大约有5000个
特征
。我正在做邻域分析,以确定哪些
特征
在本地社区中占主导地位。 我读到,使用
递归
的
特征
消除
,只有强的
特征
可以保持,弱的
特征
可以
消除
。对于某些特定的位置,我得到了numpy形状的邻域数据X ( 14,5000),其中5000是
特征
,14个是本地邻居。我还得到了14个长度的目标向量,有3个类标签。from
sklearn
.model_selection impo
浏览 0
提问于2021-04-01
得票数 0
2
回答
用于查找训练模型所需的最小
特征
的问题
、
、
、
我有一个问题,要求我找到可能的
特征
的最小子集(最小数量的
特征
列),使得模型的得分超过0.4 现在,我的想法是逐个删除
特征
列,看看模型的得分何时最接近0.4。是那么回事吗?
浏览 12
提问于2019-05-02
得票数 1
回答已采纳
1
回答
滑雪板中使用
递归
特征
消去法选择
特征
时出现的错误
我试图在
sklearn
中使用
递归
特征
消除
对该特性进行排序。但是,在使用RFE时,我得到了这个错误。以下是错误和代码信息。📷 x_vals = data['all_data'][:,0:320] y_vals_new = np.array([0 if each=有人认为,只有当内核被选择为线性时,
递归
特征
消除
(RFE)才适用于SVC。是这样吗?非常感谢!
浏览 0
提问于2018-08-01
得票数 0
回答已采纳
1
回答
GPU上的
SKLearn
RFE (
递归
特征
消除
)
、
、
、
我想知道是否有支持RFE在GPU上执行从我在
sklearn
网站,我找不到任何文件,因此,我认为没有官方的支持。 如果有一些指示,无论是官方支持,或任何学术/非学术尝试,将不胜感激的信息。
浏览 2
提问于2019-11-28
得票数 0
回答已采纳
1
回答
python中大数据集的后向
消除
、
、
我参加了一门在线课程,讲师使用数据集(50,5)解释了向后
消除
,您可以通过查看列的p值来手动
消除
列。y, exog = X_opt).fit() # and so on 现在,当我在像(2938,214)这样的大型数据集上进行练习时,我必须自己
消除
所有列吗
浏览 40
提问于2020-01-31
得票数 1
回答已采纳
1
回答
递归
特征
消去中估计量的超参数估计
、
、
、
、
通过交叉验证,使用RFECV模块实现
递归
特征
消除
。RFE涉及到反复训练完整
特征
集上的估计器,然后删除信息最少的
特征
,直到收敛到最优的
特征
数。from
sklearn
.cross_validation import StratifiedKFoldfrom
sklearn
import svm, grid_search def get_best_fe
浏览 1
提问于2015-04-09
得票数 5
回答已采纳
1
回答
基于scikit交叉验证的
特征
选择-方差分析学习
、
、
我正在使用scikit学习做
特征
选择。这是我的密码from
sklearn
.feature_selection import
浏览 4
提问于2017-08-28
得票数 1
0
回答
当我删除
特征
时
Sklearn
中的
递归
特征
消除
CV更改
、
、
、
我正在使用
sklearn
中的RFECV模块来找到最佳的功能数量,以在2折上产生最高的交叉验证。我使用岭回归作为我的估计器。我将在我的数据上运行RFECV,它会说有两个
特征
是最优的。但当我删除回归系数最低的一个
特征
并重新运行RFECV时,它现在显示3个
特征
是最优的。当我逐个遍历所有特性时(正如
递归
应该做的那样),我发现3实际上是最优的。 我已经用其他数据集对此进行了测试,并发现随着我一次删除一个
特征
并重新运行RFECV,最佳
特征
数会发生变化。
浏览 7
提问于2016-12-26
得票数 1
1
回答
当尝试选择
特征
时,代码进入无限循环
、
、
、
、
我正在尝试使用scikit的
递归
特征
消除
和交叉验证来处理具有二进制类问题的(5000, 37)数据,每当我适合该模型时,算法就会进入无限循环。我的数据是: from
sklearn
.svm import SVC from
sklearn
.feature_selection import RFECV X = np.random.randin
浏览 39
提问于2020-11-29
得票数 0
回答已采纳
1
回答
正确的使用RFECV和排列重要性的方法
、
、
、
、
有人提议在
Sklearn
中实现这一点,但同时,建议将eli5作为一种解决方案。然而,我不确定我是否正确地使用了它。这是我的密码:from
sklearn
.feature_selection import RFECVimport eli5 X, y = make_friedman1(n_samples=50, n_features=10, random_state=0)estim
浏览 2
提问于2020-06-23
得票数 3
回答已采纳
1
回答
如何删除数据帧中不必要的变量来预测二进制输出?
、
、
、
我有一个包含大量变量的数据集,输出可以是A或not A。如何删除对预测输出没有用处的变量?我有一个贷款的数据集,它的状态loan_status当前是Fully Paid或Charged Off由于数据集非常大,我想只保留有助于我预测输出的基本变量。 id member_id loan_amnt funded_amnt funded_amnt_inv term int_rate installment grade sub_grade emp_title emp_length home_ow
浏览 13
提问于2019-07-18
得票数 0
2
回答
使用GaussianProcessClassifier学习RFE
、
我正在使用
递归
特征
消除
(RFE)管道: from
sklearn
.feature_selection import RFE c_GAUSS = GaussianProcessClassifier()
浏览 967
提问于2021-08-30
得票数 2
回答已采纳
4
回答
基于scikit的随机森林
递归
特征
消除
、
、
、
、
我试图使用scikit-learn和随机林分类器预先形成
递归
特征
消除
,使用OOB作为在
递归
过程中创建的每个子集的评分方法。请注意,我希望使用一种方法,该方法将显式地告诉我在最优分组中选择了来自我的pandas DataFrame中的哪些特性,因为我使用
递归
特性选择来尽量减少我将输入到最终分类器中的数据量。下面是一些示例代码:import pandas as pdfrom <e
浏览 9
提问于2014-06-09
得票数 17
回答已采纳
2
回答
学习:通过交叉验证来
消除
递归
功能的好处是什么?
、
、
与此形成对比的是,还给了我rfe.ranking_还是我忽略了什么?
浏览 0
提问于2018-06-19
得票数 6
回答已采纳
1
回答
如何避免在使用嵌套在estimator_params中的RFECV时使用GridSearchCV?
、
、
目前,我正在研究网格搜索(GridSearchCV)中的
递归
特征
消除
(RFECV),使用scikit-learn寻找基于树的方法。为了清楚起见,这意味着: 以下是对折旧的全面警告: home/csw34/git/scikit-learn
浏览 1
提问于2015-08-03
得票数 2
1
回答
在Scikit学习KNN中的规范化
、
、
、
我想在
Sklearn
中使用KNN算法。在KNN中,标准的做法是进行数据归一化,以
消除
范围更大的
特征
对距离的影响。我想知道的是,这是在
Sklearn
中自动完成的,还是我应该自己对数据进行规范化?
浏览 4
提问于2015-06-01
得票数 3
回答已采纳
1
回答
为什么套索不能进行
特征
选择?
、
、
、
我在一个只有15个
特征
试图预测二进制结果的数据集上拟合逻辑拉索。我知道LASSO应该做
特征
选择和
消除
不重要的
特征
(系数= 0),但在我的分析中,它已经选择了所有的
特征
,而没有
消除
其中的任何一个。我的问题是: 这是因为我的
特征
太少,或者
特征
之间没有关联(对于分类模型来说,低co-linearity?)Is是一件坏事还是好事?所选的
特征
系数小于0.1,我能把它们解释为对模型不重要或不重要吗?附注:我使用python中的
sklear
浏览 2
提问于2021-12-15
得票数 0
0
回答
计算
特征
变量的相关性和
特征
选择之间的区别?
、
、
使用相关性和使用
特征
选择来选择重要的/高度相关的变量有什么区别?在研究
特征
选择时,我看到它使用包括皮尔逊相关性在内的统计测试。当这样做时,通过
递归
特征
消除
,前3个相关性最高的变量和前3个排序的变量之间有一个共同的变量。
浏览 10
提问于2017-12-07
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Scikit-Learn中的特征排名与递归特征消除
Python机器学习sklearn模块-特征提取
这3个Scikit-learn的特征选择技术,能够有效的提高你的数据预处理能力
利用scikit-learn进行机器学习:特征工程(二)特征选择
机器学习特征筛选:向后淘汰法原理与Python实现
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券