腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(3090)
视频
沙龙
1
回答
使用
CV
进行
递归
特征
消除
不会
减少
特征
计数
、
、
有100个具有二进制类别标签的示例(sick - 1,健康- 0),每个示例有9847个
特征
。为了降低维数,我正在
使用
LogisticRegression估计器和5折
CV
执行RFECV。代码如下:rfecv = RFECV(estimator=model, step=1,
cv
=StratifiedKFold(5), n_jobs
CV
分数的关系图:plt.xlabel("feature count"
浏览 6
提问于2018-08-20
得票数 0
2
回答
最佳
特征
DNNClassifier模型
、
我正在处理一个具有50个特性的二进制分类,我
使用
的是tf.estimator.DNNClassifier。如何对影响结果的顶级功能
进行
排序?feature_columns=feat_cols, hidden_units=[1024, 512, 256])试图
使用
以下方法
浏览 1
提问于2018-06-06
得票数 0
回答已采纳
2
回答
过度采样是否有助于泛化(小的不平衡数据集)?
、
、
我有一个不平衡的数据集(2:1比),大约有60名患者和80个
特征
。我
进行
了
递归
特征
消除
(RFE)和分层交叉验证,将
特征
减少
到15个,并
使用
Logistic回归和/或支持向量机( SVM )得到了0.9的AUC。我不完全相信我得到的AUC,因为我认为它
不会
正确地泛化,因为这样一个小的积极类。所以,我在考虑过度抽样(K-方法+ PCA) --少数群体--并重新运行RFE方法,这会有帮助吗?谢谢。,但我确实
使用
了
浏览 0
提问于2020-01-20
得票数 1
2
回答
如何表示最终模型(例如随机森林)?
、
、
、
、
我在dataset上运行了随机森林(不平衡的二进制目标类),并
使用
交叉验证来调优参数,并
使用
递归
特征
消除
和交叉验证来获得
特征
子集。但是概率阈值呢?如果这个阈值在
CV
的倍数中不稳定,下一步怎么办?
浏览 0
提问于2017-01-18
得票数 1
0
回答
计算
特征
变量的相关性和
特征
选择之间的区别?
、
、
使用
相关性和
使用
特征
选择来选择重要的/高度相关的变量有什么区别?在研究
特征
选择时,我看到它
使用
包括皮尔逊相关性在内的统计测试。当这样做时,通过
递归
特征
消除
,前3个相关性最高的变量和前3个排序的变量之间有一
浏览 10
提问于2017-12-07
得票数 0
1
回答
如何
使用
递归
特征
消除
来修剪这些特性?
我有近1000个地点的一些空间数据,每个地点大约有5000个
特征
。我正在做邻域分析,以确定哪些
特征
在本地社区中占主导地位。 rfc = RandomFores
浏览 0
提问于2021-04-01
得票数 0
1
回答
机器学习中统计分析(统计重要
特征
)与
特征
消除
的目的是什么?
、
、
1.首先:基本上我们
进行
状态分析来了解数据。此外,他们还
进行
了统计检验,如X-平方,以寻找有统计学意义的
特征
。假设他们有大约15个“血液参数”,测试会告诉我们其中只有10个在统计学上是重要的。这是否意味着这5将
不会
用于培训和可以删除?如果他们可以被删除:
特征
消除
证明是一样的吗?假设我们
使用
了
递归
特征
消除
/随机森林的10个最佳
特征
。结果会是一样的吗?
浏览 0
提问于2022-05-01
得票数 1
回答已采纳
1
回答
的RFECV()评分-学习
、
、
Scikit-learn库支持
递归
特征
消除
(RFE)及其交叉验证版本(RFECV)。RFECV对我非常有用,它选择了一些小的特性,但是我想知道RFE的交叉验证是如何完成的。RFE是
减少
最不重要的特性的方法。所以我认为RFECV会计算交叉验证分数,去掉1乘1的
特征
。 但是如果
使用
交叉验证,我认为每个折叠都会选择其他特性,因为数据是不同的。
浏览 0
提问于2016-01-10
得票数 1
回答已采纳
1
回答
当在scikit-learn中
使用
RFECV时,为什么分类的准确性会随着
使用
的
特征
的增加而下降?
、
、
、
、
谁能解释一下,为什么在Scikit-learn中
使用
交叉验证
进行
递归
特征
消除
时,分类的准确性会随着
特征
的增加而下降?从Scikit-learn documentation here:中报告的示例来看,当
使用
7个
特征
时,似乎产生了最好的分类结果。然而,当
使用
17个
特征
时,准确率下降了25%。这怎麽可能?
浏览 3
提问于2015-03-30
得票数 0
1
回答
基于scikit交叉验证的
特征
选择-方差分析学习
、
、
我正在
使用
scikit学习做
特征
选择。import f_classif 如何
使用
浏览 4
提问于2017-08-28
得票数 1
1
回答
在scikit learn(sklearn)中,RFECV中的功能排名如何?
、
、
、
我
使用
了
递归
特征
消除
和交叉验证(rfecv),以便为我拥有的几个
特征
(m =154)找到最佳准确度分数。rfecv = RFECV(estimator=logreg, step=1,
cv
=StratifiedKFold(2),rfecv.fit正如你可以从前13个
特征
中看到的(排名在前10名中),他们的排名不是基于分数。我知道排名与
特征
在交叉验证过程中被排除的方
浏览 24
提问于2017-02-28
得票数 3
回答已采纳
3
回答
低分辨率图像
特征
检测与描述器
、
、
、
、
目前,我正在
使用
SURF来检测关键点并从图像中提取描述符,而FLANN用于跟踪它们。在应用RANSAC (通常会
减少
20%的匹配数量)之前,我将获得每幅图像4000-5000的
特征
,通常每对连续图像将得到350-450个匹配。在低分辨率和高噪音的图像中,什么是最好的
特征
检测器和提取器?是否应根据
使用
的
特征<
浏览 6
提问于2014-06-26
得票数 5
1
回答
从
特征
集中选择集成
特征
、
、
、
我有一个关于集合
特征
选择的问题。 我的数据集由1,000个样本和大约30000个
特征
组成,它们被分类为标签A或标签B。我想做的是挑选一些可以有效地对标签
进行
分类的
特征
。我
使用
了三种方法,单变量方法(皮尔逊系数),套索回归和SVM-RFE(
递归
特征
消除
),所以我从它们中得到了三个
特征
集。我
使用
python scikit-learn
进行
特性选择。然后我在考虑集成
特征
选择方法,因为<em
浏览 2
提问于2015-12-11
得票数 3
1
回答
如何避免在
使用
嵌套在estimator_params中的RFECV时
使用
GridSearchCV?
、
、
目前,我正在研究网格搜索(GridSearchCV)中的
递归
特征
消除
(RFECV),
使用
scikit-learn寻找基于树的方法。为此,我在GitHub上
使用
当前的dev版本(0.17),它允许RFECV
使用
树方法中的特性重要性来选择要丢弃的特性。为了清楚起见,这意味着: s
浏览 1
提问于2015-08-03
得票数 2
1
回答
实现后向贪婪的
特征
选择
、
、
、
我正在尝试应用具有1700个
特征
和3300个实例的数据集的
特征
选择。
特征
选择的方法之一是逐步回归。这是一种贪婪的算法,在每一轮中删除最差的
特征
。我
使用
数据在SVM上的性能作为衡量标准,以找出最差的功能。第一次,我训练SVM 1700次,每次只保留一个
特征
。在此迭代结束时,我从集合中删除了其删除会导致最高SVM性能的
特征
。第二次,我训练SVM 1699次,每次保留一个
特征
,以此类推。 如果我想将数据集
减少
到100个
特征
浏览 1
提问于2013-06-05
得票数 1
1
回答
如何删除数据帧中不必要的变量来预测二进制输出?
、
、
、
我的尝试当您看到前4行(有很多行)时,loan_amnt
计数
似乎不太可能是附件:如何重新创建数据集impor
浏览 13
提问于2019-07-18
得票数 0
2
回答
用于回归的SKlearn (Scikit Learn)多元
特征
选择
、
、
我想
使用
一种
特征
选择方法,在这种方法中,简单的线性回归考虑了
特征
的“组合”或“
特征
之间”的交互作用。 SelectKBest只查看目标的一个
特征
,一次一个,并根据皮尔逊的R值对它们
进行
排名。
递归
特征
消除
首先
使用
我的所有
特征
,拟合线性回归模型,然后剔除绝对值系数最小的
特征
。我不确定这是否解释了“
特征
之间”的交互作用……我不这么认为,因为它只是一次踢出一个最小的系数,
浏览 3
提问于2016-09-10
得票数 1
1
回答
如何预测以列表为输入的总时数?
、
、
📷我的想法是将基于行的数据集转换为基于二进制值的列,例如Brake: 0/1,屏幕0/1。但是我会有很多输入,因为可能的输入数是100-200..
浏览 0
提问于2023-01-27
得票数 -1
1
回答
多变量
特征
选择
、
我想
进行
一个
特征
选择,假设我有一个设计矩阵X (X_1,...,X_84)和一个多变量目标Y=Y_1,Y_2,Y_3,Y_4,所以这是一个多变量多元线性回归。理想情况下,我希望
使用
Python RFE (
递归
特征
消除
)、LassoCV和sm.OLS,除了Y必须是向量而不是矩阵。谢谢
浏览 4
提问于2020-08-21
得票数 0
2
回答
特征
选择和交叉验证
、
、
、
、
我想训练一个回归模型,为了做到这一点,我
使用
随机森林模型。然而,我也需要
进行
特征
选择,因为我的数据集中有太多的
特征
,我担心如果我
使用
了所有的
特征
,我就会过度拟合。1-如果我将数据分成两半,在前半部分
进行
特征
选择,并
使用
这些选择的
特征
在剩余的一半上
进行
5折叠交叉验证(
CV
) (在这种情况下,5
CV
将
使用
完全相同的选择
特征
)。
浏览 1
提问于2013-10-29
得票数 5
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Scikit-Learn中的特征排名与递归特征消除
这3个Scikit-learn的特征选择技术,能够有效的提高你的数据预处理能力
精简模型,提升效能:线性回归中的特征选择技巧
在机器学习中,如何找到最有用的那个特征?——自动化特征选择
利用scikit-learn进行机器学习:特征工程(二)特征选择
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券