前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Scikit-Learn中的特征排名与递归特征消除

Scikit-Learn中的特征排名与递归特征消除

作者头像
计算机与AI
发布2020-12-14 14:48:16
1.8K0
发布2020-12-14 14:48:16
举报
文章被收录于专栏:计算机与AI计算机与AI

对于任何机器学习应用程序而言,特征选择都是一项重要任务。当所讨论的数据具有许多功能时,这尤其重要。最佳数量的特征还可以提高模型的准确性。获得最重要的特征和最佳特征的数量可以通过特征重要性或特征等级来获得。在本文中,我们将探讨功能排名。


递归特征消除

消除递归特征所需的第一项是估计器。例如,线性模型或决策树模型。

这些模型具有线性模型的系数,并且在决策树模型中具有重要的功能。在选择最佳数量的特征时,训练估计器,并通过系数或特征重要性选择特征。最不重要的功能已删除。递归地重复此过程,直到获得最佳数量的特征。

在Sklearn中的应用

Scikit-learn使通过类实现递归特征消除成为可能。该类具有以下参数:sklearn.feature_selection.RFE

  • estimator —可以通过coef_feature_importances_ 属性提供功能重要性的机器学习估计器 。
  • n_features_to_select —要选择的功能数量。选择 half 是否未指定。
  • step —一个整数,指示每次迭代要删除的特征的数量,或者一个介于0和1之间的数字以指示每次迭代要删除的特征的百分比。

拟合后,可以获得以下属性:

  • ranking_ —功能的排名。
  • n_features_ —已选择的功能数。
  • support_ —一个数组,指示是否选择了功能。

应用

如前所述,我们需要使用提供feature_importance_s 属性或 coeff_ 属性的估计器 。让我们来看一个简单的例子。数据集具有13个要素-我们将努力获得最佳数量的要素。

让我们获得 Xy 特征。

我们将其分为测试和训练集以准备建模:

几个导入:

  • Pipeline —因为我们将执行一些交叉验证。最佳实践是为了避免数据泄漏。
  • RepeatedStratifiedKFold —用于重复分层交叉验证。
  • cross_val_score —用于评估交叉验证的分数。
  • GradientBoostingClassifier —我们将使用的估算器。
  • numpy -这样我们就可以计算分数的平均值。

第一步是创建RFE 类的实例, 同时指定估算器和您要选择的特征数量。在这种情况下,我们选择6:

接下来,我们创建要使用的模型的实例:

我们将使用 Pipeline 转换数据。在中, Pipeline 我们指定 rfe 了特征选择步骤以及将在下一步中使用的模型。

然后,我们指定 RepeatedStratifiedKFold 10个拆分和5个重复的。分层的K折确保在每个折中每个类别的样本数量均衡。RepeatedStratifiedKFold重复分层K倍指定次数,每次重复具有不同的随机性。

下一步是使该管道拟合数据集。

有了这些,我们可以检查支持和排名。支持说明是否选择了特征。

代码语言:javascript
复制
rfe.support_
array([ True, False,  True, False,  True, False, False,  True, False,True, False,  True,  True])

我们可以将其放入数据框并检查结果。

我们还可以检查相对排名。

代码语言:javascript
复制
rf_df = pd.DataFrame(rfe.ranking_,index=X.columns,columns=[‘Rank’]).sort_values(by=’Rank’,ascending=True)rf_df.head()


自动特征选择

如果我们可以自动选择功能,那么与其手动配置功能数量,不如说是很好。这可以通过递归特征消除和交叉验证来实现。这是通过sklearn.feature_selection.RFECV 类完成的 。该类具有以下参数:

  • estimator -与RFE 班级相似 。
  • min_features_to_select —最少要选择的功能。
  • cv—交叉验证拆分策略。

返回的属性是:

  • n_features_ —通过交叉验证选择的最佳特征数。
  • support_ —包含有关要素选择信息的数组。
  • ranking_ —功能的排名。
  • grid_scores_ —从交叉验证中获得的分数。

第一步是导入类并创建其实例。

代码语言:javascript
复制
from sklearn.feature_selection import RFECVrfecv = RFECV(estimator=GradientBoostingClassifier())

下一步是指定管道。在此管道中,我们使用刚刚创建的 rfecv

让我们拟合管道,然后获得最佳数量的特征。

可以通过该n_features_ 属性获得最佳数量的特征 。

排名和支持可以像上次一样获得。

代码语言:javascript
复制
rfecv.support_rfecv_df = pd.DataFrame(rfecv.ranking_,index=X.columns,columns=[‘Rank’]).sort_values(by=’Rank’,ascending=True)
rfecv_df.head()

使用, grid_scores_ 我们可以绘制一个显示交叉验证得分的图表。


最后的想法

将其应用于回归问题的过程是相同的。只要确保使用回归指标而不是准确性即可。我希望本文能为您提供一些有关为您的机器学习问题选择最佳特征的见解。

参考内容:

mwitiderrick /具有递归特征消除的代码库

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-10-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 计算机与AI 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 递归特征消除
  • 自动特征选择
  • 最后的想法
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档