腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
sklearn
数据
集中
的
特征
选择
问题
、
我是一个初学者,现在我正在
sklearn
下编写一个
特征
选择
算法,我写了一个简单
的
程序来尝试它。目标是删除
数据
集中
的
某些列,但结果是错误
的
。以下是代码和错误消息。import numpy as npdata = load_iris()print
浏览 20
提问于2020-07-23
得票数 0
1
回答
`max_features`如何限制滑雪集成模型中
的
功能数量?
、
我仍然不完全理解max_features中
的
sklearn
分类器。为解释留出了一点空间。为了解决这个
问题
,假设我使用
的
是基于树
的
分类器,例如决策树、随机森林、梯度提升等等。例如,如果我要设置max_features=10,这是否意味着每个估计器将从我
的
数据
集中
随机获取10个
特征
来构建整个树,还是意味着每次一个节点被分割时,每个估计器随机地采样10个
特征
并
选择
一个最大程度降低熵
的
<e
浏览 5
提问于2020-12-08
得票数 0
回答已采纳
3
回答
PCA分析后
的
特征
/变量重要性
、
、
、
、
我已经对我
的
原始
数据
集执行了PCA分析,并且从由PCA转换
的
压缩
数据
集中
,我还
选择
了我想要保留
的
PC数量(它们几乎解释了94%
的
方差)。现在我正在努力识别原始
特征
,这些
特征
在简化
的
数据
集中
很重要。在降维后,我如何找出哪些
特征
是重要
的
,哪些
特征
不在剩余
的
主成分中?下面是我
的
代码
浏览 3
提问于2018-06-11
得票数 55
回答已采纳
3
回答
Scikit学习构建随机森林
的
ExtraTreeRegressor考虑
的
特征
、
、
、
我遇到了,它涉及到测试
数据
集
的
face补全。在这里,max_features
的
32值被传递给ExtraTreesRegressor()函数。我了解到决策树是构建
的
,它从输入
数据
集中
选择
随机
特征
。对于上面链接中
的
示例,图像被用作训练和测试
数据
集。描述了各种类型
的
图像功能。现在我不能理解
sklearn
.ensemble.ExtraTreeRegressor从作为输入提供
的</e
浏览 0
提问于2013-06-11
得票数 1
回答已采纳
1
回答
在python中,在SelectKBest之前需要规范化
、
我需要从
数据
集中
为回归任务
选择
一些
特征
。但是数值来自不同
的
范围。from
sklearn
.datasets import load_bostonX_new = SelectKBest(f_regression, k=2).fit_transform(X, y) 为了提高回归模型<
浏览 0
提问于2018-10-16
得票数 5
1
回答
sklearn
是否支持动态
数据
的
特征
选择
?
、
、
、
、
sklearn
包含不同
特征
选择
方法
的
实现(filter/wrapper/embedded)。 所有这些方法都是为静态系统设计
的
。
sklearn
是否支持动态
数据
上
的
特征
选择
?(随时间变化
的
数据
) 在动态
数据
中,我们需要提高
特征
选择
的
效率,才能更有效。 我在IEEE (用于
特征</em
浏览 18
提问于2020-04-27
得票数 0
1
回答
关于
sklearn
中
的
mutual_info_classif,我对random_state在功能
选择
方面的用法感到困惑
、
、
我使用
sklearn
中
的
mutual_info_classif和selectPercentile在
数据
集中
进行
特征
选择
。我发现我可以将random_state设置为0,以确保每次
选择
的
功能都是相同
的
,如下代码所示:mi = mutual_info_classif(X_train,
浏览 112
提问于2020-02-22
得票数 4
回答已采纳
1
回答
如何解决ImportError:不能从谷歌
的
sklearn
.inspection中导入名称“DecisionBoundaryDisplay”吗?
、
、
、
我正试图设计一个决策树
的
决策面,训练在我
的
数据
集中
的
特征
对在谷歌竞争。示例代码:from
sklearn
.datasets import load_irisfrom
sklearn
.inspection import DecisionBoundaryDisplay i
浏览 36
提问于2022-11-30
得票数 0
1
回答
如何在
sklearn
管道中同时使用SMOTE和
特征
选择
?
、
、
、
、
] ) 我得到了下面的错误:所有中间步骤都应该是转换器并实现拟合和转换,或者是字符串'passthrough‘'SMOTE(random_state=0)’(键入)不是 我认为smote必须使用后期
特征
选择
过程
浏览 33
提问于2021-01-12
得票数 1
回答已采纳
2
回答
用于查找训练模型所需
的
最小
特征
的
问题
、
、
、
我有一个
数据
帧,其中包含price_range(target_attribute)和其他功能列。我有一个
问题
,要求我找到可能
的
特征
的
最小子集(最小数量
的
特征
列),使得模型
的
得分超过0.4 现在,我
的
想法是逐个删除
特征
列,看看模型
的
得分何时最接近0.4。是那么回事吗?
浏览 12
提问于2019-05-02
得票数 1
回答已采纳
1
回答
当在
sklearn
管道中有多种
特征
选择
方法时,如何获得所选
特征
的
名称?
、
、
、
我想在
sklearn
管道中使用以下几种特性
选择
方法:from
sklearn
.feature_selection重点是第二个
特征
选择
步骤获得第一个
特征
选择
步骤
的
输出(不是原始
的
X_train)。因此,当我在第二个
特征
选择
步骤中使用像get_support()或get_feature_n
浏览 10
提问于2022-07-25
得票数 3
回答已采纳
2
回答
执行PCA并知道哪些列被保留
、
、
当在Python语言中对
数据
集执行主成分分析时,explained_variance_ratio_将向我们显示
数据
集中
每个
特征
的
不同方差。pcaObj = PCA(n_co
浏览 0
提问于2020-05-03
得票数 0
1
回答
使用OneHotEncoder忽略不可见
的
列
、
、
例如,我正在处理一个
问题
,在这个
问题
中,我正在编码一组来自dataframe
的
数据
集:from
sklearn
.model_selectionoh.fit(X_train)oh.transform(X_test.loc[:,:'b']) X中
浏览 0
提问于2020-04-08
得票数 1
1
回答
利用Pandas
选择
滑雪板
数据
集
的
分类/离散
特征
和数值
特征
、
、
、
、
我无法识别“分类/离散”
的
特征
。我想要这样做,然后计算出分类
特征
的
每个值
的
频率。同样地,我想最终发现并使用所有的数字
特征
。 在这个来自
sklearn
的
数据
集中
,哪些
特征
是分类
的
/离散
的
?我知道可以使用dtype,但这不包括分类或不包括,因为数字->分类是可能
的
。from
sklearn
.datasets
浏览 18
提问于2022-10-24
得票数 0
2
回答
我们需要关心训练中
的
目标变量分布和回归
问题
中
的
验证集吗?
、
在分类
问题
中,我们关心
的
是标签在训练和验证
集中
的
分布。在
sklearn
中,train_test_split中有stratify选项,以确保训练和验证
集中
的
标签分布相似。在一个回归
问题
中,假设我们想要根据一系列
特征
来预测房价。我们需要关心房价在训练集和验证集上
的
分布吗? 如果是,我们如何在
sklearn
中实现这一点
浏览 2
提问于2019-03-03
得票数 1
1
回答
sklearn
.linear_model.RandomizedLogisticRegression :处理类别值
、
、
我想使用RandomizedLogisticRegression为我
的
数据
集
选择
变量。但
问题
是,我
的
数据
集中
的
一个
特征
是性别。所以它
的
值是'F‘或'M’,而不是数值。in randomized_Logistic_regression randomized_logistic.fit(X,y) File "C:\Python27\lib\site-packages\
sklearn
浏览 1
提问于2015-04-01
得票数 0
1
回答
ValueError:在将决策树
的
要素转换为整数后,无法将字符串转换为浮点型
、
我使用以下代码将
数据
集
特征
转换为整数: car_df = pd.DataFrame({'Integer Feature': [0,1,2,3,4,5], dtree = DecisionTreeClassifier() dtree.fit(car_df, y) 然而,我得到了一个错误:ValueErro
浏览 222
提问于2021-03-29
得票数 0
1
回答
多类
问题
中lasso logistic回归
特征
系数
的
解释
、
、
、
我有一个具有大量文本特性
的
数据
集,其中目标变量有三个类。 我用tf-以色列国防军编码了这些
特征
。这就形成了一个具有大量特性
的
数据
集。我尝试使用lasso logistic回归(在
sklearn
中,LogisticRegression(罚值=‘l1’))进行分类,它自动地将一些
特征
系数设置为0,从而为我执行某种
特征
选择
。LogisticRegression()
的
sklearn
实现使用‘one- of
浏览 0
提问于2018-06-21
得票数 4
2
回答
Scikit-learn -使用RFECV和GridSearch减少
特征
。系数存储在哪里?
、
我正在使用Scikit-learn RFECV为使用交叉验证
的
逻辑回归
选择
最重要
的
特征
。假设X是n,x个
特征
数据
帧,y表示响应变量:from
sklearn
.grid_search import GridSearchCVpenalty_options) grid = GridSearchCV(pipe, param_grid, cv=skf, scoring=
浏览 5
提问于2015-06-26
得票数 21
回答已采纳
1
回答
在未见
数据
上实现
sklearn
的
FeatureHasher
、
、
、
对于一些背景知识,我一直致力于医疗保险索赔
的
二进制分类,并正在实现
sklearn
的
FeatureHasher来向量化分类功能,其中许多特性在基数上特别高,具有高计数
的
独特因素级别,而
sklearn
的
FeatureHasher我将对每日提取
的
索赔
数据
进行散列,这些
数据
具有相同
的
哈希维度,因此,在对模型进行培训
的
特征
数量与每日提取
的
特征
数量之间没有差
浏览 0
提问于2020-04-27
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
sklearn的回归问题大总结
7,特征的选择
读《高维数据的特征选择-理论与算法》(二)
SPA大赛:数据处理经验以及特征选择方法
降维和特征选择的对比介绍
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券