首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >特征选择、聚类、降维算法的区别

特征选择、聚类、降维算法的区别
EN

Stack Overflow用户
提问于 2015-10-27 15:26:15
回答 1查看 2.3K关注 0票数 0

有人能指出特征选择和聚类以及降维算法之间的区别吗?

特征选择算法:允许找到最能代表数据的主要变量,也可以找到表示gbm / lasso类的最佳参数。

聚类帮助我们指出哪些变量簇清楚地定义了输出。

这与降维算法不一样吗?特征选择+聚类不是和降维算法一样吗?

EN

回答 1

Stack Overflow用户

发布于 2015-10-27 15:50:15

特征选择:

在机器学习和统计中,特征选择又称变量选择、属性选择或变量子集选择,是指在模型构建中选择相关特征子集(变量、预测器)的过程。

聚类:

聚类分析或聚类是对一组对象进行分组的任务,使同一组中的对象(称为集群)之间(在某种意义上)比其他组(集群)中的对象更相似。

降维:

在机器学习和统计中,降维或降维是减少所考虑的随机变量数目的过程,可分为特征选择和特征提取。

当您有许多特性并且希望使用其中一些特性时,您可以应用特性选择(即mRMR)。因此,这意味着你已经应用了维数约简。

然而,聚类是将一组观测分配到子集(称为簇)中,这样同一簇中的观测在某种意义上是相似的。聚类是一种无监督学习方法,是一种常用的统计数据分析技术(check 机器学习中的聚类)。当您想根据不同的数据点的特征对其进行分组(集群)时,您可以使用/不使用维数约简来应用聚类(即k-均值)。

票数 4
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/33372003

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档