有人能指出特征选择和聚类以及降维算法之间的区别吗?
特征选择算法:允许找到最能代表数据的主要变量,也可以找到表示gbm / lasso类的最佳参数。
聚类帮助我们指出哪些变量簇清楚地定义了输出。
这与降维算法不一样吗?特征选择+聚类不是和降维算法一样吗?
发布于 2015-10-27 15:50:15
在机器学习和统计中,特征选择又称变量选择、属性选择或变量子集选择,是指在模型构建中选择相关特征子集(变量、预测器)的过程。
聚类分析或聚类是对一组对象进行分组的任务,使同一组中的对象(称为集群)之间(在某种意义上)比其他组(集群)中的对象更相似。
在机器学习和统计中,降维或降维是减少所考虑的随机变量数目的过程,可分为特征选择和特征提取。
当您有许多特性并且希望使用其中一些特性时,您可以应用特性选择(即mRMR)。因此,这意味着你已经应用了维数约简。
然而,聚类是将一组观测分配到子集(称为簇)中,这样同一簇中的观测在某种意义上是相似的。聚类是一种无监督学习方法,是一种常用的统计数据分析技术(check 机器学习中的聚类)。当您想根据不同的数据点的特征对其进行分组(集群)时,您可以使用/不使用维数约简来应用聚类(即k-均值)。
https://stackoverflow.com/questions/33372003
复制相似问题