据我所知,主成分分析是一种降维技术,即给定10个输入特征,它将产生较少的独立特征,即原始特征的正交和线性变换。
PCA
本身是一种学习算法,还是一个数据预处理步骤.
发布于 2018-01-16 20:58:47
有人把它贴上无人监督的标签并不少见。你可以对特征向量做一些分析,这有助于解释数据的行为。当然,如果您的转换仍然有很多特性,那么这个过程可能会相当困难。然而,这是可能的,因此我认为这是机器学习。
编辑:
由于我的答案被选中(不知道为什么),我想我会增加更多的绕行。
PCA做两件事是等价的。首先,我们通常提到的是,它最大限度地利用了差异。其次,通过观察成对距离,将重构误差降到最小.
通过查看特征向量和特征值,可以很容易地推断出哪些变量和特征对方差有贡献,以及不同变量如何与其他变量一起移动。
最后,这真的取决于你如何定义“学习”。PCA学习一个新的特征空间来捕捉原始空间的特征。我倾向于认为这是有意义的。
很复杂吗?不,不完全是,但这会削弱它作为一种算法吗?不,我不这么认为。
发布于 2018-01-16 21:23:06
当然,这不是一种学习算法,因为你在PCA中什么也学不到。然而,它可以用在不同的学习算法中以达到更好的性能,在实际中,与其他的降维方法相似。
发布于 2018-01-16 21:39:10
主成分分析( PCA )被用来消除冗余特征。它找到数据高度分布的方向。它不关心数据的标签,因为它是一个表示最小二乘意义上的数据的投影。多元判别分析,MDA
试图找出最佳分离数据的投影。后者考虑标签并找到数据可以最好分离的方向,尽管它有一些关于发现的决策类型的细节。总之,PCA
不是一种学习算法。它只是试图找出数据高度分布的方向,以消除相关特征。类似的方法,如MDA
,试图找到方向,以便对数据进行分类。虽然MDA
非常类似于PCA
,但前者用于分类,它考虑标签,但后者不直接用于分类。
https://datascience.stackexchange.com/questions/26714
复制相似问题