首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

主成分分析PCA在脑科学研究中的应用

一、PCA背景 在脑科学的研究中,我们通常会获得高维度多变量的数据,虽然高维度数据为我们的研究提供了更大的分析和研究自由度,但是也会无形当中为我们的分析增加很多成本和工作量。另外一个问题是,在这么多维度的数据中,很多变量之间是存在很强相关的,此外,个别指标和数据完全是冗余的无用的。因此,如果能够找到一种方法,在降低数据维度的同时能够尽量减少数据信息的丢失,那么将会大大降低我们分析数据的工作量,并且能够简化数据分析。比如说,上面说到的,两个强相关的指标,可以用一个新的指标表示。我们这里所说的主成分分析PCA正是基于这样的实际需求而发展出来的一种降维算法。 本文中,笔者重点对PCA在脑科学研究中的应用进行论述,使读者先对PCA的应用场景有一个全面了解。 二、PCA的应用 PCA的应用主要在如下几个方面: 1.降低数据存储空间,压缩数据 PCA算法可以把n维的数据降低到k维数据,其中k小于n;比如说,几个高度强相关的数据,经过PCA降维之后,这几个高度强相关的数据可以用一个新的指标/数据进行表征,这样的话相当于压缩了数据,在存储时可以大大降低硬盘存储量。更重要的是,当你再次从硬盘中调取压缩后的数据后,可以把PCA降维后的数据通过矩阵变换恢复原始数据。 2)进行数据可视化 我们获得的数据往往是高维度,高维度数据往往不便于进行可视化,这样的话给我们展示、查看数据带来很大的不便。我们通过PCA降维,从高维降低到低维,如从4维降低到3维或者2维,便于数据的展示和查看。如图1所示,3维空间的数据点,经过PCA降维之后,投射到2维平面上,在2维平面上可视化数据对我们来说更容易更直接。

00

四大机器学习降维算法:PCA、LDA、LLE、Laplacian Eigenmaps

机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中。降维的本质是学习一个映射函数 f : x->y,其中x是原始数据点的表达,目前最多使用向量表达形式。 y是数据点映射后的低维向量表达,通常y的维度小于x的维度(当然提高维度也是可以的)。f可能是显式的或隐式的、线性的或非线性的。 目前大部分降维算法处理向量表达的数据,也有一些降维算法处理高阶张量表达的数据。之所以使用降维后的数据表示是因为在原始的高维空间中,包含有冗余信息以及噪音信息,在实际应用例如图像识别中造成了误

06
领券