首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >为什么特征向量可能是中心性的合理概念

为什么特征向量可能是中心性的合理概念
EN

Data Science用户
提问于 2017-11-25 22:38:29
回答 1查看 459关注 0票数 6

利用邻接矩阵表示节点i和节点j之间的连接,1表示连通,0表示不连通。

利用特征向量表示中心性意味着节点连接的节点越多,节点的中心值越高。

特征向量本身就是应用变换后的向量,结果向量与原向量的方向相同或完全相反。

我真的看不出这两种属性之间的关系。

EN

回答 1

Data Science用户

发布于 2017-11-25 23:42:49

让我们将顶点的中心性定义为与其邻居中心性之和成正比的中心性。如果你把它写出来,并把邻接矩阵合并起来,特征值的倒数就会立即以比例常数的形式出现。特征向量的相关性是通过它来定义中心性:顶点的分数是第一个特征向量上的对应条目。我们必须选择第一个特征向量,因为邻接矩阵是非负的,而且由于Perron定理(详见这些讲座讲稿。),我们也希望中心点是负的。那么,如果我们的中心与转移矩阵的特征向量有内在的联系,我们如何找到它们呢?通过使用幂法,这依赖于它们的定点性质!如果你变换一个特征向量,你就得到了一个共线向量(你想要关联的性质),那么为什么不用随机估计来做这件事,直到收敛,并随着我们的前进而正常化呢?此外,如果我们将问题稍加改写为使用随机矩阵,则分数可直接解释为在相应顶点处终止的随机游动的概率!

如果你真的好奇的话,有一本专著:谷歌的PageRank及其他产品。欢迎来到现场。

票数 3
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/25108

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档